在这个信息爆炸的时代,与其被动地接受信息轰炸,不如主动建立自己的信息获取体系。今天,我来分享下我是如何构建个人信息源的。
线下本地信息源
说实话,在这个数字化时代,我们经常忽视了最传统但最接地气的信息来源。
- 本地报纸和杂志(特别是行业期刊)
- 图书馆的新书通告
- 本地社区公告栏
- 行业交流会和分享会
- 实体书店的新书展区
小贴士:别小看这些传统渠道,它们往往能带来最接地气的本地信息,是在线渠道难以替代的。
线上网络信息源
这可能是现在最主要的信息获取渠道了:
- RSS订阅(我用Feedly管理订阅源)
- 优质博客和独立网站
- 行业新闻网站
- 电子报和Newsletter
- Podcast订阅
进阶建议:建立信息过滤机制,不要被海量信息淹没。我通常会设置关键词过滤,只关注真正重要的内容。
社交信息源
社交媒体既可能是信息噪音的制造者,也可能是高质量信息的聚集地,关键在于如何使用:
- Twitter的专业人士关注清单
- LinkedIn的行业动态
- 知识星球和付费社群
- 微信公众号(严格筛选)
- 专业领域的Discord/Telegram群组
小建议:为不同类型的信息建立分组,避免信息流混杂。
会议信息
这是很多人容易忽视的重要信息源:
- 行业会议日程表
- 学术会议预告
- 线上研讨会信息
- 企业技术分享会
- 本地meetup活动
提示:建立会议信息日历,提前规划参与计划。
经典信息源
有些信息是永恒的:
- 经典书籍清单
- 行业标准文档
- 技术规范文件
- 最佳实践指南
- 案例研究集合
建议:建立个人知识库,定期回顾和更新。
论文信息源
对于需要持续学习的人来说,学术论文是不可或缺的信息来源:
- Google Scholar订阅
- arXiv预印本
- ResearchGate更新
- 核心期刊目录
- 学术会议论文集
进阶技巧:设置论文追踪提醒,及时获取最新研究进展。
如此多的信息来源,首先要解决的就是如何处理和汇总这些信息,便于我们后续的成文。这里就需要借助我研究了很长时间的AI收集汇总呈报的工作流了。
「Axton出品」AI自动化实战:Make/Zapier/Coze/Dify 集成与 GPTs 教程
RSS everything, 使用 wewerss 来将微信公众号文章转换为RSS,使用make来读取所有的rss,做总结,发送到notion中去
使用ublockorigin-huge-ai-blocklist 来屏蔽搜索结果中的内容农场
使用bilin.ai搜索多语言结果
使用meta.so来做研究