我的信息获取方式一般有两种,一是主动浏览,二是被动抓取。比如我常看的网站:
https://x.com/
https://reddit.com/
https://github.com/trending
https://www.producthunt.com/discussions
https://www.indiehackers.com/
https://news.ycombinator.com/
在浏览这些网站的时候,我基本都是快速扫读,碰到自己感兴趣的话题时才会停下来消化。 比如附图便是我刚刚看到的一款产品,简单调研了一下,这个产品的关键词域名还没注册,但是竞争度有点高。 其实除了这种主动浏览方式外,还有另一套信息获取的方案,即监控一些平台的信息更新,将所有数据下载下来,然后按照标准呈现到我的邮箱里。 不过这种方式需要你对自动化流程比较了解,不然不好处理。 且有时候我会利用这种方式来进行选品,比如把某个电商平台上的产品品类下来,然后统一查询搜索量与竞争度。 等有了相应的数据反馈,再投入人工的精力去核实。 比如去年我分享过,我自己的抓取的几千个 Shopify 网站,采用的便是这种方式。 可能后续精力多一点,我会继续把这件事做下去,甚至分享一些我自己整理的数据出来。
没有回复内容