2023-09-09我们现在调研网站流量情况,使用的比较频繁的一个软件便是 Similarweb。比如可以使用这个网站来调研对方网站的月访问量、平均访问时长、跳出率、流量渠道,等等等。 有没有好奇 Similarweb 的数据是从哪里来的? 其实像这样的数据分析软件,使用的统计方式基本都是抽样分析,外加算法预测,只不过 Similarweb 的抽样量级比较恐怖。 Similarweb 每天会从全网各个渠道收集数以亿计的数据,然后进行算法建模。从而推导出各个网站的各类数据指标,及其数据变化趋势。 同时,Similarweb 也会接入数以万计的 GA 站长数据。而这个部分的数据则可以作为算法推导数据的对照组,用于矫正分析结果,对算法模型的数据进行补充。 所以从这个角度出发,Similarweb 的数据可以参考,但是不能迷信。

2024-04-29维基百科外链怎么做? 在维基百科上寻找失效的链接,然后将其更新为自己网站的链接,是一种高级的 SEO 白帽策略。 因为,当某个编辑发现死链时,并不会马上删除链接,而是在链接旁边添加了一个脚注,并标注“dead link”。 那如何找到这些“dead link”? site:wikipedia.org keyword “dead link” 用这个搜索指令去搜索,见图一。 点击进到具体的页面,在页面搜索“dead link”关键词来发现目标,见图二。 那下一步要做的就是,编辑这个”dead link”并替换成自己的网站链接。 至于怎么编辑维基百科页面,谷歌一下吧。 对了,编辑完后并不会马上生效,需要一定的时间进行信息审核的。 如果内容质量不对,这个更新操作会被驳回。

2025-06-05今天被四位朋友问到同一个问题,即网站最近的收录降得非常厉害,有没有什么解决方案。 我的回答是没办法,只能看看最终的底在哪里了。 这个问题去年年中一直困扰着我,我当时用的还是脚本批量提交收录请求,隔天去检查时提交的链接都收录了。 但是过段时间再去检查,就会发现那些链接的收录都掉了。 我当时也尝试过再次尝试提交,或者是优化内容后再提交,甚至修改 url 地址后再提交,但最终的结果都是一样的。 后面自然就躺平了,只能是多生产内容了。 如果一万条链接最终只能保留下来 1%,那我争取做一百万条,我自己的技术实力完全支持我这么搞。 且我今天重点观察了下我自己的站点,发现很多站点的收录数据最近确实下降了,但是流量与转化都没有降。 可能确实是一个谷歌认为的低质量内容吧,放那也不出词,掉了就掉了呗。 继续做新的。