评分
1分享
评分
1分享
评分
4分享
评分
1分享
评分
2分享
评分
3分享
评分
1分享
评分
3分享
评分
1分享

2024-07-15 上周有跟知乎的前 SEO 负责人聊一下午,分享下重点。 因为他们主要是做百度,谷歌只是附带着做,但基本逻辑差不多。 这里聊下他们是怎么分析 SERP,然后做针对性内容的。 首先就是数据抓取,就是将每一个关键词的前几页结果都抓取出来,再针对结果分析其中的共性。 比如「图一」就是某个网站在某个关键词下的排名情况,会发现其标题中基本都有「第、强、排行榜」这样的关键词。 那从这个角度出发,搜索引擎算法是青睐这种类型内容的,也就说明后续我们输出内容时,需要往这个方向靠。 「图二」则是他们的数据分析报表了,原理就是对搜索结果进行词条切片,然后分析各个词条的出现频率。 至于具体的分析方法与数据统计逻辑,没好意思问那么细(可能商业敏感)。 不过大体的逻辑基本清晰了,就是调研关键词搜索结果页面,然后数据分析页面关键词共性,再从共性出发创作「概率」大点的内容。 有了数据分析结果,下一步就需要创作相应内容了。 他们现在的方法,主要还是 AI 创作。只不过模型训练上花了不少功夫,可能并不是适合我们。 那我们作为小个体,是不是也可以从这个点出发,将 SERP 的分析结果融入到内容生成的 Prompt 里面呢?

评分
1分享

2023-12-29 Google Search technical requirements 这篇文章重点讲了,对于网站收录而言,一些最低的技术标准是什么。 一是,网站不能屏蔽谷歌爬虫,这点在 robot.txt 文件中进行控制即可,至于具体的爬虫报告,可以在 GSC 后台里面查看。 二是,页面能正常访问,也就是从技术层面上的说的 HTTP 状态码是 200,当然速度得有一定的保障,这会对爬虫爬取效率有益。 三是,页面上有可索引收录的内容。这里的可所索引内容,主要指的是谷歌搜索引擎支持的文字性内容(也包括媒体素材),并且这些内容不能违反谷歌的垃圾政策。 其实,这篇文章读下来,都是很基础的链接收录细节,及各种概念性说明。 对于理解收录是什么,以及收录中涉及的各种技术标准,很有帮助。 链接:https://developers.google.com/search/docs/essentials/technical

评分
1分享
评分
1分享