是否有一种方法可以生成10,000多个唯一的本地服务页面?例如:“在[城市]洗槽沟清洁”

我不是Google变化的奴隶,所以我根本不知道上次算法更新是什么时候。我也不知道如何找出自那时以来有多少个被索引。但是仅仅查看Webmaster工具中的“已索引页面”列表,我可以看到仅昨天就索引或更新了50个页面,其中3个我可以从URL上看到(因为它在URL中有2023/01..的),是一两天前的。所以,虽然我不能告诉你一个数字,但它们确实正在被索引。
 
简单的问题,伙计,自12月以来你的索引页还增加了多少?因为这个显示的比以前少了…你谈论你的页面索引情况,事实是,我们在索引页面方面一直做得不错,直到大约12月。没有必要谈论奴隶制。
 
所以,我查看了一下:确实,12月索引的页面数量比现在多约10%。所以Google可能已经清理了一些索引,但正如我所说,这并不意味着完全没有新的索引。
 

chelemicla1970

New member
是的,我发现如果我请求索引,那么它总是被索引的。问题是它不会查看我们的站点地图或者浏览网站。
 

osclarurra1985

New member
12月27日我有35,000页被索引,第二天又减少了10,000页。今天是24,000页。12月30日,Googlebot爬了16,000个页面。现在它每天只爬1,000个,像是一个固定的限制。
 

comsarecon1974

New member
所以,我的假设是这是他们对GPT的回应。不管我们是否使用它(我没有),但他们需要以某种方式清除索引,他们正在使用任何信号来决定删除什么。
 
是的,我也相信这一点已经有一段时间了。我的一个竞争对手似乎失去了60万个页面,尽管它们可能会再次出现,因为我在使用“site:”所以数字会有所不同。我完全, 完全预计人工智能网站很快会被谷歌狠狠地打击。现在他们别无选择,他们必须在这方面占领先机,我期待很多友好的伤亡。
 

xidemece1988

New member
不仅是人工智能,任何大型网站,包括参考网站。我的最大竞争对手上个月失去了超过20%的流量,谷歌从索引中删除了他们75%的页面(如果查看“site:”)。我们正在谈论从一家在其SimilarWeb类别中排名第六的网站上删除数百万个页面。
 

atgagane1981

New member
将会有某种教父式的更新,人工智能站点只会在夜晚遭到可怕的毁灭。至少对于参考网站,如果做得正确,您将在页面上提到数据源,并带有某种版权,因此有某种可察觉的诚实。但是人工智能站点都挂在同一个PAA列表上,或者略有不同,这些列表是谷歌自己创建的。我怀疑当在6个月内解释“如何制作完美的维多利亚海绵蛋糕”的网站数量从1,345个增加到2.5万个时,目标已经非常明确了。
 

crinepfuwis1986

New member
最近几天我一直在追溯日志文件,看起来谷歌在页面出现在搜索引擎结果页面(SERP)之后很快就爬行这些页面。基本上是更新。如果您有一个关注低流量关键字的页面,它不会被爬行,因为它没有获取展示量,最终会从索引中掉落。当该关键字被搜索时,显示的页面已经被刷新,因为它们已经在其他高流量关键字上出现过。而我们知道现在谷歌并不热衷于发现新内容。所以,对我来说,我有一种印象,谷歌已经进入了某种维护级别、低能量、保持开灯状态的模式。
 

dodtatital1988

New member
在另一个生活中...我拥有一个针对汽车经销商的SEO代理公司,我们创建了“微型站点”,通常集中在“城市 - 车品牌经销商搜索”上,我们用它们来污染serps,将其他经销商推到了大城市的第一页之外。它运行得非常好。我们所做的一件事是在隐藏或扩展的地方拉入本地RSS提要,它保持了页面与本地基础内容的更新,每当蜘蛛访问时,它都是“新鲜的”。我对如何在本地服务的基础站点上实现这个想法有一些想法。我也想找人合作。
 

riecalmeti1981

New member
是的,那杀了我的搜索策略。当我们仅为低流量关键词排名且所有页面都被删除时,参考站点意义不大。
 

netpvisusta1975

New member
大约6个月前,我开始感觉到索引问题,因此我建立了更高级别的着陆页面,引用了更深层次、更细粒度的页面。例如,大约有一千个点击量很高的前十名页面,链接向下。这些页面有相当不错的CTR,有些魔法效应也渗透下来了。我还在这些页面上加了一点点AI内容,以给人以人类策展的印象,结果谷歌非常喜欢这些页面。我肯定会继续玩这个游戏。我的网站属于YMYL类,所以他们肯定给了我很大的麻烦,但更高级别的页面现在正在上升排名,可能用了12到18个月的时间。此外,我使用了一个关键词抓取器,以确保更高级别的页面可以被搜索引擎检索到。
 
顶部