前段时间,站长控制台新增了一个工具,可以像Google一样检索页面。它使我们能够像 Google 机器人看到的那样查看我们网站的页面。起初,我们并不完全清楚为什么要使用这个新工具,但不久之后,合乎逻辑的解释开始出现。
该工具暗示了搜索引擎在确定网站排名时使用的新标准的存在。因此,所有优化器都被间接指示不要阻止 Google 蜘蛛对其 CSS 或 Javascript 文件的访问。如果允许此类访问,机器人将设法详细阅读页面,否则部分信息仍然隐藏,这会对网站在搜索引擎中的状态产生负面影响。
因此,使用这个新工具,我们可以轻松了解 Google 机器人设法从我们的页面中读取了多少内容以及仍然隐藏了哪些内容。
这项创新只是 Google 改善每个网站的用户体验的整体战略的一部分。
改变的意义
谷歌表示,创新的目的是改进索引系统,使其 首席副总裁营销官电子邮件列表 类似于包含 CSS 和 Javascript 的现代浏览器。搜索引擎再次传达的信息是,一切都是为了用户的利益。她能够像正常人一样浏览网站。
与过去 Google 索引为简单的文本浏览器相比,这是一个巨大的变化。现在,随着技术的进步,索引更加准确,搜索引擎为我们提供了一些指南来帮助它:
谷歌算法的任何变化都会引发人们对其含义的疑问。它将如何影响站长的行为以及 SEO应该改变什么?
显然,第二个问题的答案是,偏离上述准则的网站的搜索排名将会严重下降。确保您遵循这些准则,或者为您管理网站的人员熟悉这些准则。
您的目标是创建 Google 可以轻松抓取的内容。使用 Google Bot 之类的页面抓取工具来确保网站上的所有内容都井然有序。
该工具将遍历页面上的所有资源 - 图像、CSS 文件、Javascript 文件。然后它激活其代码并在一张通用图片中呈现所有内容。从那里开始,您的侦探工作就完成了 - 确保机器人看到的内容与您在浏览器中加载页面时看到的内容完全相同。