在源代码中,将 JS 脚本的链接放在所有 HTML 后面,否则浏览器(以及 Googlebot)将必须停止下载脚本,然后才能继续解析 HTML 文档。如果您已将所有重要内容和链接放入源代码中,则此解决方案将提高页面的性能,而不会存在爬虫丢失最重要元素的风险。
当然也有例外:一些必须立即执行以确保页面正 秘鲁客户电子邮件列表 确导航的脚本以及必须立即启动的其他跟踪或营销服务(例如,我说的是 Google Analytics 脚本、Google Tag Manager、Iubenda...)。
#5 减轻 JavaScript 的负担
尝试仅在必要的范围内使用 JavaScript ,应用 minify来减轻其重量,并将其压缩为捆绑包以减少对服务器的请求。
使用 Google Mobile Test 确保 Googlebot 可以下载捆绑包和任何其他 JS 资源(请参阅第 3 点)。
将所有对用户初始导航不重要的脚本发送到页面加载结束(技术上:发送到加载处理程序);如果这些脚本加载 Google 可能看不到的元素(例如验证码),您还可以通过特定的用户操作(例如滚动时)加载它们。
另外,将整个站点未使用的脚本仅放置在需要它们的页面上(例如,仅将 Google 地图脚本放置在“联系”页面上)。
通过以这种方式优化 JavaScript,您将节省抓取预算并提高页面性能。
#6 优化抓取预算和网络服务器性能
当然,由于主题的广泛性,可以单独开一章来讨论爬行预算优化。我建议您参阅之前的 SEMrush 文章,了解有关该主题的更多信息。正如我们在前面几点中所看到的,还可以通过智能地使用 JavaScript 来优化爬行预算(延迟加载图像、推迟非关键脚本、通过用户操作触发非重要脚本等)。