SEO的日志文件分析发布时

日志文件分析是一门失传的艺术。但它可以节省您的 SEO 对接。本文是关于 Web 服务器日志文件如何帮助解决问题、我们如何分析它们以及我们发现了什么的部分故事和部分教程。继续阅读,您将学习如何使用 grep 和 Screaming Frog 来锯原木并做一些严肃的、老式的有机研究魔法(锯。原木。明白了吗?!!!我每天有两个爸爸笑话。这是一个)。注意:这是关于高级 SEO 的一系列帖子的一部分。 要了解更多信息,请查看高级 SEO 的五项原则。如果您不知道什么是日志文件或它为何重要,请阅读什么是日志文件? 第一的。问题我们与重建网站的客户合作。有机流量暴跌并且没有恢复。该网站是巨大的:数百万页。我们认为 Google Search Console 会发出可怕的警告。不。GSC 报告说一切都很好。必应网站管理员工具也说了同样的话。网站爬网可以提供帮助,但会非常耗时。妓女。我们需要了解 Googlebot、BingBot 和其他人如何到达我们客户的网站。是时候分析日志文件了。

本教程需要命令行-fu。 在 Linux 或 OS X 上

,打开终端。 在 PC 上,使用诸如 cmder.net 之类的实用程序。我们使用的工具我最喜欢的日志分析工具是 Screami 。它价格  澳大利亚电话号码 便宜,易于学习,并且为复杂的任务提供了足够的冲击力。但是我们客户的日志文件快照包含超过 20 GB 的数据。尖叫的青蛙根本不喜欢这样:Screaming Frog Log File Analyzer 可以处理大文件,但 20 GB 太大了尖叫青蛙日志窒息压缩尖叫的青蛙说“WTF?”可以理解。首先,我们必须减小文件大小。是时候做一点 grep 了。获取 Grep好吧,这是爸爸的第二个笑话。 我会停下来。完整的 20 GB 日志文件包括浏览器和机器人流量。我们需要的只是机器人。如何过滤 mongobulous 日志文件?在 Excel 中打开它(哈哈哈哈哈哈)将其导入数据库(也许,但 egads)在文本编辑器中打开它(然后看着你的笔记本电脑融化成渣)使用 zippy 命令行过滤程序。这是 grep“grep”代表“打印全局正则表达式”。Grep的父母真的不喜欢。所以我们都使用首字母缩写词。

Grep 允许您筛选大型文本文件,查找包含特定字符串的行。

澳大利亚电话号码

这是重要的部分:它在不打开文件的情况下完成所有这些。如果不必向您显示,您的计算机可以处理更多数据。所以 grep 超级快。下面是一个典型的 grep 命令的语法:grep [options][thing to find] [files to search for the thing]下面是一个示例:它在当前文件夹中搜索所有以“*.log”结尾的文件,查找包含“Googlebot”的行,然后将这些行写入名为 botsonly.txt 的文件中:grep -h -i ‘Googlebot’ *.log >> botsonly.txt-h意思是“不要保存找到此文本的文件的名称。” 我们想要一个标准的日志文件。将文件名添加到每行的开头会搞砸。意思是“-i忽略大小写”。Googlebot是要查找的字符串。*.log说“搜索此文件夹中以 .log 结尾的所有文件”这>> botsonly.txt不是 grep 命令。这是一个 Linux 小技巧。>>将命令的输出写入文件而不是屏幕,在本例中为botsonly.txt.对于这个客户端,我们想要恢复几个机器人:

Leave a comment

Your email address will not be published.