文件大小优化-如何检测网站上的可疑文件



问题如下:

我想检测文件(大多数是图像),可以在我的网页上优化。一种方法是使用Google PageSpeed,但是我只能得到特定网页的结果(比如bbc.com)。我想得到的建议,优化所有的子页面(如bbc.com/xyz,或bbc.com/sdasdwe)在一次(在一个列表)。我的网页有谷歌分析代码在它,如果它有帮助。

有可能吗?

我可以想到几种方法:

  • web服务器日志文件。确保您正在收集映像文件数据(通常会被丢弃),并编写一个脚本来获取所有惟一的映像实例。你甚至可以按使用频率排序。这将最好地满足"首先处理最常用的图像"的约束

  • 使用或编写一个网络爬虫-相当容易。将其限制在您自己的域中。维护访问过的页面列表,这样您就不会重新访问已经抓取过的资源。收集您看过的所有图像的唯一列表,并可选择添加您看过该图像的唯一页面的数量。这最好地回答了约束"我想在最经常引用的图像上工作"。

我不知道有什么工具可以做这些特定的工作。我会写代码。编写这样的代码通常比找到一个完全满足您需求的工具更快、更容易。如果你不会编程,我建议你从《尖叫青蛙》开始。你可以让它收集图像文件引用。

在我看来,谷歌分析不是一个开始的好地方,除非按照受欢迎程度或加载时间的顺序生成页面列表……首先要优化的诱人目标。GA并不专门跟踪图像的使用情况。要做到这一点,您必须扩展页面跟踪——用一小段javascript来识别每个"img"标签,并为每次使用触发一个页面浏览量。就我个人而言,我会这样做不同的不同的谷歌分析帐户;这会让你的标准分析看起来很奇怪,像每次会话的页面数会暴增,跳出率会变得毫无意义,渠道无法正常工作,等等。

最新更新