我知道你可以去 http://webcache.googleusercontent.com/search?q=cache:http://example.com/查看谷歌对任何URL的缓存,但他们是否提供了一个API来访问数千个并支付访问费用?
我不想只是让HTTP GET到这些网址太快,让我的IP地址被禁止或让谷歌不高兴。
只是想知道他们是否提供了一种支付方式,并通过官方渠道做到这一点,就像他们对搜索 API 所做的那样。
Google 似乎没有访问缓存结果的 API:
有一些尝试可以抓取它并将其包装在 API 中,例如这个 perl 模块
除此之外,Wayback Machine还有一个API,缓存版本的网站。也许这样就可以了?
目前我没有找到任何工具可以做到这一点。您必须创建自己的脚本来单独缓存一定数量的页面。为了避免谷歌阻止你,我建议限制抓取的网址数量。不理想,但运行脚本 10 次比单独查看 1000 个缓存的 url 要好。:/
如果你想看看你在网站上编辑的任何内容是否会影响你在谷歌中的潜在排名,我会 SEORadar.com 看看,他们会为你做这件事。