使用 PHP 在本地保存 URL 的内容,包括图像



>我需要某种方式来复制和保存网站,以便使用php或linux命令行"离线使用"。就像使用浏览器保存链接一样,它会重写图像标签并下载它们。

问题是当我找到我遇到的问题的解决方案时,我通常会将链接保存在某个地方。随之而来的问题是,有时链接会死亡,所以我无法再访问它们了。

所以我的想法是创建一个工具,在我的服务器上为我保存页面并使用该 URL。

我知道如何使用file_get_contents来获取文本/html,并且在大多数情况下都有效,但是我认为既然我正在创建一个工具,那么它也下载图像。我想用浏览器保存它并上传它,但我想要一种更简洁的方式来做到这一点。

如果有人知道一些图书馆或这样做的东西,请帮助我。

谢谢!

您应该查看cURL库,这可能是您正在寻找的。

文档中也指定了一个基本示例。

你可能想看看 wget 是否在你的 Web 服务器上可用,因为它有一些非常有用的选项。其中之一是选择使用链接翻译制作网站的离线副本,以便网站可以在本地使用。

wget --domains example.com --recursive --html-extension --page-requisites --convert-links

如果您尝试创建子文件夹的脱机副本(假设example.com/test/),请添加--no-parent以防止 wget 报废父文件夹。

您可以通过 bash 脚本运行报废过程本身,也可以使用 exec() 通过 PHP 调用它。

你可以考虑使用这个: http://www.httrack.com/

最新更新