PHP作为一种广泛使用的服务器端脚本语言,其强大的文件处理和网络请求能力使其成为网页抓取任务的理想选择,通过PHP,我们可以轻松抓取目标网页中的图片并将其保存到本地服务器,这一过程涉及多个关键步骤,包括获取网页内容、解析图片链接、下载图片文件以及本地存储,下面将详细介绍实现这一功能的完整代码和流程。

准备工作:环境配置与依赖检查
在开始编写代码之前,需要确保PHP环境已启用必要的扩展,最基本的是curl和dom扩展,前者用于发送HTTP请求获取网页内容,后者用于解析HTML文档结构,可以通过phpinfo()函数检查这些扩展是否已启用,或直接在php.ini中取消相关扩展的注释,确保服务器对目标目录具有写入权限,这是保存图片文件的前提条件。
抓取图片的第一步是获取目标网页的HTML源码,PHP的curl扩展是执行此任务的利器,它支持设置请求头、处理Cookie以及模拟浏览器行为等高级功能,以下是一个简单的示例代码,展示如何使用curl获取网页内容:
function getWebPageContent($url) {
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, $url);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
curl_setopt($ch, CURLOPT_FOLLOWLOCATION, true);
curl_setopt($ch, CURLOPT_USERAGENT, 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)');
$content = curl_exec($ch);
curl_close($ch);
return $content;
}
解析HTML提取图片链接后,需要从中提取所有图片的URL,PHP的DOMDocument和DOMXPath类提供了强大的HTML解析能力,以下代码演示如何遍历<img>标签并提取src属性:
function extractImageUrls($html) {
$dom = new DOMDocument();
@$dom->loadHTML($html);
$xpath = new DOMXPath($dom);
$imgTags = $xpath->query('//img');
$imageUrls = [];
foreach ($imgTags as $img) {
$src = $img->getAttribute('src');
if (!empty($src)) {
$imageUrls[] = $src;
}
}
return $imageUrls;
}
处理相对路径与绝对路径
图片URL可能是相对路径(如images/pic.jpg)或绝对路径(如https://example.com/images/pic.jpg),为了确保下载的图片链接有效,需要将相对路径转换为绝对路径,以下函数可以处理这一逻辑:

function makeAbsoluteUrl($baseUrl, $url) {
if (strpos($url, 'http') === 0) {
return $url;
}
$baseUrl = rtrim($baseUrl, '/');
$url = ltrim($url, '/');
return $baseUrl . '/' . $url;
}
下载并保存图片
提取到有效的图片URL后,可以使用file_get_contents或curl下载图片内容,以下是一个使用file_get_contents的简单实现:
function downloadImage($url, $savePath) {
$imageContent = file_get_contents($url);
if ($imageContent !== false) {
file_put_contents($savePath, $imageContent);
return true;
}
return false;
}
完整实现流程
将上述步骤整合,即可形成一个完整的图片抓取脚本,以下是一个综合示例:
<?php
function getWebPageContent($url) {
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, $url);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
curl_setopt($ch, CURLOPT_FOLLOWLOCATION, true);
curl_setopt($ch, CURLOPT_USERAGENT, 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)');
$content = curl_exec($ch);
curl_close($ch);
return $content;
}
function extractImageUrls($html) {
$dom = new DOMDocument();
@$dom->loadHTML($html);
$xpath = new DOMXPath($dom);
$imgTags = $xpath->query('//img');
$imageUrls = [];
foreach ($imgTags as $img) {
$src = $img->getAttribute('src');
if (!empty($src)) {
$imageUrls[] = $src;
}
}
return $imageUrls;
}
function makeAbsoluteUrl($baseUrl, $url) {
if (strpos($url, 'http') === 0) {
return $url;
}
$baseUrl = rtrim($baseUrl, '/');
$url = ltrim($url, '/');
return $baseUrl . '/' . $url;
}
function downloadImage($url, $savePath) {
$imageContent = file_get_contents($url);
if ($imageContent !== false) {
file_put_contents($savePath, $imageContent);
return true;
}
return false;
}
// 主程序
$targetUrl = 'https://example.com';
$saveDir = './downloaded_images';
if (!file_exists($saveDir)) {
mkdir($saveDir, 0777, true);
}
$html = getWebPageContent($targetUrl);
$imageUrls = extractImageUrls($html);
foreach ($imageUrls as $url) {
$absoluteUrl = makeAbsoluteUrl($targetUrl, $url);
$fileName = basename($absoluteUrl);
$savePath = $saveDir . '/' . $fileName;
if (downloadImage($absoluteUrl, $savePath)) {
echo "Downloaded: $fileName\n";
} else {
echo "Failed to download: $url\n";
}
}
?>
注意事项与优化建议
在实际应用中,还需要考虑以下问题:1. 遵守目标网站的robots.txt规则,避免被封禁;2. 添加请求延迟,避免对服务器造成过大压力;3. 处理图片URL中的特殊字符,确保文件名合法;4. 使用多线程或异步下载提高效率,例如通过pcntl_fork或Gearman等工具。

相关问答FAQs
Q1: 如何处理需要登录才能访问的网页图片?
A1: 可以使用curl的CURLOPT_COOKIEJAR和CURLOPT_COOKIEFILE选项保存和发送Cookie,或模拟登录流程获取会话信息后再抓取图片,先发送登录请求获取Cookie,再将其用于后续的图片下载请求中。
Q2: 如何避免重复下载相同的图片?
A2: 可以通过记录已下载图片的URL或文件名到数据库或文件中,每次下载前检查是否已存在,使用in_array()函数检查当前URL是否在已下载列表中,或通过文件哈希值(如md5())判断文件是否重复。