游客发表

手把手教你用Python爬取某图网4000张图片

发帖时间:2025-11-04 19:37:55

本文转载自微信公众号「菜J学Python」,手把手教作者游世九黎。爬片转载本文请联系菜J学Python公众号。取某

大家好,图网我是张图J哥,本文来自我的手把手教好友游世久黎的投稿。

相信很多设计小伙伴有好的爬片灵感,但是取某没有好的设计素材,今天它来了。摄图网4000张设计素材,图网取之不尽,张图如下图所示:

好了,手把手教废话不多说,爬片开始用Python采集。IT技术网取某

01需求分析

采集摄图网的图网素材图片,目标网址-->请求数据-->解析数据-->提取数据-->保存数据。张图

02技术栈

首先我们用到的技术包括:urllib,requests,bs4等。

03采集流程

1、分析网页结构

打开网址:https://699pic.com/paihang/tupian.html,分析网页结构,我们可以看到首页图片数据杂论,这里我们爬取的是"今日热门"的图片,点击发现更多:来到目标页面,拖动滚轮滑到底部,发现有40个分页,也就是我们今天要爬取的4000张设计图片:

2、发起请求

接着对列表中的每一条url进行遍历,然后发起请求:

for url in urllist:     resp = requests.get(url,headers=hd)     html = resp.content.decode(utf-8) 

3、数据解析

得到了一个html对象,爬取页面数据信息后,需要对页面进行解析,这里我使用到的解析库是香港云服务器bs4(偏爱),当然xpath也是可以的。通过分析页面元素,我们发现每个翻页里面的图片都有这样的规律:

因此可以通过bs4的select方法抓取所有class=lazy的img标签,得到一个列表,然后通过测试发现图片的链接存放在img标签的data-original属性里,通过img.attrs[data-original]得到,再与https:进行字符串拼接,得到完整图片链接。

for img in imgs:            img_url = img.attrs[data-original]            total_url = base_http_str + img_url            print(total_url)            # print(--*60)            imgurllist.append(total_url) 

4.提取保存数据

最后运用urllib中的urlretrive方法,把图片保存到本地。

def writeData(imgurllist):     for index,url in enumerate(imgurllist):         urllib.request.urlretrieve(url,image/+ %s.png%index)         print(第%s张图片下载完成%index) 

04运行爬虫

运行爬虫代码,效果如下:

图片就下载完成了,不过运用传统方法有点慢,下次试试多线程,提升爬虫效率。

云服务器提供商

    热门排行

    友情链接