分享好友 最新动态首页 最新动态分类 切换频道
2024年Python最新爬虫案例:手把手教你爬取图片(2),面试经历分享
2024-12-27 00:15

最后

🍅 硬核资料:关注即可领取PPT模板、简历模板、行业经典书籍PDF。
🍅 技术互助:技术群大佬指点迷津,你的问题可能不是问题,求资源在群里喊一声。
🍅 面试题库:由技术群里的小伙伴们共同投稿,热乎的大厂面试真题,持续更新中。
🍅 知识体系:含编程语言、算法、大数据生态圈组件(Mysql、Hive、Spark、Flink)、数据仓库、Python、前端等等。

2024年Python最新爬虫案例:手把手教你爬取图片(2),面试经历分享

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导,让我们一起学习成长

import requests

import re

import time

2.第二步写出大体框架

这里我们还是采用面向对象来写,因为这样后期如果要改为多线程还是挺容易的。

class MySpider(object):

def init(self):

#显然我们需要最基础的headers信息

self.headers = {

‘User-Agent’:‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36’,

}

#其次我们需要url

self.url = ‘http://www.bbsnet.com/doutu’

def run(self):

#首先我们需要一个函数获取每一个url

target_urls = self.get_target_urls()

#其次我们需要去获取每一个url里面的图片

self.get_target_images(target_urls)

def get_target_urls(self):

‘’‘这里我们使用一个东西,比如列表等来存储url的结果并返回’‘’

pass

def get_target_images(self,target_urls):

‘’‘这里我们需要接收之前获取的url,所以需要一个参数’‘’

pass

if name == ‘main’:

spider = MySpider()

spider.run()

显然上面的代码跟我们的思路一模一样,是不是so easy。

3.第三步完成第一个函数 – get_target_urls()

首先按照惯例,写下以下代码

response = requests.get(self.url,headers=self.headers)

print(response.content.decode(‘utf-8’))

首先,分享下为什么有的时候我们对于文本要decode(‘utf-8’),而有时候对于文本需要decode(‘gbk’),这是根据网页源代码的编码形式来写的,比如这个网站的源代码如下

但是,尝试运行了下,发现以下错误

UnicodeEncodeError: ‘gbk’ codec can’t encode character ‘ ’ in position 424: illegal multibyte sequence

这个意思是说,这个网页存在一些字符是utf-8无法解码的,这是很正常的,毕竟有些神奇的字符,是utf-8无法表示的。

但是,大家不必紧张,这并不影响我们写代码。于是我们就这样吧,不解码了,直接以二进制的形式存储它,因为它并不影响我们去获取我们需要的链接。

于是写下这样代码

response = requests.get(self.url,headers=self.headers)

text = response.content

好的,下面我们开始解析网页

可以得到以下结果

下面我们使用xpath来解析这个html代码,我们首先如上图定位a标签,显然这个a标签在h2标签里面,且这个h2标签里面只有这么一个a标签,所以十分容易获取,代码如下

html = etree.HTML(text)

target_urls = html.xpath(‘//h2/a/@href’)

print(target_urls)

下面是尝试打印的结果(部分

[‘http://www.bbsnet.com/aoteman.html’, ‘http://www.bbsnet.com/jieqian.html’, ‘http://www.bbsnet.com/youxitu.html’, ‘http://www.bbsnet.com/liaotian-3.html’,…]

好的,至此,这个函数就完成了,是不是十分简单。该函数代码如下

def get_target_urls(self):

response = requests.get(self.url,headers=self.headers)

text = response.content

html = etree.HTML(text)

target_urls = html.xpath(‘//h2/a/@href’)

return target_urls

4.第四步完成第二个函数 --get_target_images():

老套路,写下下面的代码

for url in target_urls:

response = requests.get(url,headers=self.headers)

text = response.content.decode(‘utf-8’)

print(text)

#这里强烈建议加上break测试

break

for url in target_urls:

response = requests.get(url,headers=self.headers)

response = requests.get(url,headers=self.headers)

text = response.content

#这里同上面,不解码,直接解析,原因同上

print(text)

break

结果如下(部分结果

b’ …

好的,解决了这个大麻烦,我们下面的工作就很简单了。

可以得到以下内容

我们需要获取img标签里面的src属性,仅需获取div标签下的p标签下的img标签即可。下面是代码

for url in target_urls:

response = requests.get(url,headers=self.headers)

time.sleep(2) #一定要加上,不然会访问太快会被禁止的

response = requests.get(url,headers=self.headers)

text = response.content

#开始解析

html = etree.HTML(text)

target_images = html.xpath(‘//div[@id=“post_content”]//p//img/@src’)

print(target_images)

break

部分结果如下

[‘http://wx1.sinaimg.cn/mw690/6a04b428ly1g19akwia0rg209b09qwgf.gif’, ‘http://wx1.sinaimg.cn/mw690/6a04b428ly1g19al1td90g209q08sq4i.gif’,…]

好的,我们仅仅剩最后一步,下载图片,这里我给出两者方式

方式一:使用urllib库里的urlretrieve()函数,代码如下

#该段代码添加至获得target_images后面

#大家使用这个方法的话,一定要记得导入库:from urllib import request

for image_url in target_images:

request.urlretrieve(image_url,‘https://blog.csdn.net/2401_84138890/article/details/info/test.gif’)

break

方式二:获取链接的源代码后保存至本地,代码如下

#该段代码添加至获得target_images后面

for image_url in target_images:

response = requests.get(image_url,headers=self.headers)

= open(‘https://blog.csdn.net/2401_84138890/article/details/info/test.gif’,‘wb’)

f.write(response.content)

f.close()

break

两者的结果都如下

ok,到此处,恭喜大家,已经完成了99%的任务了。下面就是完善和补充一些代码了。

此函数完整代码如下

def get_target_images(self,target_urls):

for url in target_urls:

response = requests.get(url,headers=self.headers)

time.sleep(2)

response = requests.get(url,headers=self.headers)

text = response.content

html = etree.HTML(text)

target_images =html.xpath(‘//div[@id=“post_content”]//p//img/@src’)

for image_url in target_images:

request.urlretrieve(image_url,‘https://blog.csdn.net/2401_84138890/article/details/info/test.gif’)

break

break

#建议大家测试的时候,加上break,如果有基础的可以考虑代理或者多线程

5.第五步优化与完善

一个优秀的人,总是想写出点优秀的代码,所以优化必不可少

1.优化角度一:文件存储的优化

首先,上面我在这个py文件下面创建了一个info文件夹,所以才能写"https://blog.csdn.net/2401_84138890/article/details/info/…"这样的代码,但是我相信大家的目录下肯定没有。所以必须优化。

其次,我们可以这样考虑:使用os模块自动创建一个images的文件夹,其次可以在获取图片集合的url时顺便获取每个图片集合的标题,所以开始改写代码

修改完成后如下(只需修改第二个函数

def get_target_images(self,target_urls):

os.mkdir(‘https://blog.csdn.net/2401_84138890/article/details/images’)

for url in target_urls:

response = requests.get(url,headers=self.headers)

time.sleep(2)

response = requests.get(url,headers=self.headers)

text = response.content

html = etree.HTML(text)

target_images = html.xpath(‘//div[@id=“post_content”]//p//img/@src’)

title = html.xpath(‘//div[@id=“post_content”]//p//img/@title’)[0]

os.mkdir(‘https://blog.csdn.net/2401_84138890/article/details/images/’+title)

for index,image_url in enumerate(target_images):

response = requests.get(image_url, headers=self.headers)

#这里我是用文件方式下载,因为不知道为什么我运行urlretrieve下载时下太久了

= open(‘https://blog.csdn.net/2401_84138890/article/details/images/%s/%s.gif’%(title,index), ‘wb’)

f.write(response.content)

感谢每一个认真阅读我文章的人,看着粉丝一路的上涨和关注,礼尚往来总是要有的

① 2000多本Python电子书(主流和经典的书籍应该都有了

② Python标准库资料(最全中文版

③ 项目源码(四五十个有趣且经典的练手项目及源码

④ Python基础入门、爬虫、web开发、大数据分析方面的视频(适合小白学习

⑤ Python学习路线图(告别不入流的学习

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

最新文章
日常TikToK达人邀约,第三方工具靠不靠谱?
目前做的卖家在经历过1-3个月以后都会面临瓶颈期,手动达人逐个邀约每天大约也就50个左右已经无法满足经营需求,所以卖家朋友会选择第三方达人建联工具实现突破,相比于手动建联,确实极大的提高了建联效率,但是是不是使用了第三方建联工
笔记本电脑功率详解:影响因素、计算方式与应用场景
一、笔记本电脑功率概述笔记本电脑功率是指笔记本在运行过程中所需的能量,通常以瓦(W)为单位表示。功率是影响笔记本电脑性能的重要因素之一,了解笔记本功率可以帮助我们更好地选择适合自己需求的电脑。二、影响笔记本电脑功率的因素1.
运营干货|| 亚马逊广告关键词匹配方式及使用场景,让你的流量更精准 Keyboards 2
一谈到广告,关键词就是一个绕不开的话题,也是我们在广告运营中的重中之重。所以,我打算将亚马逊上关键词的内容,分成8篇的更新,从0-1带你全方位的了解亚马逊关键词的基础概念到高阶运营中的用法。在之前的文章中已经更新了亚马逊关键词
郑州企业专属网络名片定制专家,助力品牌飞跃
郑州专业网站搭建团队,专注于为企业量身定制专属网络名片,助力品牌形象提升与市场拓展,推动企业腾飞。郑州专业网站搭建团队的核心优势挑选郑州专业网站搭建团队的策略塑造企业独特的网络形象在互联网迅猛发展的今天,网络营销日益成为企
教你如何获取root权限认识ROOT怎么使用教程(图)
手机越用越智能,而系统定制又包含较多无用的应用,对于玩机爱好者来说,这是多么多么郁闷的一件事;更为重要的是,高玩们更喜欢DIY,喜欢那种控制的快感!所以今天就给大家说说Android手机ROOT权限的获取(iOS的越狱、塞班的xx、Meego的RO
郑州电子中专学校专业介绍 学费多少 2024招生简章
在当今信息技术日新月异的时代,职业教育成为连接梦想与现实的桥梁。郑州电子中专学校,作为一所集专业技能培训与理论知识传授于一体的优秀中等专业学校,致力于培养适应市场需求的高素质技能型人才。本文将详细介绍郑州电子中专学校的专业
股票行情快报:华测导航(300627)12月12日主力资金净卖出2432.67万元
证券之星消息,截至2024年12月12日收盘,华测导航(300627)报收于42.01元,下跌0.4%,换手率2.29%,成交量10.38万手,成交额4.35亿元。12月12日的资金流向数据方面,主力资金净流出2432.67万元,占总成交额5.59%,游资资金净流入2430.27万元
白小姐三肖三期必出一期开奖虎年,深度策略应用数据_4K版15.974
白小姐三肖三期必出一期开奖虎年,这一深度策略应用数据_4K版15.974的预测模型,近年来在彩票界引起了广泛关注。该模型以其独特的算法和数据分析能力,为彩民提供了一种全新的彩票预测方式。本文将深入探讨这一模型的工作原理、优势以及其
江苏企业互联网营销新起点,百度优化推广实战教程
江苏百度优化推广教程,专为助力企业互联网营销新起点设计。本教程深入解析百度推广策略,涵盖关键词优化、广告创意、数据分析等关键环节,助您快速提升企业网络曝光度,精准触达潜在客户,实现营销目标。随着互联网的快速发展,越来越多的
如何在微信中高效转发聊天记录及注意事项总结
微信怎么转发聊天记录How to Forward Chat History on WeChat  在当今数字化时代,社交软件已经成为我们日常生活中不可或缺的一部分。微信作为中国最流行的通讯工具之一,不仅可以进行文字聊天、语音通话,还支持图片、视频、文件等多种
相关文章
推荐文章
发表评论
0评