Python爬虫实战案例(爬取文字)

爬取豆瓣电影的数据

首先打开"豆瓣电影 Top 250"这个网页:

  • 按F12,找到网络;
  • 向上拉动,找到名称栏中的第一个,单机打开;
  • 可以在标头里看到请求URL请求方式复制URL(需要用到);
  • 在表头的最下面有"User-Agent",也复制下来(也可以下载pip install fake_useragent库,用别人写好的UA)。
    在这里插入图片描述
    在这里插入图片描述

定位我们想要获取信息的标签位置

我们想要爬取每个电影如下图红圈中的信息
在这里插入图片描述

按下F12后,可以点击左上角的小工具,然后可以在放到你想要的数据上面,然后便可以在元素栏下定位到其所属的标签,再通过一些数据分析的方法去定位到它,并获取。
在这里插入图片描述

获取多页的电影信息

因为豆瓣电影Top 250这个页面,每一页只能展示25个电影,当我们点击到后面几页后会发现,每一页的网址只有25–>50–>–>75这样的变化,其他的没有变化,所以变化可以通过for循环来遍历它,从而达到获取更多页数的电影信息
在这里插入图片描述
在这里插入图片描述
具体代码如下:

for i in range(0, 250, 25):
        url = f"https://movie.douban.com/top250?start={i}&filter="

完整代码

# 豆瓣电影
import requests   # 别人写好的ua  pip install fake_useragent
import fake_useragent
from lxml import etree
import re

if __name__ == '__main__':
    # UA伪装
    head = {
        # "User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Safari/537.36 Edg/126.0.0.0"
        # 用 import fake_useragent 库里的UA
        "User-Agent": fake_useragent.UserAgent().random
    }
    
    # 打开一个文件将获取的数据写进去
    fp = open("./doubanFilm.txt", "w", encoding="utf-8")

    # 1、url
    # url = "https://movie.douban.com/top250"
    # url2 = "https://movie.douban.com/top250?start=25&filter="
    # url3 = "https://movie.douban.com/top250?start=50&filter="
    for i in range(0, 250, 25):
        url = f"https://movie.douban.com/top250?start={i}&filter="

        # 发送请求
        response = requests.get(url, headers=head)
        # 获取想要的数据
        res_text = response.text
        # print(res_text)
        # 数据解析
        tree = etree.HTML(res_text)
        # 定位所有的li标签
        li_list = tree.xpath("//ol[@class='grid_view']/li")
        for li in li_list:
            # 获取电影名字
            film_name = "".join(li.xpath(".//span[@class='title'][1]/text()"))
            # 获取导演、主演、年份、国家、电影类型
            director_actor_y_country_type = "".join(li.xpath(".//div[@class='bd']/p[1]/text()"))
            # 获取评分
            score = "".join(li.xpath(".//span[@class='rating_num']/text()"))
            # 获取标签语
            quote = "".join(li.xpath(".//span[@class='inq']/text()"))
            # 将获取到的导演、主演、年份、国家、电影类型放到一个新列表里,并去除空格
            new_str = director_actor_y_country_type.strip()
            # 将导演从新列表中取出  用正则表达式去匹配
            director = re.match(r"导演: ([a-zA-Z\u4e00-\u9fa51]+)(.*?)", new_str).group(1)
            # 取年份
            y = re.match(r"([\s\S]+?)(\d+)(.*?)", new_str).group(2)
            # 取国家
            country = new_str.rsplit("/")[-2].strip()
            # 取电影类型
            types = new_str.rsplit("/")[-1].strip()
            # 因为有些电影没有主演所以将主演用try-except方法做判断,有主演的取出来,没有主演设定为“no”
            try:
                actor = re.match(r"(.*?)主演: ([a-zA-Z\u4e00-\u9fa5·]+)(.*?)", new_str).group(2)
            except Exception as e:
                actor = "no"
            
            # 因为每个数据都用.join的方法转换成了字符串,所以便可以将这些数据相加并用#隔开,便能连在一起,并换行,使得数据更加工整
            fp.write(film_name + "#" + director + "#" + actor + "#" + y + "#"
                + country + "#" + types + "#" + score + "#" + quote + "\n")
            print(film_name, director, actor, y, country, types, score, quote)
    fp.close()

所爬取到的部分内容如下所示:

肖申克的救赎#弗兰克·德拉邦特#蒂姆·罗宾斯#1994#美国#犯罪 剧情#9.7#希望让人自由。
霸王别姬#陈凯歌#张国荣#1993#中国大陆 中国香港#剧情 爱情 同性#9.6#风华绝代。
阿甘正传#罗伯特·泽米吉斯#汤姆·汉克斯#1994#美国#剧情 爱情#9.5#一部美国近现代史。
泰坦尼克号#詹姆斯·卡梅隆#莱昂纳多·迪卡普里奥#1997#美国 墨西哥#剧情 爱情 灾难#9.5#失去的才是永恒的。 
千与千寻#宫崎骏#柊瑠美#2001#日本#剧情 动画 奇幻#9.4#最好的宫崎骏,最好的久石让。 
这个杀手不太冷#吕克·贝松#让·雷诺#1994#法国 美国#剧情 动作 犯罪#9.4#怪蜀黍和小萝莉不得不说的故事。
美丽人生#罗伯托·贝尼尼#罗伯托·贝尼尼#1997#意大利#剧情 喜剧 爱情 战争#9.5#最美的谎言。
星际穿越#克里斯托弗·诺兰#马修·麦康纳#2014#美国 英国 加拿大#剧情 科幻 冒险#9.4#爱是一种力量,让我们超越时空感知它的存在。
盗梦空间#克里斯托弗·诺兰#莱昂纳多·迪卡普里奥#2010#美国 英国#剧情 科幻 悬疑 冒险#9.4#诺兰给了我们一场无法盗取的梦。
楚门的世界#彼得·威尔#金·凯瑞#1998#美国#剧情 科幻#9.4#如果再也不能见到你,祝你早安,午安,晚安。
辛德勒的名单#史蒂文·斯皮尔伯格#连姆·尼森#1993#美国#剧情 历史 战争#9.5#拯救一个人,就是拯救整个世界。
忠犬八公的故事#莱塞·霍尔斯道姆#理查·基尔#2009#美国 英国#剧情#9.4#永远都不能忘记你所爱的人。
海上钢琴师#朱塞佩·托纳多雷#蒂姆·罗斯#1998#意大利#剧情 音乐#9.3#每个人都要走一条自己坚定了的路,就算是粉身碎骨。 
三傻大闹宝莱坞#拉库马·希拉尼#阿米尔·汗#2009#印度#剧情 喜剧 爱情 歌舞#9.2#英俊版憨豆,高情商版谢耳朵。
放牛班的春天#克里斯托夫·巴拉蒂#让#2004#法国 瑞士 德国#剧情 音乐#9.3#天籁一般的童声,是最接近上帝的存在。 
机器人总动员#安德鲁·斯坦顿#本·贝尔特#2008#美国#科幻 动画 冒险#9.3#小瓦力,大人生。
疯狂动物城#拜伦·霍华德#金妮弗·#2016#美国#喜剧 动画 冒险#9.2#迪士尼给我们营造的乌托邦就是这样,永远善良勇敢,永远出乎意料。
无间道#刘伟强#刘德华#2002#中国香港#剧情 犯罪 惊悚#9.3#香港电影史上永不过时的杰作。
控方证人#比利·怀尔德#泰隆·鲍华#1957#美国#剧情 犯罪 悬疑#9.6#比利·怀德满分作品。
大话西游之大圣娶亲#刘镇伟#周星驰#1995#中国香港 中国大陆#喜剧 爱情 奇幻 古装#9.2#一生所爱。

相关推荐

  1. python爬虫图片网页实例

    2024-07-23 04:52:04       16 阅读
  2. Python-数据爬虫

    2024-07-23 04:52:04       15 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-07-23 04:52:04       49 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-07-23 04:52:04       53 阅读
  3. 在Django里面运行非项目文件

    2024-07-23 04:52:04       42 阅读
  4. Python语言-面向对象

    2024-07-23 04:52:04       53 阅读

热门阅读

  1. C 语言基础概念总结

    2024-07-23 04:52:04       15 阅读
  2. word转pdf图变得模糊(解决)

    2024-07-23 04:52:04       14 阅读
  3. Nginx 中如何实现请求的排队机制?

    2024-07-23 04:52:04       16 阅读
  4. 2024.07.14校招 实习 内推 面经

    2024-07-23 04:52:04       16 阅读
  5. 【开源库学习】libodb库学习(十)

    2024-07-23 04:52:04       13 阅读
  6. 【Python】探索 Python 中的 divmod 方法

    2024-07-23 04:52:04       13 阅读
  7. 开发面试算法题求教

    2024-07-23 04:52:04       11 阅读
  8. 容器化Mojo模型:轻量级部署的艺术

    2024-07-23 04:52:04       12 阅读
  9. Fiddler模拟弱网和移动网络环境

    2024-07-23 04:52:04       14 阅读
  10. 江苏省生产经营单位安全管理考核题库及答案

    2024-07-23 04:52:04       15 阅读
  11. 解决云服务器CPU占用率接近100%问题

    2024-07-23 04:52:04       17 阅读