python爬虫——爬取豆瓣top250电影数据(适合初学者)

2023-09-12 14:49:40

前言:

爬取豆瓣top250其实是初学者用于练习和熟悉爬虫技能知识的简单实战项目,通过这个项目,可以让小白对爬虫有一个初步认识,因此,如果你已经接触过爬虫有些时间了,可以跳过该项目,选择更有挑战性的实战项目来提升技能。当然,如果你是小白,这个项目就再适合不过了。那么就让我们开始吧!

目录

一、实战

1.对豆瓣网网站进行Ajax分析

2.提取数据

二、python完整代码(两种方法)

bs4方法

正则式方法


一、实战

1.对豆瓣网网站进行Ajax分析

这里我用的是谷歌浏览器,对豆瓣电影top250网站进行检查,可以在网络部分看到该页数据的请求头信息。

需要注意的是,我们要爬取的页面数据文件是top250这个文件,判断需要从哪个包中提取数据可以在响应里看到:

 我们一开始可以试着给豆瓣发请求:

import requests

# 发请求测试
response = requests.get('https://movie.douban.com/top250')
print(response)

得到响应结果如下:

状态码是418,意思是服务器拒绝了我们的请求。这是因为服务器没有识别到我们是用户端,所以为了保证网站数据的安全,将我们拒之门外。那么我们就需要对自己进行一些简单的伪装。

UA(user-agent)伪装,是我本次采用的伪装策略,也是最简单的伪装策略,有些网站的反爬机制比较复杂,则需要采用更加复杂的反反爬机制来进行伪装,不过,对于豆瓣来说,UA伪装就够用了。

那么我们现在给我们的请求带一个请求头,并且请求头中带一个User-agent信息,这个信息可以在检查页面的请求头信息(Headers)里找到,如下所示:

现在我们将它加入到我们的代码中:

import requests

# 发请求测试网站反爬机制
headers = {
        'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/1'

    }
response = requests.get('https://movie.douban.com/top250',headers=headers)
print(response)

响应结果:

状态码为200,说明响应成功,这个时候我们已经爬到我们想要的数据了,打印出来看下:

print(response.text)

可以看到,我们已经得到了整个页面的html代码,那么下一步我们就需要从中提取我们需要的信息。

2.提取数据

这里我使用的方法是python正则式,所以我们需要先分析html代码的结构,这里需要一点前端知识,但是因为爬虫的前导知识是前端开发,因此默认大家都是能看懂的。

通过观察,我们可以发现电影标题包含在<span class="title"></span>这个类里,所以我们可以使用正则式将它匹配出来:

<span class="title">(.*?)</span>

python代码:

import re

title = re.findall('<span class="title">(.*?)</span>', response.text,re.S)

提取完之后我们需要对不干净的数据进行筛选,这一步可以省略,详见于完整代码。

其他信息也按照这个逻辑提取出来,这里我提取了题目、国籍、上映时间这三个数据,大家可以根据自己的需要去提取。

二、python完整代码(两种方法)

这里我提供两种方法,一种是用bs4对html代码进行解析(爬虫中用的比较多),另一种是python正则式。大家可以根据需要进行采用。

bs4方法

import requests
from bs4 import BeautifulSoup
import csv

'''爬取豆瓣电影top20'''
def top250_crawer(url,sum):
    headers = {
        'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/1'

    }

    response = requests.get(url,headers = headers)
    soup = BeautifulSoup(response.text, 'html.parser')
    # print(soup)
    movie_items = soup.find_all('div', class_='item')
    i = sum+1
    for item in movie_items:
         title = item.select_one('.title').text
         # print(title)
         rating = item.select_one('.rating_num').text
         data = item.select('.bd p')[0].text.split('\n')
         time = data[2].replace(' ','').split('/')[0]
         country = data[2].replace(' ','').split('/')[1]
         print(str(i)+'.'+title+','+country+','+time)

         i +=1

url = 'https://movie.douban.com/top250'
sum =0
'遍历10页数据,250条结果'
for a in range(10):
    if sum == 0 :
        top250_crawer(url,sum)
        sum +=25
    else:
        page = '?start='+str(sum)+'&filter='
        new_url = url+page
        top250_crawer(new_url,sum)
        sum +=25

正则式方法

import requests
import re

'''爬取豆瓣电影top20'''
def top250_crawer(url, sum):
    headers = {
        'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/1'

    }
    response = requests.get(url, headers=headers)
    print(response.text)
    title = re.findall('<span class="title">(.*?)</span>', response.text,re.S)
    new_title = []
    for t in title:
        if '&nbsp;/&nbsp' not in t:
            new_title.append(t)
    data = re.findall('<br>(.*?)</p>', response.text, re.S)
    time = []
    country = []
    for str1 in data:
        str1 = str1.replace(' ', '')
        str1 = str1.replace('\n', '')
        time_data = str1.split('&nbsp;/&nbsp;')[0]
        country_data = str1.split('&nbsp;/&nbsp;')[1]
        time.append(time_data)
        country.append(country_data)
    print(len(new_title))
    print(len(time))
    print(len(country))
    for j in range(len(country)):
        sum += 1
        print(str(sum)+'.' + new_title[j] + ',' + country[j] + ',' + time[j])


url = 'https://movie.douban.com/top250'
sum = 0
'遍历10页数据,250条结果'
for a in range(10):
    if sum == 0:
        top250_crawer(url, sum)
        sum += 25
    else:
        page = '?start=' + str(sum) + '&filter='
        new_url = url + page
        top250_crawer(new_url, sum)
        sum += 25

运行结果:

更多推荐

uniapp cors错误

CORS(跨源资源共享)错误通常出现在前端应用程序尝试从不同源(域)请求数据时。这些错误是出于安全考虑而存在的,以防止潜在的恶意攻击。如果你在UniApp中遇到CORS错误,可以尝试以下解决方法:检查服务器端设置:首先,请确保服务器端允许跨域请求。服务器应该在响应头中包含适当的CORS标头,允许来自UniApp应用程序

广州某机械制造企业生产工序管理系统解决方案

RFID工序管理解决方案在生产工序中引入RFID技术,对生产工序的构件拼装、焊接、打磨后检测、打砂油漆后检测、构件拟装读取确认、项目管理人员收货确认等各个生产环节的数据进行自动化的数据采集,保证生产管理各个作业环节数据输入的效率和准确性,确保企业及时准确地掌握项目生产的真实数据,合理控制各个项目的顺利进展。根据企业对I

MySQL中如何识别低效的索引

我是一个目录前言(可以跳过直接看正文)索引的基本原理索引设计的原则创建索引的原则正文使用索引查询一定能提高查询的性能吗?怎样查看索引是否有高选择性?用一条SQL查看低效的索引前言(可以跳过直接看正文)索引的基本原理索引用来快速地寻找那些具有特定值的记录。如果没有索引,一般来说执行查询时遍历整张表。索引的原理很简单,就是

Mysql表的约束

目录一、NULL约束二、default约束三、comment四、zerofill五、primarykey六、auto_increment七、唯一键八、外键为了保证数据的完整性和可预期性,表中一定要有各种约束,通过约束,让我们未来插入数据库表中的数据是符合预期的。表的约束很多,这里主要介绍以下几个约束:null/notn

软件测试7大误区

随着软件测试对提高软件质量重要性的不断提高,软件测试也不断受到重视。但是,国内软件测试过程的不规范,重视开发和轻视测试的现象依旧存在。因此,对于软件测试的重要性、测试方法和测试过程等方面都存在很多不恰当的认识,这将会进一步的影响软件测试活动的开展,并且阻碍软件测试质量的提高。下面简单列举了几种有代表性的对软件测试的认识

typeof的作用

typeof是JavaScript中的一种运算符,用于获取给定值的数据类型。它的作用是返回一个字符串,表示目标值的数据类型。通过使用typeof运算符,我们可以在运行时确定一个值的类型,从而进行相应的处理或逻辑判断。常见的数据类型包括:"undefined":未定义的值"boolean":布尔值"number":数字"

Java的checked exception有意义吗?

1前言这种异常必须在编译前就try/catch,又不一定会抛异常,小项目中不明显,大项目中,会造成不必要代码臃肿和可读性降低,完全可在编译出错时,通过单元测试和调试,得到正确代码。这设计还有啥意义?CheckedException初衷很好,但事实上是没啥卵用设计。2初衷很好因为我们都知软件会有各种问题,严谨处理这些问题

【JavaScript精通之道】掌握数据遍历:解锁现代化遍历方法,提升开发效率!

​🎬岸边的风:个人主页🔥个人专栏:《VUE》《javaScript》⛺️生活的理想,就是为了理想的生活!​目录📚前言📘1.reduce方法📘2.forEach方法📘3.map方法📘4.for循环📘5.filter方法📘6.for...of循环📘7.Object.keys方法📘8.Object.va

ARTS 打卡 第一周,初试ARTS

前言认识三掌柜的想必都知道,我持续创作技术博客已经有6年时间了,固定每个月发布不少于6篇博文。同时,自己作为一名热爱分享的开发者,像ARTS这样的活动自然少不了我。由于我是打算挤在一起分享,之前都是做了本地文档记录,所以直接把内容整合起来即可,那么接下来就开启我的第一周打卡咯。ARTS是什么?ARTS其实是由四个部分组

ngx_memalign是在 Nginx 中使用的一个内存分配函数,它的作用是根据指定的对齐方式和大小,分配一块对齐的内存

ngx_memalignngx_memalign是在Nginx中使用的一个内存分配函数。它的作用是根据指定的对齐方式和大小,分配一块对齐的内存。这个函数在Nginx的内存管理系统中使用得比较广泛,尤其是在处理大块数据时,可以提高内存访问的效率。具体的函数原型如下:void*ngx_memalign(size_talig

Apache Spark 的基本概念

ApacheSpark是一种快速、可扩展、通用的数据处理引擎。它是一种基于内存的计算框架,支持分布式数据处理、机器学习、图形计算等多种计算任务。与传统的HadoopMapReduce相比,Spark具有更高的性能和更广泛的应用场景。Spark中的基本概念包括:1.ResilientDistributedDatasets

热文推荐