百木园-与人分享,
就是让自己快乐。

python带你采集当当网商品及评论数据并实现词云图

前言 😋

嗨喽,大家好呀~这里是爱看美女的茜茜呐

本次采集网介绍:图书频道-全球最大中文网上书店

专业提供小说传记,青春文学,成功励志,投资理财等各品类图书

畅销榜最新报价、促销、评论信息,引领最新网上购书体验!

环境使用 🎈:

  • Python 3.8

  • Pycharm

模块使用 🎠:

  • requests >>> pip install requests

  • parsel >>> pip install parsel

  • csv

爬虫基本思路流程 🎊:

一. 数据来源分析

  1. 确定自己采集数据内容
  2. 抓包分析,自己想要数据来自哪里 ---> 请求那个url地址得到想要的数据
  • 开发者工具抓包分析 F12 或者 鼠标右键点击检查 选择 network(网络), 刷新网页
  • 通过关键字(我们想要数据比如: 书名) 去搜索数据包是那个 ---> 确定请求是那个网址得到数据内容

请求这个网站 就可以得到我们想要数据内容

二. 代码实现步骤:

  1. 发送请求, 模拟浏览器对于url发送请求

  2. 获取数据, 获取服务器返回响应数据 ---> 开发者工具里面response

  3. 解析数据, 提取我们想要数据内容, 书籍基本信息

  4. 保存数据, 保存表格里面

数据采集 🎢

# 导入数据请求模块  ---> 第三方模块 需要 在cmd 里面 pip install requests
import requests
# 导入数据解析模块 ---> 第三方模块 需要 在cmd 里面 pip install parsel
import parsel
# 导入csv模块 ---> 内置模块 不需要安装
import csv

# 创建文件
f = open(\'书籍data25页.csv\', mode=\'a\', encoding=\'utf-8\', newline=\'\')
# f文件对象 fieldnames 字段名 ---> 表格第一行 作为表头
csv_writer = csv.DictWriter(f, fieldnames=[
    \'标题\',
    \'评论\',
    \'推荐\',
    \'作者\',
    \'日期\',
    \'出版社\',
    \'售价\',
    \'原价\',
    \'折扣\',
    \'电子书\',
    \'详情页\',
])
# 源码、解答、教程加Q裙:261823976
# 写入表头
csv_writer.writeheader()
\"\"\"
1. 发送请求, 模拟浏览器对于url发送请求
    - 等号左边是定义变量名
    - 模拟浏览器 ---> 请求头
        headers ---> 在开发者工具里面复制粘贴 字典数据类型
        一种简单反反爬手段, 防止被服务器识别出来是爬虫程序
    - 使用什么请求方式, 根据开发者工具来的
\"\"\"
for page in range(1, 26): #  1,26 是取1-25的数字, 不包含26
    # 确定请求网址
    url = f\'http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-recent7-0-0-1-{page}\'
    # 模拟浏览器 ---> 请求头
    headers = {
        # User-Agent 用户代理 表示浏览器基本身份标识
        \'User-Agent\': \'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36\'
    }
    # 发送请求 返回的响应对象 ---> <Response [200]>: <> 表示对象  response 响应回复  200状态码 表示请求成功
    response = requests.get(url=url, headers=headers)
    print(response)
    # 2. 获取数据, 获取服务器返回响应数据 ---> 开发者工具里面 response  print(response.text)
    \"\"\"
    3. 解析数据, 提取我们想要数据内容, 书籍基本信息
    根据得到数据类型以及我们想要数据内容, 选择最适合解析方法:
        - re正则表达式
        - css选择器
        - xpath
    xpath --->  根据标签节点提取数据
    css选择器 ---> 根据标签属性提取数据内容
        css语法匹配  不会 1  会的 2
        复制粘贴会不会 ---> ctrl + C  ctrl + v
    \"\"\"
    # 转数据类型 <Selector xpath=None data=\'<html xmlns=\"http://www.w3.org/1999/x...\'>
    selector = parsel.Selector(response.text)
    # 第一次提取 提取所有li标签 --> 返回列表, 元素Selector对象
    lis = selector.css(\'.bang_list_mode li\')
    # for循环遍历 之后进行二次提取 我们想要内容
    for li in lis:
        \"\"\"
        attr() 属性选择器 
        a::attr(title) ---> 获取a标签里面title属性
        get() 获取一个 第一个 
        \"\"\"
        title = li.css(\'.name a::attr(title)\').get()  # 标题
        star = li.css(\'.star a::text\').get().replace(\'条评论\', \'\')  # 评论
        recommend = li.css(\'.tuijian::text\').get().replace(\'推荐\', \'\')  # 推荐
        author = li.css(\'.publisher_info a::attr(title)\').get()  # 作者
        date = li.css(\'.publisher_info span::text\').get()  # 日期
        press = li.css(\'div:nth-child(6) a::text\').get()  # 出版社
        price_n = li.css(\'.price .price_n::text\').get()  # 售价
        price_r = li.css(\'.price .price_r::text\').get()  # 原价
        price_s = li.css(\'.price .price_s::text\').get().replace(\'\', \'\')  # 折扣
        price_e = li.css(\'.price .price_e .price_n::text\').get()  # 电子书
        href = li.css(\'.name a::attr(href)\').get()  # 详情页
        # 保存数据
        源码、解答、教程加Q裙:261823976
        dit = {
            \'标题\': title,
            \'评论\': star,
            \'推荐\': recommend,
            \'作者\': author,
            \'日期\': date,
            \'出版社\': press,
            \'售价\': price_n,
            \'原价\': price_r,
            \'折扣\': price_s,
            \'电子书\': price_e,
            \'详情页\': href,
        }
        # 写入数据
        csv_writer.writerow(dit)
        print(title, star, recommend, author, date, press, price_n, price_r, price_s, price_e, href, sep=\' | \')

 

评论 🎤

# 导入数据请求模块
import time
import requests
import re
for page in range(1, 11):
    time.sleep(1.5)
    # 确定网址
    源码、解答、教程加Q裙:261823976
    url = \'http://product.dangdang.com/index.php\'
    # 请求参数
    data = {
        \'r\': \'comment/list\',
        \'productId\': \'27898031\',
        \'categoryPath\': \'01.43.77.07.00.00\',
        \'mainProductId\': \'27898031\',
        \'mediumId\': \'0\',
        \'pageIndex\': page,
        \'sortType\': \'1\',
        \'filterType\': \'1\',
        \'isSystem\': \'1\',
        \'tagId\': \'0\',
        \'tagFilterCount\': \'0\',
        \'template\': \'publish\',
        \'long_or_short\': \'short\',
    }
    headers = {
        \'Cookie\': \'__permanent_id=20220526142043051185927786403737954; dest_area=country_id%3D9000%26province_id%3D111%26city_id%20%3D0%26district_id%3D0%26town_id%3D0; ddscreen=2; secret_key=f4022441400c500aa79d59edd8918a6e; __visit_id=20220723213635653213297242210260506; __out_refer=; pos_6_start=1658583812022; pos_6_end=1658583812593; __trace_id=20220723214559176959858324136999851; __rpm=p_27898031.comment_body..1658583937494%7Cp_27898031.comment_body..1658583997600\',
        \'Host\': \'product.dangdang.com\',
        \'Referer\': \'http://product.dangdang.com/27898031.html\',
        \'User-Agent\': \'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36\',
    }
    response = requests.get(url=url, params=data, headers=headers)
    html_data = response.json()[\'data\'][\'list\'][\'html\']
    content_list = re.findall(\"<span><a href=\'.*?\' target=\'_blank\'>(.*?)</a></span>\", html_data)
    for content in content_list:
        with open(\'评论.txt\', mode=\'a\', encoding=\'utf-8\') as f:
            f.write(content)
            f.write(\'\\n\')
        print(content)

 

词云图 🃏

import jieba
import wordcloud
import imageio
# 读取图片
py = imageio.imread(\'python.png\')
# 打开文件
f = open(\'评论.txt\', encoding=\'utf-8\')
# 读取内容
txt = f.read()
# jieba模块进行分词  ---> 列表
txt_list = jieba.lcut(txt)
print(txt_list)
# join把列表合成字符串
string = \' \'.join(txt_list)
# 使用词云库
wc = wordcloud.WordCloud(
    height=300,  # 高度
    width=500,  # 宽度
    background_color=\'white\',  # 背景颜色
    font_path=\'msyh.ttc\',  # 字体
    scale=15, # 轮廓
    stopwords={\'\', \'\', \'\', \'\'},  # 停用词
    mask=py  # 自定义词云图样式
)
wc.generate(string)  # 需要做词云数据传入进去
wc.to_file(\'1.png\')  # 输入图片

 

尾语 💝

感谢你观看我的文章呐~本次航班到这里就结束啦 🛬

希望本篇文章有对你带来帮助 🎉,有学习到一点知识~

躲起来的星星🍥也在努力发光,你也要努力加油(让我们一起努力叭)。

最后,博主要一下你们的三连呀(点赞、评论、收藏),不要钱的还是可以搞一搞的嘛~

不知道评论啥的,即使扣个6666也是对博主的鼓舞吖 💞 感谢 💐

python带你采集当当网商品及评论数据并实现词云图


来源:https://www.cnblogs.com/Qqun261823976/p/16529009.html
本站部分图文来源于网络,如有侵权请联系删除。

未经允许不得转载:百木园 » python带你采集当当网商品及评论数据并实现词云图

相关推荐

  • 暂无文章