百木园-与人分享,
就是让自己快乐。

85行代码实现多线程+数据文件操作+数据库存储的爬虫实例

写在前面

这是我在接触爬虫后,写的第二个爬虫实例。
也是我在学习python后真正意义上写的第二个小项目,第一个小项目就是第一个爬虫了。

我从学习python到现在,也就三个星期不到,平时课程比较多,python是额外学习的,每天学习python的时间也就一个小时左右。
所以我目前对于python也不是特别了解,如果代码以及理解方面存在错误,欢迎大家的指正。

爬取的网站

这是一个推荐网络小说的网站。
https://www.tuishujun.com/

image

我之前用以下的代码实例,爬取了这个网站所有的小说数据,大概有十七万左右。
大概花了6个小时的时间,效率还是不错的,如果是在单线程的情况下,我估计在不停机24小时爬取的情况下,也需要几天。

我在刚开始写这个爬虫实例的时候,也遇到了很多问题,首先就是网上虽然有很多关于python多线程爬虫的东西,但...

除此之外,关于利用多线程操作数据库的爬虫实例也是比较少。

就解决以上问题,我找了很多资料,走了不少弯路,摸索了几天才写出了以下实例。

大家可以参考以下实例,进行拓展,写出属于自己的多线程爬虫。

需要注意的点:
在实例中我使用了ThreadPoolExecutor构造线程池的方式(大家可以找找这方面的资料看看),如果你在使用多线程的时候想要操作数据库存储数据,建议使用以上方式,要不然你会发现,在运行代码时出现各种各样的错误。

代码实例

import requests
import pymysql
import os
from lxml import etree
from fake_useragent import UserAgent
from concurrent.futures import ThreadPoolExecutor


class tuishujunSpider(object):
    def __init__(self):
        if not os.path.exists(\'db/tuishujun\'):
            os.makedirs(\'db/tuishujun\')
        else:
            pass
        self.f = open(\'./db/tuishujun/tuishujun.txt\', \'a\', encoding=\'utf-8\')
        self.con = pymysql.connect(host=\'localhost\', user=\'root\', password=\'123456789\', database=\'novel\',
                                   charset=\'utf8\', port=3306)
        self.cursor = self.con.cursor()
        self.cursor.execute(\" SHOW TABLES LIKE \'tuishujun\' \")
        judge = self.cursor.fetchone()
        if judge:
            pass
        else:
            self.cursor.execute(\"\"\"create table tuishujun
                            ( id BIGINT NOT NULL AUTO_INCREMENT,
                              cover VARCHAR(255),
                              name VARCHAR(255),
                              author VARCHAR(255),
                              source VARCHAR(255),
                              intro LONGTEXT,
                              PRIMARY KEY (id))
                           \"\"\")
        self.con.commit()
        self.cursor.close()
        self.con.close()

    def start(self, page):
        con = pymysql.connect(
            host=\'localhost\', user=\'root\', password=\'123456789\', database=\'novel\', charset=\'utf8\', port=3306)
        cursor = con.cursor()
        headers = {
            \'User-Agent\': UserAgent().random
        }
        url = \'https://www.tuishujun.com/books/\' + str(page)
        r = requests.get(url, headers=headers)
        if r.status_code == 500:
            return
        else:
            html = etree.HTML(r.text)
            book = {}
            book[\'id\'] = str(page)
            try:
                cover = html.xpath(\'//*[@id=\"__layout\"]/div/div[2]/div/div[1]/div/div[1]/div[1]/div[1]/img/@src\')[0]
            except IndexError:
                cover = \'\'
            book[\'cover\'] = cover
            name = \\
                html.xpath(
                    \'//*[@id=\"__layout\"]/div/div[2]/div/div[1]/div/div[1]/div[1]/div[2]/div/div[1]/h3/text()\')[0]
            book[\'name\'] = name
            author = \\
                html.xpath(
                    \'//*[@id=\"__layout\"]/div/div[2]/div/div[1]/div/div[1]/div[1]/div[2]/div/div[2]/a/text()\')[
                    0].strip()
            author = author.replace(\"\\n\", \"\")
            book[\'author\'] = author
            source = \\
                html.xpath(\'//*[@id=\"__layout\"]/div/div[2]/div/div[1]/div/div[1]/div[1]/div[2]/div/div[5]/text()\')[
                    0]
            book[\'source\'] = source
            intro = html.xpath(\'//*[@id=\"__layout\"]/div/div[2]/div/div[1]/div/div[1]/div[2]/text()\')[0]
            intro = intro.replace(\" \", \"\")
            intro = intro.replace(\"\\n\", \"\")
            book[\'intro\'] = intro
            self.f.write(str(book) + \'\\n\')
            cursor.execute(\"insert into tuishujun(id,cover,name,author,source,intro) \"
                           \"values(%s,%s,%s,%s,%s,%s)\",
                           (book[\'id\'], book[\'cover\'], book[\'name\'], book[\'author\'],
                            book[\'source\'], book[\'intro\']))
            con.commit()
            cursor.close()
            con.close()
            print(book)

    def run(self):
        pages = range(1, 200000)
        with ThreadPoolExecutor() as pool:
            pool.map(self.start, pages)


if __name__ == \'__main__\':
    spider = tuishujunSpider()
    spider.run()

来源:https://www.cnblogs.com/ouhouyi/p/16412282.html
本站部分图文来源于网络,如有侵权请联系删除。

未经允许不得转载:百木园 » 85行代码实现多线程+数据文件操作+数据库存储的爬虫实例

相关推荐

  • 暂无文章