HOME 首頁(yè)
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營(yíng)
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專(zhuān)注品牌策劃15年

    簡(jiǎn)單python爬蟲(chóng)完整代碼(簡(jiǎn)單python爬蟲(chóng)完整代碼可用的)

    發(fā)布時(shí)間:2023-04-15 17:31:06     稿源: 創(chuàng)意嶺    閱讀: 92        

    大家好!今天讓創(chuàng)意嶺的小編來(lái)大家介紹下關(guān)于簡(jiǎn)單python爬蟲(chóng)完整代碼的問(wèn)題,以下是小編對(duì)此問(wèn)題的歸納整理,讓我們一起來(lái)看看吧。

    開(kāi)始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫(xiě)出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端

    官網(wǎng):https://ai.de1919.com。

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請(qǐng)撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    簡(jiǎn)單python爬蟲(chóng)完整代碼(簡(jiǎn)單python爬蟲(chóng)完整代碼可用的)

    一、求一個(gè)python3爬蟲(chóng)代碼,可以從小說(shuō)網(wǎng)站上直接把小說(shuō)的文字抄下來(lái),并整合到一個(gè)新的文本里

    from bs4 import BeautifulSoup

    from requests.exceptions import RequestException

    import re

    import requests

    import os

    def get_html_text(url):

        try:

            r = requests.get(url)

            r.raise_for_status()

            return r.text

        except RequestException:

            return None

    def get_chapter_names(html):

        soup = BeautifulSoup(html, 'lxml')

        charpter = soup.select('.bg')

        charpter_names = []

        for entry in charpter[1:]:

            charpter_name = re.findall('<h4>(.*?)</h4>', str(entry))

            file_name = re.findall('<a href.*?>(.*?)</a>', str(entry))

            if charpter_name and file_name:

                for name in file_name:

                    name = name.split(' ')[0]

                    charpter_names.append(charpter_name[0] + '_' + name)

            else:

                pass

        return set(charpter_names)

    def get_each_url(html):

        soup = BeautifulSoup(html, 'lxml')

        urls = soup.select('ul li a')

        for url in urls:

            link = url.get('href')

            text = url.text.split(' ')[0]

            full_name = url.text.replace('?','')

            yield {'url': link, 'text': text,'full_name':full_name}

            print(text)

    def get_text(url):

        r = requests.get(url)

        r.encoding = r.apparent_encoding

        soup = BeautifulSoup(r.text, 'lxml')

        items = soup.select('div.content-body')

        item = re.findall(';(.*?);', items[0].text, re.S)

        return item[0].encode()

    def save_to_file(url, text, full_name):

        base_dir = 'daomu'

        path = '{}\{}\{}'.format(os.getcwd(), base_dir, text)

        if not os.path.exists(path):

            try:

                os.makedirs(path)

            except:

                pass

        try:

            with open(path +'\'+ full_name +'.txt', 'wb') as f:

                f.write(get_text(url))

        except:

            pass

    def main():

        url = 'http://seputu.com/'

        html = get_html_text(url)

        chapters = get_chapter_names(html)

        for chapter in chapters:

            for each in get_each_url(html):

                if each['text'] == chapter.split('_')[-1]:

                    save_to_file(each['url'],chapter,each['full_name'])

    if __name__ == '__main__':

        main()

    二、如何利用python寫(xiě)爬蟲(chóng)程序

    利用python寫(xiě)爬蟲(chóng)程序的方法:

    1、先分析網(wǎng)站內(nèi)容,紅色部分即是網(wǎng)站文章內(nèi)容div。

    簡(jiǎn)單python爬蟲(chóng)完整代碼(簡(jiǎn)單python爬蟲(chóng)完整代碼可用的)

    2、隨便打開(kāi)一個(gè)div來(lái)看,可以看到,藍(lán)色部分除了一個(gè)文章標(biāo)題以外沒(méi)有什么有用的信息,而注意紅色部分我勾畫(huà)出的地方,可以知道,它是指向文章的地址的超鏈接,那么爬蟲(chóng)只要捕捉到這個(gè)地址就可以了。

    簡(jiǎn)單python爬蟲(chóng)完整代碼(簡(jiǎn)單python爬蟲(chóng)完整代碼可用的)

    3、接下來(lái)在一個(gè)問(wèn)題就是翻頁(yè)問(wèn)題,可以看到,這和大多數(shù)網(wǎng)站不同,底部沒(méi)有頁(yè)數(shù)標(biāo)簽,而是查看更多。

    簡(jiǎn)單python爬蟲(chóng)完整代碼(簡(jiǎn)單python爬蟲(chóng)完整代碼可用的)

    4、不過(guò)在查看源文件時(shí)有一個(gè)超鏈接,經(jīng)測(cè)試它指向下一頁(yè),那么通過(guò)改變其最后的數(shù)值,就可以定位到相應(yīng)的頁(yè)數(shù)上。

    簡(jiǎn)單python爬蟲(chóng)完整代碼(簡(jiǎn)單python爬蟲(chóng)完整代碼可用的)

    代碼如下:

    簡(jiǎn)單python爬蟲(chóng)完整代碼(簡(jiǎn)單python爬蟲(chóng)完整代碼可用的)

    簡(jiǎn)單python爬蟲(chóng)完整代碼(簡(jiǎn)單python爬蟲(chóng)完整代碼可用的)

    簡(jiǎn)單python爬蟲(chóng)完整代碼(簡(jiǎn)單python爬蟲(chóng)完整代碼可用的)

    三、python爬蟲(chóng)入門(mén)教程

    工具/材料

    IELD(python 3.6.2),windows 7

    • 01

      首先打開(kāi)IDLE,輸入import requests模塊,如果沒(méi)有報(bào)錯(cuò),就說(shuō)明已經(jīng)安裝了這個(gè)模塊,請(qǐng)?zhí)^(guò)此步驟;如果報(bào)錯(cuò),先打開(kāi)命令行,win+r,彈出運(yùn)行窗口,然后輸入cmd,點(diǎn)擊確定即可。

    • 02

      然后輸入pip3 install requests 安裝模塊即可

    • 03

      然后在IDLE窗口中輸入如下圖所示的命令

    • 04

      在瀏覽器中輸入https://zhinan.sogou.com/,就可以打開(kāi)網(wǎng)頁(yè),這時(shí)點(diǎn)擊鼠標(biāo)右鍵,然后點(diǎn)擊查看網(wǎng)頁(yè)源代碼,就可以發(fā)現(xiàn),打印的結(jié)果和在瀏覽器中看到的源代碼是一樣的

    四、如何入門(mén) python 爬蟲(chóng)

    如何入門(mén) python 爬蟲(chóng)

    先自己答一個(gè),期待牛人的回答。

    自己學(xué)Python不久,列舉自己做過(guò)的和知道的。

    1. Python做爬蟲(chóng)很方便,有現(xiàn)成的庫(kù)。 我在學(xué)習(xí)python的過(guò)程中也遇到過(guò)一個(gè)非常簡(jiǎn)單的例子,代碼:python/primer/20/Cralwer.py at master · xxg1413/python · GitHub 。好像有開(kāi)源的項(xiàng)目叫什么supercrawler,具體可以看看。

    2.Python做游戲。Pygame還是不錯(cuò)的,但只適合做小游戲。用Pygame寫(xiě)個(gè)植物大戰(zhàn)僵尸還是可以的。推薦教程 用Python和Pygame寫(xiě)游戲。Python在游戲服務(wù)器方面也有應(yīng)用。EVE這種游戲都大量用Python。

    3.Python作為黑客第一語(yǔ)言,在黑客領(lǐng)域的應(yīng)用就不多說(shuō)了。

    4.Python做網(wǎng)站,有幾個(gè)web框架 WebFrameworks。 用得最多的是Django。

    5......各方面都有,什么推薦系統(tǒng),都是用python,在此就不一一列舉了。

    以上就是關(guān)于簡(jiǎn)單python爬蟲(chóng)完整代碼相關(guān)問(wèn)題的回答。希望能幫到你,如有更多相關(guān)問(wèn)題,您也可以聯(lián)系我們的客服進(jìn)行咨詢(xún),客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。


    推薦閱讀:

    二手房簡(jiǎn)單改造(二手房簡(jiǎn)單改造翻修)

    一鍵生成app制作器(簡(jiǎn)單app制作軟件)_1

    企業(yè)形象墻展示墻(簡(jiǎn)單大氣公司形象墻)

    碧桂園景觀設(shè)計(jì)(碧桂園景觀設(shè)計(jì)師待遇)

    張家灣鎮(zhèn)景觀設(shè)計(jì)(張家灣鎮(zhèn)景觀設(shè)計(jì)招標(biāo))