濮阳杆衣贸易有限公司

主頁 > 知識庫 > Python趣味爬蟲之爬取愛奇藝熱門電影

Python趣味爬蟲之爬取愛奇藝熱門電影

熱門標簽:孝感營銷電話機器人效果怎么樣 ai電銷機器人的優(yōu)勢 南陽打電話機器人 打電話機器人營銷 聊城語音外呼系統(tǒng) 騰訊地圖標注沒法顯示 地圖標注自己和別人標注區(qū)別 海外網吧地圖標注注冊 商家地圖標注海報

一、首先我們要找到目標

找到目標先分析一下網頁很幸運這個只有一個網頁,不需要翻頁。

二、F12查看網頁源代碼

找到目標,分析如何獲取需要的數(shù)據(jù)。找到href與電影名稱

三、進行代碼實現(xiàn),獲取想要資源。

'''
操作步驟
1,獲取到url內容
 
2,css選擇其選擇內容
 
3,保存自己需要數(shù)據(jù)
 
'''
#導入爬蟲需要的包
import requests
from bs4 import BeautifulSoup
#requests與BeautifulSoup用來解析網頁的
import time
#設置訪問網頁時間,防止自己IP訪問多了被限制拒絕訪問
import re
class Position():
 
    def __init__(self,position_name,position_require,):#構建對象屬性
        self.position_name=position_name
        self.position_require=position_require
 
    def __str__(self):
        return '%s%s/n'%(self.position_name,self.position_require)#重載方法將輸入變量改成字符串形式
 
class Aiqiyi():
    def iqiyi(self,url):
        head= {
            'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.67 Safari/537.36 Edg/87.0.664.47"
        }  #模擬的服務器頭
        html = requests.get(url,headers=head)
        #headers=hard 讓腳本以瀏覽器的方式去訪問,有一些網址禁止以python的反爬機制,這就是其中一個
        soup = BeautifulSoup(html.content, 'lxml', from_encoding='utf-8')  # BeautifulSoup打看網頁
        soupl = soup.select(".qy-list-wrap")  # 查找標簽,用css選擇器,選擇自己需要數(shù)據(jù) 進行選擇頁面第一次內容(標簽要找到唯一的,找id好,如果沒有考慮其他標簽如class)
        results = []  # 創(chuàng)建一個列表用來存儲數(shù)據(jù)
        for e in soupl:
            biao = e.select('.qy-mod-li')  # 進行二次篩選
            for h in biao:
                p=Position(h.select_one('.qy-mod-link-wrap').get_text(strip=True),
                       h.select_one('.title-wrap').get_text(strip=True))#調用類轉換(繼續(xù)三次篩選選擇自己需要內容)
                results.append(p)
        return results  # 返回內容
 
    def address(self,url):
        #保存網址
        head = {
            'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.67 Safari/537.36 Edg/87.0.664.47"
        }  # 模擬的服務器頭
        html = requests.get(url, headers=head)
        soup = BeautifulSoup(html.content, 'lxml', from_encoding='utf-8')  # BeautifulSoup打看網頁
        alist = soup.find('div', class_='qy-list-wrap').find_all("a")  # 查找div塊模塊下的  a標簽
        ls=[]
        for i in alist:
            ls.append(i.get('href'))
 
        return ls
 
 
 
if __name__ == '__main__':
    time.sleep(2)
    #設置2秒訪問一次
    a=Aiqiyi()
    url = "https://list.iqiyi.com/www/1/-------------11-1-1-iqiyi--.html"
    with open(file='e:/練習.txt ', mode='a+') as f:  # e:/練習.txt 為我電腦新建的文件,a+為給內容進行添加,但不進行覆蓋原內容。
         for item in a.iqiyi(url):
             line = f'{item.position_name}\t{item.position_require}\n'
             f.write(line)  # 采用方法
             print("下載完成")
    with open(file='e:/地址.txt ', mode='a+') as f:  # e:/練習.txt 為我電腦新建的文件,a+為給內容進行添加,但不進行覆蓋原內容。
        for item in a.address(url):
            line=f'https{item}\n'
            f.write(line)  # 采用方法
            print("下載完成")

四、查看現(xiàn)象


到此這篇關于Python趣味爬蟲之爬取愛奇藝熱門電影的文章就介紹到這了,更多相關Python爬取電影內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python爬蟲技術
  • python爬蟲設置每個代理ip的簡單方法
  • Python爬蟲爬取商品失敗處理方法
  • Python獲取江蘇疫情實時數(shù)據(jù)及爬蟲分析
  • Python爬蟲之Scrapy環(huán)境搭建案例教程
  • Python爬蟲中urllib3與urllib的區(qū)別是什么
  • 教你如何利用python3爬蟲爬取漫畫島-非人哉漫畫
  • python 簡單的股票基金爬蟲
  • 零基礎學習Python爬蟲

標簽:迪慶 楊凌 撫州 聊城 揚州 南寧 牡丹江 六盤水

巨人網絡通訊聲明:本文標題《Python趣味爬蟲之爬取愛奇藝熱門電影》,本文關鍵詞  Python,趣味,爬蟲,之爬,取愛,;如發(fā)現(xiàn)本文內容存在版權問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內容系統(tǒng)采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Python趣味爬蟲之爬取愛奇藝熱門電影》相關的同類信息!
  • 本頁收集關于Python趣味爬蟲之爬取愛奇藝熱門電影的相關信息資訊供網民參考!
  • 推薦文章
    醴陵市| 江孜县| 桂东县| 永济市| 嵊州市| 夏邑县| 延寿县| 永春县| 土默特左旗| 新建县| 习水县| 罗源县| 武陟县| 辉南县| 临夏市| 绍兴县| 莱阳市| 平武县| 拉孜县| 新疆| 涿鹿县| 南昌市| 静安区| 平武县| 邹城市| 沙雅县| 吉木萨尔县| 昌黎县| 亚东县| 资中县| 宿松县| 大城县| 通道| 伊川县| 湟中县| 会昌县| 海丰县| 喀喇| 镶黄旗| 正蓝旗| 内乡县|