駱魁永
摘 要:隨著電子商務(wù)的飛速發(fā)展,選擇電商平臺的商品數(shù)據(jù)作為實驗數(shù)據(jù)集的科研人員越來越多,為了解決科研人員獲取商品數(shù)據(jù)困難的問題,文章以“淘寶網(wǎng)”作為目標(biāo)網(wǎng)站,提出了一種基于Python的商品信息采集方法。首先對商品信息接口所需參數(shù)進行分析,優(yōu)化訪問鏈接,然后使用Python提供的第三方Requests和BeautifulSoup庫,對商品信息進行下載和清洗,最后將清洗后的數(shù)據(jù)存儲到MongoDB數(shù)據(jù)庫中。
關(guān)鍵詞:電商平臺;Python;數(shù)據(jù)采集
0? ? 引言
隨著我國互聯(lián)網(wǎng)的飛速發(fā)展,網(wǎng)上購物越來越受到人們的青睞,現(xiàn)在已經(jīng)成為一種重要的購物方式。淘寶、京東等大規(guī)模電商平臺每天都會生產(chǎn)海量的商品交易數(shù)據(jù),針對這些數(shù)據(jù)進行分析與挖掘,對于改善消費者購物體驗、提高商品銷量等具有非常重要的研究價值,因此吸引了一大批科研人員對電商數(shù)據(jù)進行研究[1]。但網(wǎng)站出于安全和性能的考慮對其中的數(shù)據(jù)都制定了很嚴(yán)格的保護措施,想要獲取平臺中商品數(shù)據(jù)并不容易,為了解決科研人員獲取商品數(shù)據(jù)困難的問題,設(shè)計并實現(xiàn)一種商品信息采集方法顯得尤為重要。
1? ? 爬蟲設(shè)計與實現(xiàn)
1.1? 接口參數(shù)分析
電商平臺商品種類繁多,商品數(shù)量更是數(shù)以萬計,為了便于消費者快速定位自己感興趣的商品,平臺通常都會提供“商品搜索”功能,例如淘寶、京東、拼多多。以在淘寶網(wǎng)的商品檢索框中搜索“筆記本電腦”為例,通過對搜索返回的前三頁結(jié)果頁面對應(yīng)的鏈接分析,發(fā)現(xiàn)q后面的值是搜索的關(guān)鍵字,“ie”的值為網(wǎng)頁編碼格式,“s”的取值與搜索結(jié)果的頁碼相關(guān),并發(fā)現(xiàn)s=(頁碼-1)*44。最后,對搜索結(jié)果頁面對應(yīng)的鏈接優(yōu)化得到訪問搜索結(jié)果頁面的第n頁的URL用Python語言表示為:“https://s.taobao.com/search?q={keyword}&s={page}”.format(keyword=keyword,page=(n-1)*44)。
1.2? 爬蟲算法設(shè)計
爬蟲程序的流程如圖1所示,具體步驟如下:(1)訪問start_url頁面(我們將點擊搜索按鈕后返回搜索結(jié)果的第一個頁面稱之為start_url頁面),獲取返回搜索結(jié)果的總頁面數(shù)total_page_num。(2)判斷檢索結(jié)果頁面是否遍歷完成,如果完成轉(zhuǎn)到8,否則繼續(xù)執(zhí)行3。(3)對待訪問的page_num頁面的鏈接進行優(yōu)化。(4)將檢索結(jié)果中的第page_num頁內(nèi)容下載至本地。(5)從下載的網(wǎng)頁中解析商品詳情頁包含的商品信息。(6)將采集到的商品信息存入MongoDB數(shù)據(jù)庫。(7)page_num+=1,重復(fù)步驟2—7,抓取剩余檢索頁面中的商品信息。(8)程序運行結(jié)束。
1.3? 商品信息下載
對于商品信息的下載,主要使用Python提供的第三方庫Requests[2],它是基于Python開發(fā)的HTTP庫,不僅可以重復(fù)讀取HTTP請求返回的數(shù)據(jù),還可以自動識別網(wǎng)頁編碼,可以輕松模擬瀏覽器的工作完成網(wǎng)頁下載任務(wù)。具體實現(xiàn)代碼如下所示:
head={‘User-Agent:Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36,Connection: ‘keep-alive}
def get_index(url):
data=requests.get(url,headers=head,timeout=2)
return data
1.4? 商品信息清洗
通過對下載的網(wǎng)頁源碼分析發(fā)現(xiàn),在一個script的標(biāo)簽中可以找到關(guān)于商品的所有主要信息,如商品的名稱、價格、郵費、付款人數(shù)、圖片地址、店鋪名等,這些數(shù)據(jù)以json格式被存儲。對于商品信息清洗,主要通過BeautifulSoup[3,4]和正則表達式來完成,具體實現(xiàn)代碼如下:
soup=BeautifulSoup(response.content,lxml)
goods_list=soup.find(‘script,text=re.compile(‘g_page_config)).string.strip()
pageConfig=re.search(‘g_page_config = (.*?);\n,goods_list,re.S)
pageConfig_dict=json.loads(pageConfig.group(1))
pageGoods=pageConfig_dict[‘mods][‘itemlist][‘data][‘a(chǎn)uctions]
1.5? 商品信息存儲
由于爬蟲采集到的數(shù)據(jù)具有復(fù)雜結(jié)構(gòu),這里使用MongoDB進行數(shù)據(jù)存儲。在Python中通過開源模塊pymongo可以很方便的實現(xiàn)與MongoDB數(shù)據(jù)庫的交互,具體代碼實現(xiàn)如下:
client=pymongo.MongoClient(‘localhost,27017)
taobao=client[‘taobao]
goods=taobao[‘product]
def save_to_DB(result):
try:
if goods.insert_one(result):
print(‘存儲到數(shù)據(jù)庫成功,result)
except Exception:
print(‘存儲到數(shù)據(jù)庫失敗,result)
2? ? 關(guān)鍵問題及解決方法
2.1? Robots協(xié)議
對“淘寶網(wǎng)”的Robots文件分析可知,它對爬蟲的拒絕機制主要在于User-agent的識別,使用真實的瀏覽器可以正常訪問站點,而使用爬蟲程序?qū)獾綌r截。本爬蟲的解決方法是通過為請求添加頭部信息,將爬蟲偽裝成瀏覽器[5],使其能夠正常訪問站點。
2.2? IP限制
短時間內(nèi)使用同一IP賬號對“淘寶網(wǎng)”進行高頻次的訪問,會導(dǎo)致IP賬號被拉黑。本文解決方法是設(shè)置IP代理池,每一時間間隔都會從代理池中重新獲取新的IP賬號,從而避免同一IP在短時間內(nèi)大量訪問的情況。
2.3? 多進程并發(fā)采集
多進程是相對單進程來講的,單進程即同一時間段內(nèi)處理器只處理一個問題,只有處理完這個問題后,才開始解決下一問題。為了提高商品信息的采集效率,充分利用多核CPU資源,爬蟲程序使用Python提供的多進程包multiprocessing,對商品信息進行并發(fā)采集。
3? ? 結(jié)語
本文基于Python的第三方庫:Requests和BeautifulSoup,實現(xiàn)了一個易定制易拓展的主題爬蟲,并以“淘寶網(wǎng)”為例進行商品信息的定向抓取。通過實驗證明,該方法能有效降低數(shù)據(jù)采集的難度,可以幫助科研人員獲取商品數(shù)據(jù),具有一定的現(xiàn)實意義。但是,該方法距離成熟的爬蟲還有一定的差距,在今后的工作中,考慮引入Scrapy框架[6],提高爬蟲效率及其魯棒性。
[參考文獻]
[1]丁晟春,侯琳琳,王穎.基于電商數(shù)據(jù)的產(chǎn)品知識圖譜構(gòu)建研究[J].現(xiàn)代圖書情報技術(shù),2019(3):45-56.
[2]常逢佳,李宗花,文靜,等.基于Python的招聘數(shù)據(jù)爬蟲設(shè)計與實現(xiàn)[J].軟件導(dǎo)刊,2019(12):130-133.
[3]溫婭娜,袁梓梁.基于Python爬蟲技術(shù)的網(wǎng)頁解析與數(shù)據(jù)獲取研究[J].現(xiàn)代信息科技,2020(1):12-13.
[4]房瑾堂.基于網(wǎng)絡(luò)爬蟲的在線教育平臺的設(shè)計與實現(xiàn)[D].北京:北京交通大學(xué),2016.
[5]余本國.基于python網(wǎng)絡(luò)爬蟲的瀏覽器偽裝技術(shù)探討[J].太原學(xué)院學(xué)報:自然科學(xué)版,2020(1):47-50.
[6]杜鵬輝,仇繼揚,彭書濤,等.基于Scrapy的網(wǎng)絡(luò)爬蟲的設(shè)計與實現(xiàn)[J].電子設(shè)計工程,2019(22):120-123.
(編輯 何 琳)
Method of collecting product information based on Python
Luo Kuiyong
(College of Information Engineering, Xinyang Agriculture and Forestry University, Xinyang 464000, China)
Abstract:With the rapid development of e-commerce, more and more researchers are choosing data of product from e-commerce platforms as experimental data sets. In order to solve the problem of scientific researchers difficulty in obtaining commodity data, this article takes “Taobao” as the target website and proposes a Python-based method for collecting commodity information. First, analyze the required parameters of the product information interface and optimize the access link, and then use the third-party Requests and Beautiful Soup libraries provided by Python to download and clean the product information, and finally store the cleaned data in the Mongo DB database.
Key words:e-commerce platform; Python; data collection