本文实例为大家分享了python爬虫爬取淘宝商品的具体代码,供大家参考,具体内容如下
1、需求目标 :
进去淘宝页面,搜索耐克关键词,抓取 商品的标题,链接,价格,城市,旺旺号,付款人数,进去第二层,抓取商品的销售量,款号等。
2、结果展示
3、源代码
# encoding: utf-8 import sys reload(sys) sys.setdefaultencoding('utf-8') import time import pandas as pd time1=time.time() from lxml import etree from selenium import webdriver #########自动模拟 driver=webdriver.PhantomJS(executable_path='D:/Python27/Scripts/phantomjs.exe') import re #################定义列表存储############# title=[] price=[] city=[] shop_name=[] num=[] link=[] sale=[] number=[] #####输入关键词耐克(这里必须用unicode) keyword="%E8%80%90%E5%85%8B" for i in range(0,1): try: print "...............正在抓取第"+str(i)+"页..........................." url="https://s.taobao.com/search"+str(i*44) driver.get(url) time.sleep(5) html=driver.page_source selector=etree.HTML(html) title1=selector.xpath('//div[@class="row row-2 title"]/a') for each in title1: print each.xpath('string(.)').strip() title.append(each.xpath('string(.)').strip()) price1=selector.xpath('//div[@class="price g_price g_price-highlight"]/strong/text()') for each in price1: print each price.append(each) city1=selector.xpath('//div[@class="location"]/text()') for each in city1: print each city.append(each) num1=selector.xpath('//div[@class="deal-cnt"]/text()') for each in num1: print each num.append(each) shop_name1=selector.xpath('//div[@class="shop"]/a/span[2]/text()') for each in shop_name1: print each shop_name.append(each) link1=selector.xpath('//div[@class="row row-2 title"]/a/@href') for each in link1: kk="https://" + each link.append("https://" + each) if "https" in each: print each driver.get(each) else: print "https://" + each driver.get("https://" + each) time.sleep(3) html2=driver.page_source selector2=etree.HTML(html2) sale1=selector2.xpath('//*[@id="J_DetailMeta"]/div[1]/div[1]/div/ul/li[1]/div/span[2]/text()') for each in sale1: print each sale.append(each) sale2=selector2.xpath('//strong[@id="J_SellCounter"]/text()') for each in sale2: print each sale.append(each) if "tmall" in kk: number1 = re.findall('<ul id="J_AttrUL">(.*"NULL") if "taobao" in kk: number2=re.findall('<ul class="attributes-list">(.*"NULL") if "click" in kk: number.append("NULL") except: pass print len(title),len(city),len(price),len(num),len(shop_name),len(link),len(sale),len(number) # # # ######数据框 data1=pd.DataFrame({"标题":title,"价格":price,"旺旺":shop_name,"城市":city,"付款人数":num,"链接":link,"销量":sale,"款号":number}) print data1 # 写出excel writer = pd.ExcelWriter(r'C:\\taobao_spider2.xlsx', engine='xlsxwriter', options={'strings_to_urls': False}) data1.to_excel(writer, index=False) writer.close() time2 = time.time() print u'ok,爬虫结束!' print u'总共耗时:' + str(time2 - time1) + 's' ####关闭浏览器 driver.close()
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
华山资源网 Design By www.eoogi.com
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
华山资源网 Design By www.eoogi.com
暂无评论...
更新日志
2024年11月15日
2024年11月15日
- 黄乙玲1988-无稳定的爱心肝乱糟糟[日本东芝1M版][WAV+CUE]
- 群星《我们的歌第六季 第3期》[320K/MP3][70.68MB]
- 群星《我们的歌第六季 第3期》[FLAC/分轨][369.48MB]
- 群星《燃!沙排少女 影视原声带》[320K/MP3][175.61MB]
- 乱斗海盗瞎6胜卡组推荐一览 深暗领域乱斗海盗瞎卡组分享
- 炉石传说乱斗6胜卡组分享一览 深暗领域乱斗6胜卡组代码推荐
- 炉石传说乱斗本周卡组合集 乱斗模式卡组最新推荐
- 佟妍.2015-七窍玲珑心【万马旦】【WAV+CUE】
- 叶振棠陈晓慧.1986-龙的心·俘虏你(2006复黑限量版)【永恒】【WAV+CUE】
- 陈慧琳.1998-爱我不爱(国)【福茂】【WAV+CUE】
- 咪咕快游豪礼放送,百元京东卡、海量欢乐豆就在咪咕咪粉节!
- 双11百吋大屏焕新“热”,海信AI画质电视成最大赢家
- 海信电视E8N Ultra:真正的百吋,不止是大!
- 曾庆瑜1990-曾庆瑜历年精选[派森][WAV+CUE]
- 叶玉卿1999-深情之选[飞图][WAV+CUE]