提问人:Julia 提问时间:3/7/2021 更新时间:3/7/2021 访问量:565
如何在不被阻止的情况下在 booking.com 上使用scrapy?
How can I use scrapy on booking.com without being blocked?
问:
我正在尝试使用 python 插件 scrapy 从 booking.com 抓取酒店评论。
我的问题是,scrapy无法找到所需的数据(例如负面反馈)。我认为,这是因为网站中嵌入了 javascript 代码。
因此,我尝试在 settings.py 文件中更改我的用户代理,但没有任何更改。然后我尝试模拟浏览器请求,但我不确定我是否正确执行。
这是我想抓取评论的酒店的链接: https://www.booking.com/hotel/de/best-western-plus-marina-star-lindau.de.html
这是我的蜘蛛:
import scrapy
class FeedbacktestSpider(scrapy.Spider):
name = 'feedbacktest'
allowed_domains = ['www.booking.com/']
start_urls = ['https://www.booking.com/hotel/de/best-western-plus-marina-star-lindau.de.html']
def start_requests(self):
urls=['https://www.booking.com/hotel/de/best-western-plus-marina-star-lindau.de.html']
headers = {
'Host': 'www.booking.com',
'Device-Memory': '8',
'DPR': '1',
'Viewport-Width': '1920',
'RTT': '50',
'Downlink': '10',
'ECT': '4g',
'Upgrade-Insecure-Requests': '1',
'DNT': '1',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.72 Safari/537.36 Edg/89.0.774.45',
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
'Sec-Fetch-Site':'same-origin',
'Sec-Fetch-Mode':'navigate',
'Sec-Fetch-User':'?1',
'Sec-Fetch-Dest':'document',
'Referer':'https://www.booking.com/',
'Accept-Encoding':' gzip, deflate, br',
'Accept-Language':'de,de-DE;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6',
'Cookie':'__utma=12798129.959027148.1615055069.1615055069.1615055069.1; __utmc=12798129; __utmz=12798129.1615055069.1.1.utmcsr=google|utmccn=(organic)|utmcmd=organic|utmctr=(not%20provided); __utmt=1; __utmb=12798129.1.10.1615055069'
}
for url in urls:
yield scrapy.Request(url = url, callback = self.parse, headers=headers)
def parse(self, response):
pos = response.xpath("//div[@class='althotelsDiv2 use_sprites_no_back featured_reviewer']/p/span/text()").extract()
yield{
'pos': pos
}
对于 settings.py 中的User-Agent,我尝试了自己的User-Agent和Google-Agent。
非常感谢您的帮助
答:
0赞
Julia
3/7/2021
#1
好的,我解决了这个问题:
我用我的网络工具查看了我想抓取的站点,并查找了请求所需数据的请求。
然后我抓取了这个链接而不是原始链接,在我的抓取 settings.py 中,我设置了 ROBOTSTXT_OBEY = False,这样我就不会被网站阻止。
评论
0赞
OctopuSS7
3/7/2021
机器人.txt的存在也是有原因的。该网站不想被抓取。只要你知道这一点,就没关系,但重要的是要知道。
0赞
Abolfazl Mohajeri
4/2/2021
您也可以执行轮换代理策略。
评论