提问人:Vinh Nguyễn Thành 提问时间:7/27/2023 最后编辑:HedgeHogVinh Nguyễn Thành 更新时间:7/27/2023 访问量:53
为什么我的代码多次打印出相同的 html 链接?
Why is my code print out the same html link a lot of times?
问:
- 我正在 Python 上进行以下链接活动(这是关于 Python Web Access 数据 - Coursera 的作业)。问题来了:
- 在本作业中,您将编写一个扩展 http://www.py4e.com/code3/urllinks.py 的 Python 程序。程序将使用 urllib 从下面的数据文件中读取 HTML,从锚标记中提取 href= vaues,扫描相对于列表中名字处于特定位置的标记,点击该链接并重复该过程多次并报告您找到的姓氏。
- 实际问题:从以下位置开始:http://py4e-data.dr-chuck.net/known_by_Armen.html 在位置 18(名字是 1)找到链接。点击该链接。重复此过程 7 次。答案是您检索到的姓氏。 提示:要加载的最后一页名称的第一个字符是:F
因此,我基本上复制了给定链接中的大部分代码,最后自己想出一些东西。它看起来像这样:
import urllib.request, urllib.parse, urllib.error
import collections
collections.Callable = collections.abc.Callable
from bs4 import BeautifulSoup
import ssl
# Ignore SSL certificate errors
ctx = ssl.create_default_context()
ctx.check_hostname = False
ctx.verify_mode = ssl.CERT_NONE
url = input('Enter - ')
for i in range(7):
html = urllib.request.urlopen(url, context=ctx).read()
soup = BeautifulSoup(html, 'html.parser')
# Retrieve all of the anchor tags
tags = soup('a')
for tag in tags:
tag = tags[17]
link = tag.get('href', None)
print(link)
url = link
我得到了结果:但它打印出来是这样的:
http://py4e-data.dr-chuck.net/known_by_Hailie.html......(它重复感觉像一百次)http://py4e-data.dr-chuck.net/known_by_Hailie.html......http://py4e-data.dr-chuck.net/known_by_Felicity.html
我的代码的哪一部分导致了这个问题? 我怎样才能切断它?
答:
0赞
HedgeHog
7/27/2023
#1
如果我理解正确,问题是多次打印信息,所以请仔细查看代码的那部分:
for tag in tags:
tag = tags[17]
link = tag.get('href', None)
print(link)
因为你选择了一个特定的位置,所以没有必要在每次迭代中一遍又一遍地遍历所有标签并一遍又一遍地打印相同的信息,所以只需跳过循环:tags[17]
tag = tags[17]
link = tag.get('href', None)
print(link)
请注意,这不会涵盖主要任务和设想的解决方案路径,仅涵盖您的特定问题
评论
0赞
Vinh Nguyễn Thành
7/27/2023
哟,它有效。非常感谢。我是编程新手,所以我希望你不要介意这个愚蠢的问题(在阅读了你的解释后,我承认它有点(愚蠢))。这是我第一次问问题,我已经喜欢这个论坛了。再次感谢兄弟
0赞
Devix
7/27/2023
#2
对我来说,问题出在标签上的第二个循环,你不需要它们,因为你这样做时,它会尽可能多地打印你 url<a>
import urllib.request, urllib.parse, urllib.error
import collections
collections.Callable = collections.abc.Callable
from bs4 import BeautifulSoup
import ssl
# Ignore SSL certificate errors
ctx = ssl.create_default_context()
ctx.check_hostname = False
ctx.verify_mode = ssl.CERT_NONE
url = input('Enter - ')
for i in range(7):
html = urllib.request.urlopen(url, context=ctx).read()
soup = BeautifulSoup(html, 'html.parser')
tags = soup('a')
tag = tags[17]
link = tag.get('href', None)
print(link)
url = link
此代码应该只为您提供 7 个 url,您将通过该 URL
评论
0赞
Vinh Nguyễn Thành
7/27/2023
如果您非常确定,可以不测试代码。它有效。感谢您对Devix的帮助
评论