提问人:MH Gholizadeh 提问时间:5/3/2021 最后编辑:MH Gholizadeh 更新时间:5/4/2021 访问量:573
获取页面上的所有链接 - HtmlAgilityPack
get all links on a page - HtmlAgilityPack
问:
我试图使用 HtmlAgilityPack 从网页中获取所有链接(a[href] 链接);
我的代码:
HtmlWeb web = new HtmlWeb();
HtmlDocument site = web.Load("https://www.google.com/");
HtmlNodeCollection links = site.DocumentNode.SelectNodes("//a[@href]");
foreach (HtmlNode link in links)
{
Console.WriteLine(link.GetAttributeValue("href", "DefaultValue"));
}
问题: 我注意到我的代码没有从页面中获得“所有”链接,并且错过了一些链接......
我在 java 中使用 JSoup 执行此操作,并且效果很好。(谷歌主页上的16个链接) 但是使用 HtmlAgilityPack,我在同一页面上获得了 13 个链接...... 或者问题可能出在别的地方...... (相对链接也存在问题,但稍后会修复)
答: 暂无答案
评论
Load()
https://www.google.com/
en-US
LoadFromWeb()