Aneiang.Pa 高阶用法:动态爬虫 SDK 详解与实战
在之前介绍 Aneiang.Pa 的热门新闻爬虫库时,我们提到了它支持微博、知乎、B站等十多个平台的热榜数据抓取。但对于有更灵活需求的开发者来说,可能需要抓取特定网站的自定义数据结构。今天,我们将深入探讨 Aneiang.Pa 的高阶用法——动态爬虫 SDK。
什么是动态爬虫 SDK?
动态爬虫 SDK 是 Aneiang.Pa 提供的一个独立模块,它允许你通过简单的模型定义和特性标注,快速实现对任意网站数据结构的抓取。无需为每个网站编写特定的解析逻辑,只需定义你想要的数据模型,SDK 会自动处理 HTML 解析和数据提取。
GitHub地址:https://github.com/AneiangSoft/Aneiang.Pa
Gitee地址:https://gitee.com/aneiangsoft/Aneiang.Pa
快速入门
1. 安装 NuGet 包
首先,在你的项目中安装动态爬虫 SDK:
dotnetaddpackage Aneiang.Pa.Dynamic2. 配置服务
在 Startup.cs 或 Program.cs 中注册动态爬虫服务:
services.AddDynamicScraper(context.Configuration);3. 定义数据模型
这是最核心的一步。假设我们要从某个网站抓取工具卡片数据:
[HtmlContainer("div",htmlClass:"tab-content",index:1)][HtmlItem("a")]publicclassToolCard{[HtmlValue("p/b")]publicstringTitle{get;set;}[HtmlValue(".","href")]publicstringUrl{get;set;}[HtmlValue("img","src")]publicstringIcon{get;set;}[HtmlValue("p",htmlClass:"card-desc")]publicstringDescription{get;set;}[HtmlValue("span",htmlClass:"download-count")]publicstringDownloadCount{get;set;}}4. 使用爬虫
publicclassToolService{privatereadonlyIDynamicScraper_scraper;publicToolService(IDynamicScraperscraper){_scraper=scraper;}publicasyncTask<List<ToolCard>>GetPopularToolsAsync(){vartools=await_scraper.DatasetScraper<ToolCard>("https://www.example-tools.com/popular");returntools;}}特性详解
HtmlContainerAttribute - 容器定位
这个特性标识数据集的容器元素,也就是包含所有数据项的父级元素。
// 基本用法:通过标签名定位[HtmlContainer("div")]// 通过 class 定位[HtmlContainer("div",htmlClass:"item-list")]// 通过 id 定位[HtmlContainer("div",htmlId:"main-content")]// 当有多个匹配元素时,使用 index 指定第几个[HtmlContainer("div",htmlClass:"tab-content",index:1)]HtmlItemAttribute - 数据项定位
标识单个数据项对应的 HTML 元素,这些元素都位于容器内部。
// 简单标签定位[HtmlItem("a")]// 带有 class 的项[HtmlItem("div",htmlClass:"card-item")]// 列表中的每一项[HtmlItem("li",htmlClass:"list-item")]HtmlValueAttribute - 数据提取
定义如何从每个数据项中提取具体的字段值。
// 从子元素提取文本[HtmlValue("h3")]publicstringTitle{get;set;}// 从特定路径提取[HtmlValue("div/span")]publicstringSubtitle{get;set;}// 从 HTML 属性中提取值[HtmlValue("a","href")]publicstringLink{get;set;}[HtmlValue("img","src")]publicstringImageUrl{get;set;}// 使用当前元素(使用 "." 选择器)[HtmlValue(".","data-id")]publicstringItemId{get;set;}// 通过 class 定位[HtmlValue("p",htmlClass:"price")]publicstringPrice{get;set;}选择器语法详解
动态爬虫 SDK 使用类似 XPath 但更简洁的选择器语法:
| 选择器 | 含义 | 示例匹配结构 |
|---|---|---|
p/b | p 直接子元素中的 b | <p><b>文本</b></p> |
p//b | p 的任何后代元素中的 b | <p><div><span><b>文本</b></span></div></p> |
div/p/span | div > p > span | <div><p><span>文本</span></p></div> |
. | 当前元素本身 | 用于提取当前元素的属性 |
实战案例
案例 1:电商商品列表抓取
[HtmlContainer("ul",htmlClass:"product-list")][HtmlItem("li",htmlClass:"product-item")]publicclassProduct{[HtmlValue("h2/product-name")]publicstringName{get;set;}[HtmlValue(".","data-product-id")]publicstringProductId{get;set;}[HtmlValue("img","src")]publicstringImageUrl{get;set;}[HtmlValue("span/price")]publicdecimalPrice{get;set;}[HtmlValue("div/rating")]publicdoubleRating{get;set;}[HtmlValue("a","href")]publicstringDetailUrl{get;set;}}案例 2:新闻文章列表抓取
[HtmlContainer("div",htmlClass:"article-list")][HtmlItem("article")]publicclassNewsArticle{[HtmlValue("h1/title")]publicstringTitle{get;set;}[HtmlValue("p/summary")]publicstringSummary{get;set;}[HtmlValue("span/author")]publicstringAuthor{get;set;}[HtmlValue("time","datetime")]publicDateTimePublishTime{get;set;}[HtmlValue("div//img","src")]publicstringThumbnail{get;set;}[HtmlValue("a","href")]publicstringArticleUrl{get;set;}}案例 3:复杂嵌套结构处理
对于复杂的页面结构,可以使用相对路径:
[HtmlContainer("table",htmlClass:"data-table")][HtmlItem("tr")]publicclassTableRow{// 第一列:使用索引定位[HtmlValue("td[1]")]publicstringFirstColumn{get;set;}// 第二列中的链接[HtmlValue("td[2]/a")]publicstringSecondColumnLinkText{get;set;}[HtmlValue("td[2]/a","href")]publicstringSecondColumnLink{get;set;}// 第三列中的多个元素[HtmlValue("td[3]/span",htmlClass:"tag")]publicList<string>Tags{get;set;}}高级功能
1. 自定义解析器
如果默认的解析逻辑不能满足需求,可以实现自定义的值解析器:
publicclassCustomDateParser:IHtmlValueParser{publicobjectParse(HtmlNodenode,HtmlValueAttributeattribute){vartext=node.InnerText;// 自定义日期解析逻辑returnDateTime.ParseExact(text,"yyyy-MM-dd HH:mm",CultureInfo.InvariantCulture);}}// 在模型中使用publicclassArticle{[HtmlValue("time",ParserType=typeof(CustomDateParser))]publicDateTimeCustomDate{get;set;}}2. 异步数据加载处理
对于需要滚动加载或异步加载数据的页面:
varscraper=scope.ServiceProvider.GetRequiredService<IDynamicScraper>();// 配置浏览器模拟选项varoptions=newScraperOptions{WaitForJavaScript=true,// 等待 JavaScript 执行ScrollToBottom=true,// 滚动到页面底部ScrollDelay=1000,// 滚动延迟Timeout=30000// 超时时间};vardata=awaitscraper.DatasetScraper<Product>("https://www.infinite-scroll-site.com/products",options);3. 分页处理
publicasyncTask<List<Product>>GetAllProductsAsync(){varallProducts=newList<Product>();intpage=1;boolhasMore=true;while(hasMore){varurl=$"https://www.example.com/products?page={page}";varproducts=await_scraper.DatasetScraper<Product>(url);if(products.Any()){allProducts.AddRange(products);page++;// 避免请求过快awaitTask.Delay(1000);}else{hasMore=false;}}returnallProducts;}最佳实践
1. 错误处理
try{vardata=await_scraper.DatasetScraper<MyModel>(url);// 处理数据}catch(HtmlParseExceptionex){// HTML 解析错误_logger.LogError(ex,"HTML 解析失败");}catch(NetworkExceptionex){// 网络请求错误_logger.LogError(ex,"网络请求失败");}catch(Exceptionex){// 其他错误_logger.LogError(ex,"抓取数据时发生错误");}2. 请求限制与礼貌爬取
// 使用内置的延迟机制varoptions=newScraperOptions{DelayBetweenRequests=5000,// 5秒延迟MaxRetries=3,// 最大重试次数RetryDelay=2000// 重试延迟};// 或者手动控制publicasyncTask<List<T>>ScrapeWithDelay<T>(List<string>urls)whereT:class{varresults=newList<T>();foreach(varurlinurls){vardata=await_scraper.DatasetScraper<T>(url);results.AddRange(data);// 礼貌爬取:每次请求后暂停awaitTask.Delay(Random.Shared.Next(3000,8000));}returnresults;}3. 缓存策略
publicclassCachedScraperService{privatereadonlyIDynamicScraper_scraper;privatereadonlyIMemoryCache_cache;publicasyncTask<List<Product>>GetProductsAsync(boolforceRefresh=false){varcacheKey="products_data";if(!forceRefresh&&_cache.TryGetValue(cacheKey,outList<Product>cachedData)){returncachedData;}vardata=await_scraper.DatasetScraper<Product>("https://www.example.com/products");// 缓存5分钟_cache.Set(cacheKey,data,TimeSpan.FromMinutes(5));returndata;}}性能优化建议
- 并行处理:对于多个独立页面的抓取,可以使用并行处理
- 连接复用:确保 HttpClient 正确复用
- 选择性抓取:只抓取需要的字段,减少内存占用
- 流式处理:对于大量数据,考虑使用流式处理方式
// 并行抓取示例publicasyncTask<List<Product>>ScrapeMultiplePagesAsync(List<string>urls){vartasks=urls.Select(url=>_scraper.DatasetScraper<Product>(url));varresults=awaitTask.WhenAll(tasks);returnresults.SelectMany(r=>r).ToList();}总结
Aneiang.Pa 的动态爬虫 SDK 提供了一种声明式、类型安全的方式来抓取网页数据。通过简单的模型定义和特性标注,你可以快速实现各种复杂网站的抓取逻辑,而无需深入了解 HTML 解析的细节。
这种方式的优势在于:
- 代码简洁:模型即文档,清晰易懂
- 维护方便:网站结构变化时,只需调整模型特性
- 类型安全:编译时检查,减少运行时错误
- 灵活扩展:支持自定义解析器和高级选项
无论是快速原型开发,还是生产环境的数据抓取任务,Aneiang.Pa 的动态爬虫都是一个强大而实用的工具。
提示:请始终遵守目标网站的 robots.txt 规则,尊重版权和隐私,将抓取间隔控制在合理范围,避免对目标网站造成过大压力。数据抓取仅应用于合法合规的目的。