我希望能够从
WikiMedia dump page下载的巨大的(甚至是压缩的)英文维基百科XML转储文件
enwiki-latest-pages-articles.xml.bz2中获取相对最新的静态HTML文件.虽然文档似乎有相当多的工具可用在他们身上相当不足,所以我不知道他们大多数人做了什么,或者他们是否与最新的转储最新. (我非常擅长构建可以抓取相对较小的HTML页面/文件的网页抓取工具,虽然我对sql和XML很糟糕,而且至少在一年之内,我不希望它们非常好.)我希望能够从脱机转储中获取HTML文件,而无需在线访问Wikipedia.
首先,import the data.然后使用
DumpHTML创建HTML文件.虽然理论上很简单,但由于涉及的数据量和DumpHTML有点被忽略,这个过程在实践中可能很复杂,因此请不要犹豫
ask for help.
原文链接:https://www.f2er.com/xml/292539.html