我有要打印的在线用户指南。问题是它作为网站上传,每个部分都放在单独的链接中,并且逐页打印非常耗时。是否有任何应用程序或浏览器扩展使我能够拉动整个内容并将其打印在纸上或PDF上?

这里是该指南的链接:http://download.brainvoyager.com/ tbv / TBVUsersGuide / TurboBrainVoyagerUsersGuide.html

评论

如果起始页面包含所有后续链接,则Caliber可能值得一试(请在此处查看我的答案)。不过,我还没有在这样的在线资源上尝试过,因此,只是评论而不是答案(不过,这种方式在本地资源上效果很好)。

墨水+纸张在电子书上阅读的费用可能会比电子书阅读器或便宜的平板电脑要高

相关:网页到PDF转换器

#1 楼

上一次我必须执行此操作时,我分两个步骤进行了操作:

步骤1:使用GNU wget(免费,Linux,Windows)以HTML格式检索页面。 (例如,使用wget --mirror http://softwarerecs.stackexchange.com

步骤2:获取CLI,将HTML转换为PDF,例如
wkhtmltopdf(免费和开源,适用于Windows,Mac和Linux的二进制文件)。



如果要在下载之前手动选择感兴趣的网站链接,则可以使用专用工具(例如)获取网站上的所有链接/页面。 linkchecker(或在可能的情况下,只需从菜单的源代码获取grep链接)。



评论


您假设所有内容都是静态下载的HTML ...如果站点通过Java脚本生成其部分内容,或者通过Ajax下载其他内容并动态修改DOM,该怎么办?使用wget时,这些都不可用。

–吉姆·加里森(Jim Garrison)
2014年6月10日20:12

@JimGarrison是的,在某些情况下,您可能想绕过wget并直接使用wkhtmltopdf,因为后者可以将URL作为输入并依赖QT Webkit呈现引擎,该引擎应处理大多数Javascript(我不确定如果发生了什么情况,该网站会通过Ajax下载其他内容并动态修改DOM(我没有尝试过)。

–弗朗克·德农库尔
2014年6月10日20:35

#2 楼

使用python + Scrapy + BeautifulSoup来获取该网站,然后您可以使用python pdf库或pandoc之类的工具将其转换为所需的任何内容。

以上都是免费的,跨平台的和开源。

#3 楼

WeasyPrint

免费(获得BSD许可)和开源解决方案,可帮助Web开发人员创建PDF文档。它将简单的HTML页面(带有CSS,SVG)转换为PDF格式。它旨在支持用于打印的Web标准。


它基于各种库,但不基于WebKit或Gecko之类的完整呈现引擎。 CSS布局引擎是用Python编写的,专为分页而设计,旨在易于破解。


相关:网页到PDF转换器