首先,我们需要弄清楚,我们能看到的所有网页,无论是文本、图片还是动画,都用html标记。然后浏览器以视觉和美学的方式向我们显示这些标签。如果我们想成为一个网络爬虫,那么我们的爬虫没有远见,只有逻辑。在爬虫的眼中,只有html标记,其他样式正在使用中爬虫的眼中有云,所以爬虫实际上读取html标记(这里涉及的一个知识点是获取html标记)。库是请求库,它可以通过web请求获取html元素,然后在html标记中显示所需内容。这是一个网络爬虫。逻辑就这么简单。如果您有使用python的经验,建议您使用crawler框架。这部分内容应该通过ajax类似的技术获得。
获取这部分内容有两种方法:
1。通过调试获取api借口,通过api请求获取相关数据。
2.使用selenium等工具模拟浏览器,从而提取相关信息。具体使用请参考官方文件。
1.如果你使用chrome预览,那就容易多了。单击打印并另存为pdf。
2.如果您的浏览器有一个虚拟pdf打印机,请使用pdf虚拟打印机打印您想要输出的内容,然后您就可以得到您想要的pdf文档。
3.如果您使用其他没有虚拟pdf打印机的浏览器,请安装adobeacrobatxipro软件,并使用adobepdf打印机打印您要输出的内容,以获得您想要的pdf文档。