1.python爬虫框架 (1)Scrapy:很强大的爬虫框架,可以满足简单的页面爬取(比如可以明确获知url pattern的情况)。用这个框架可以轻松爬下来如亚马逊商品信息之类的数据。但是对于稍微复杂一点的页面,如weibo的页面信息,这个框架就满足不了需求了。 (2)Crawley: 高速爬取对应网站的内容,支持关系和非关系数据库,数据可以导出为JSON、XML等 (3)Portia:可视化爬取网页内容 (4)newspaper:提取新闻、文章以及内容分析 (5)python-goose:java写的文章提取工具 (6)Beautiful Soup:名气大,整合了一些常用爬虫需求。缺点:不能加载JS。 (7)mechanize:优点:可以加载JS。缺点:文档严重缺失。不过通过官方的example以及人肉尝试的方法,还是勉强能用的。 (8)selenium:这是一个调用浏览器的driver,通过这个库你可以直接调用浏览器完成某些操作,比如输入验证码。2. 爬虫基本流程(1)发起请求通过HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等信息,等待服务器响应。(2)获取响应如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型可能有HTML,Json字符串,二进制数据(如图片视频)等类型。(3)解析内容得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析。可能是Json,可以直接转为Json对象解析,可能是二进制数据,可以做保存或者进一步处理。(4)保存数据保存形式多样,可以存为文本,也可以保存至数据库,或者保存特定格式的文件。6. 能抓怎样的数据网页文本如HTML文档、Json格式文本等。(5)图片获取到的是二进制文件、保存为图片格式。(6)视频同为二进制文件,保存为视频格式即可。3. 怎样进行网页的解析直接处理Json解析(Ajax)正则表达式BeautifulSoapPyQueryXPath为什么抓到的和浏览器看到的不一样因为抓到的结果里面有很多js文件,里面包含的网页中内容的请求。浏览器则是把所有js加载完毕后才显示出来的。