1,python系统操作该用什么库

可以尝试用pywin32,不过 这种事情还是交给 c/c++/c#等去做吧,用c/c++等写dll,然后在python调用dll
很多,最简单常见的是urllib2+beautifulsoup,网上百度python爬虫教程很多。

python系统操作该用什么库

2,python使用什么数据库

哪个方便用哪个,python连接数据库都有对应的包的,如果你嫌麻烦,可以用自带的sqlite3包。
你可以访问python数据库接口及api查看详细的支持数据库列表。不同的数据库你需要下载不同的db api模块,例如你需要访问oracle数据库和mysql数据,你需要下载oracle和mysql数据库模块。db-api 是一个规范. 它定义了一系列必须的对象和数据库存取方式, 以便为各种各样的底层数据库系统和多种多样的数据库接口程序提供一致的访问接口 。python的db-api,为大多数的数据库实现了接口,使用它连接各数据库后,就可以用相同的方式操作各数据库。python db-api使用流程:引入 api 模块。获取与数据库的连接。执行sql语句和存储过程。关闭数据库连接。什么是mysqldb?mysqldb 是用于python链接mysql数据库的接口,它实现了 python 数据库 api 规范 v2.0,基于 mysql c api 上建立的。如何安装mysqldb?为了用db-api编写mysql脚本,必须确保已经安装了mysql。复制以下代码,并执行:#!/usr/bin/python# -*- coding: utf-8 -*-import mysqldb如果执行后的输出结果如下所示,意味着你没有安装 mysqldb 模块:traceback (most recent call last):file "test.py", line 3, in import mysqldb importerror: no module named mysqldb

python使用什么数据库

3,python网络数据采集常用什么库

urllib2或者urllib3加上beautifulsoup就能采集一些简单的网络数据了大型一点的框架用scrapy,pyspider应该好些
由于项目需求收集并使用过一些爬虫相关库,做过一些对比分析。以下是我接触过的一些库:beautiful soup。名气大,整合了一些常用爬虫需求。缺点:不能加载js。scrapy。看起来很强大的爬虫框架,可以满足简单的页面爬取(比如可以明确获知url pattern的情况)。用这个框架可以轻松爬下来如亚马逊商品信息之类的数据。但是对于稍微复杂一点的页面,如weibo的页面信息,这个框架就满足不了需求了。mechanize。优点:可以加载js。缺点:文档严重缺失。不过通过官方的example以及人肉尝试的方法,还是勉强能用的。selenium。这是一个调用浏览器的driver,通过这个库你可以直接调用浏览器完成某些操作,比如输入验证码。cola。一个分布式爬虫框架。项目整体设计有点糟,模块间耦合度较高,不过值得借鉴。以下是我的一些实践经验:对于简单的需求,比如有固定pattern的信息,怎么搞都是可以的。对于较为复杂的需求,比如爬取动态页面、涉及状态转换、涉及反爬虫机制、涉及高并发,这种情况下是很难找到一个契合需求的库的,很多东西只能自己写。至于题主提到的:还有,采用现有的python爬虫框架,相比与直接使用内置库,优势在哪?因为python本身写爬虫已经很简单了。third party library可以做到built-in library做不到或者做起来很困难的事情,仅此而已。还有就是,爬虫简不简单,完全取决于需求,跟python是没什么关系的。

python网络数据采集常用什么库


文章TAG:python  可以  操作  哪些  python  python系统操作该用什么库  
下一篇