更多>>关于我们

西安鲲之鹏网络信息技术有限公司从2010年开始专注于Web(网站)数据抓取领域。致力于为广大中国客户提供准确、快捷的数据采集相关服务。我们采用分布式系统架构,日采集网页数千万。我们拥有海量稳定高匿HTTP代理IP地址池,可以有效绕过各种反采集策略。

您只需告诉我们您想抓取的网站是什么,您感兴趣的字段有哪些,你需要的数据是哪种格式,我们将为您做所有的工作,最后把数据(或程序)交付给你。

数据的格式可以是CSV、JSON、XML、ACCESS、SQLITE、MSSQL、MYSQL等等。

更多>>官方微博

西安鲲之鹏
陕西 西安

加关注

  • Selenium disable Image loading in different browsers >>> http://tarunlalwani.com/post/selenium-disable-image-loading-different-browsers/ ​​​​
    发布时间:2018-07-11 18:21:10
  • chromedriver 镜像 - ChromeDriver Mirror >>> http://npm.taobao.org/mirrors/chromedriver/ ​​​​
    发布时间:2018-07-11 18:20:49
  • "全国POI信息数据库" 上线:涵盖美食、休闲娱乐、酒店、丽人等15大分类,覆盖全国350多个城市,数据量超过4700万条 >>> 点击前往:http://www.poilist.cn/ ​​​​
    发布时间:2018-07-11 15:28:47
  • 【最新发布】国内知名本地生活信息平台4794万商户POI数据2018年06月份更新 >>> http://www.site-digger.com/html/articles/20180702/647.html ​​​​
    发布时间:2018-07-02 11:25:13
  • 【CSV转Excel(XLSX格式)脚本分享】
    背景:大多数情况下CSV转Excel可以使用Openoffice或者Excel实现,但是偶尔也会遇到一些BT的情况,比如转换后Excel打开显示文件异常的(如图2所示)。于是乎利用xlsxwriter这个库写了个小脚本,用法如下:
    python csv2xlsx.py path-of-csv-file  file-encoding(default is utf-8)
    运行效果如图1所示。csv2xlsx.py源码链接分享 >>>https://bitbucket.org/snippets/qi/Xerx67
    发布时间:2018-06-21 18:57:26
  • 全国各类POI(美食、休闲娱乐、丽人、酒店、生活服务等等)用户评论数据7.09亿条,更新至2018年6月15日。点击查看示例数据 >>> http://t.cn/Rrv3RpO ​​​​
    发布时间:2018-06-21 10:21:20
  • 【经验分享】如何让Squid Web隧道支持SSH协议?
    默认Web隧道下连接22端口是不被允许的,会返回403错误。
    编辑/etc/squid3/squid.conf,加入如下配置行
    acl SSL_ports port 22
    acl Safe_ports port 22
    然后重启Squid即可。 ​​​​
    发布时间:2018-05-16 11:41:42
  • 当当网有多少图书,你知道吗?>>> http://t.cn/R3h6hiH ​​​​
    发布时间:2018-05-08 13:53:19
  • 【经验分享】Ubuntu下如何识别无线网卡?
    以普联的TL-WDN6200为例,使用的是rtl8812au(https://github.com/else05/rtl8812au这个驱动):
    wget http://t.cn/RuR1DrP
    unzip master.zip
    cd rtl8812au-master
    make
    sudo install
    然后重启系统,运气好的话你就能看到Wifi图标和热点列表了,如下图所示(Ubuntu14.04下亲测)。
    发布时间:2018-05-03 19:10:52
  • 【经验分享】DeleGate跑了3天日志吃了18G硬盘,如何关掉日志呢?
    查文档(ftp://www.delegate.org/pub/DeleGate/Manual.htm#LOGDIR),找到了方法,加上参数LOGFILE=""即可,原文:
    You can stop logging by specifying null file name like LOGFILE="" or PROTOLOG="". ​​​​
    发布时间:2018-04-28 18:08:15
当前位置: 首页 > 技术文章 >
鲲鹏数据开源库 - 鲲鹏网页缓存库(Python)KPCache介绍
发布时间:2014-01-23 来源:未知 浏览:

项目首页:
 
特性:
无需后端数据库,直接操作文件系统(建议使用Ext4文件系统),速度快。
基于ZMQ通信,支持网络高速存取。
支持多线程。
支持服务端掉线自动重连。
支持多种缓存数据类型(所有能被Python pickle的类型均被支持,不限于字符串)。
完全兼容webscraping库。
 
实测速度:
存储100万文档(单个大小为6.5KB)用时约1000秒。测试脚本:test.py。
 
安装依赖库ZMQ:
sudo easy_install zmq
 
启动服务端:
>>> from KPCache import KPCache
>>> KPCache.KPCacheServer(server_host='127.0.0.1', server_port=8080, folder='.KPCache').run_server()
The cache server is running on 127.0.0.1:8080, cache data will be saved in .KPCache
 
server_host - 服务端监听的地址,默认是127.0.0.1,如果想远程使用,可以设置为0.0.0.0。
server_port - 服务端监听的端口,默认是8080。
folder - 缓存数据的存储目录,默认是.KPCache目录。
 
客户端使用举例:
>>> from KPCache import KPCache
>>> cache = KPCache.KPCacheClient()
>>> 
>>> cache['name'] = 'Qi' # 测试保存一个字符串
>>> print cache['name']  # 测试读取
Qi
>>> 
>>> cache['dict'] = {'website': 'http://www.site-digger'} # 测试保存一个字典类型数据
>>> print cache['dict']
{'website': 'http://www.site-digger'}
>>> 
>>> from datetime import datetime
>>> cache['date_time'] = datetime.now() # 测试保存一个时间日期类型的数据
>>> print cache['date_time']
2014-01-23 18:34:15.921058
>>>
>>> del cache['dict'] # 测试删除某个缓存
>>> print cache['dict'] # 读取不存在的缓存会抛出 KeyError异常
Traceback (most recent call last):
  File "", line 1, in    File "KPCache/KPCache.py", line 58, in __getitem__     raise KeyError('%s does not exist' % key) KeyError: 'dict does not exist' >>>  >>> 'http://www.site-digger.com' in cache # 判断一个key是否在缓存中 False >>> 'name' in cache True 
 
注意:
在多线程中使用时,每个线程需要建立各自客户端实例,不能共享同一个客户端实例。
特别说明:该文章为鲲鹏数据原创文章 ,您除了可以发表评论外,还可以转载到别的网站,但是请保留源地址,谢谢!!(尊重他人劳动,我们共同努力)
☹ Disqus被Qiang了,之前的评论内容都没了。如果您有爬虫相关技术方面的问题,欢迎发到我们的问答平台:http://spider.site-digger.com/
QQ在线客服
欢迎咨询,点击这里给我发送消息。
欢迎咨询,点击这里给我发送消息。