更多>>关于我们

西安鲲之鹏网络信息技术有限公司从2010年开始专注于Web(网站)数据抓取领域。致力于为广大中国客户提供准确、快捷的数据采集相关服务。我们采用分布式系统架构,日采集网页数千万。我们拥有海量稳定高匿HTTP代理IP地址池,可以有效获取互联网任何公开可见信息。

您只需告诉我们您想抓取的网站是什么,您感兴趣的字段有哪些,你需要的数据是哪种格式,我们将为您做所有的工作,最后把数据(或程序)交付给你。

数据的格式可以是CSV、JSON、XML、ACCESS、SQLITE、MSSQL、MYSQL等等。

更多>>官方微博

西安鲲之鹏
陕西 西安

加关注

  • 【经验分享】记录使用"静态分析+动态插桩"还原“永辉超市某版本APP的HTTP签名算法”过程

    背景:永辉超市某版本APP的HTTP请求使用了签名参数保护机制,下面是分析该签名算法的过程:

    1. Jadx反编译APK,通过Java代码可以定位到加密函数位于cn.yonghui.hyd.lib.utils.http.httpmiddware.HttpSecurity类的signParamsNative()方法。如附图1所示。

    2. signParamsNative()是一个native方法,实现过程在libYHJni.so中。根据经验,直接还原算法可能有难度。通过Frida对HttpSecurity.signParams()动态插桩,插装代码如下:
    Java.perform(function() {
        var HttpSecurity = Java.use('cn.yonghui.hyd.lib.utils.http.httpmiddware.HttpSecurity');
        HttpSecurity.signParams.implementation = function(arg1){
            var md5 = this.signParams(arg1);
            console.log("#####  In HttpSecurity.signParams():  #####");
            console.log('Input param:');
            console.log(arg1)
            console.log('Sign result:');
            console.log(md5);
            console.log("#
    ##########################################");
            return md5;
        }
    }
    成功拦截到某次函数调用,输出如下:
    #
    ####  In HttpSecurity.signParams():  #####
    Input param:
    channelofficialdeviceidc7f00557-f9e8-4c59-8207-1da0909e9130distinctId66c626d274e42556isfirstopen0lat39.008006lng103.572384platformAndroidtimestamp1585469368166v5.28.0.10
    Sign result:
    baec2be68929009758ed7de29c331fdf
    #
    ##########################################

    3. 如上输出。“channelofficialdeviceidc7f00557-f9e8-4c59-8207-1da0909e9130distinctId66c626d274e42556isfirstopen0lat39.008006lng103.572384platformAndroidtimestamp1585469368166v5.28.0.10”参数串,经过某个算法之后得到一个的结果是一个32位的串"baec2be68929009758ed7de29c331fdf"。试了一下直接md5,结果不对。猜测可能是加salt了。

    4. 用IDA静态分析libYHJni.so,很容易找到Java_cn_yonghui_hyd_lib_utils_http_httpmiddware_HttpSecurity_signParamsNative()的实现,按F5将汇编代码转换为C语言语法。如附图2所示。从代码可以看出,计算输入串MD5值之前,先在前面加上了"YONGHUI601933",也就是md5("YONGHUI601933" + 输入串)。

    5. 知道算法了,我们来验证一下:
    >>>import hashlib
    >>>param = 'channelofficialdeviceidc7f00557-f9e8-4c59-8207-1da0909e9130distinctId66c626d274e42556isfirstopen0lat39.008006lng103.572384platformAndroidtimestamp1585469368166v5.28.0.10'
    >>>hashlib.md5('YONGHUI601933' + param).hexdigest()
    'baec2be68929009758ed7de29c331fdf'
    结果吻合。
    发布时间:2020-03-29 16:29:58
  • 【经验分享】
    背景:
    ESXi搭建的Ubuntu16.04虚拟机,添加了5块虚拟网卡,不同的网口桥接的不同的Bas。

    问题是:
    每次启动后某些网卡的名称(eth号)是随机变化的。
    如图1和图2所示,同一块网卡"00:0c:29:b0:17:21",在第一张图中被命名为eth4,但重启后在第二张图中却被命名为eth3。
    而拨号系统内不同的ADSL账号绑定着固定的网卡名称,如果eth号老是跳,就会拨到错误的Bas里,导致拨号失败。

    解决方法:
    给特定的MAC地址设置固定的网卡名称。

    编辑/etc/udev/rules.d/70-persistent-net.rules文件:

    加入:
    SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:b0:17:2b", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0"
    SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:b0:17:35", ATTR{type}=="1", KERNEL=="eth*", NAME="eth1"
    SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:b0:17:3f", ATTR{type}=="1", KERNEL=="eth*", NAME="eth2"
    SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:b0:17:17", ATTR{type}=="1", KERNEL=="eth*", NAME="eth3"
    SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:b0:17:21", ATTR{type}=="1", KERNEL=="eth*", NAME="eth4"

    注意:Ubuntu 16.04默认不存在该配置文件,需要先创建。

    参考:https://serverfault.com/questions/610967/network-adapter-to-eth-number-mapping-for-vmware/611040
    发布时间:2020-03-27 23:09:52
  • 【经验分享】Nox(夜神模拟器)+ Android 4.4.2版本今天出现了一个很奇怪的问题,xposed-installer-2.6版本突然无法安装了(3月18日之前没有问题),提示信息如附图1所示(Xposed目前不兼容Android SDK版本19或者您的处理器架构)。更奇怪的是,我在其它6台机器上测试都是如此,绝不是个例。

    1. 首先想到的是,它偷偷更新了。于是尝试卸载重装Nox,但是问题依旧。看了下Nox安装目录下的文件和日志,也没见有更新的迹象。
    2. 会不会是在启动的时候通过网络动态加载了什么策略呢?于是尝试断掉网络,重建Nox 虚拟机,xposed-installer-2.6安装成功,在多台机器上做同样尝试,问题均解决。看来就是夜神模拟器做了手脚了。

    "断网"不是长久之计,于是决定深入分析下,用wireshark抓包,主要看DNS请求,发现Nox在启动的时候访问了如下的域名:

    api.bignox.com
    bi.yeshen.com
    app.yeshen.com
    launcher.yeshen.com
    res06.bignox.com
    res11.bignox.com
    res.yeshen.com.qingcdn.com
    res.yeshen.com
    pubstatus.sinaapp.com
    noxagile.bceapp.com
    dl.xposed.info

    PS:看来小动作可真不少啊。

    尝试使用dnsmasq劫持这些域名,返回127.0.0.1,果然有效。
    附dnsmasq address.conf文件内容(如下),直接使用泛域名干掉所有的子域名,防止过滤的不够彻底:
    address=/bignox.com/127.0.0.1
    address=/yeshen.com/127.0.0.1
    address=/qingcdn.com/127.0.0.1
    address=/duapp.com/127.0.0.1
    address=/sinaapp.com/127.0.0.1
    address=/bceapp.com/127.0.0.1
    address=/xposed.info/127.0.0.1
    address=/duba.net/127.0.0.1
    address=/bsgslb.cn/127.0.0.1
    address=/applinzi.com/127.0.0.1
    address=/bceapp.com/127.0.0.1
    PS:为什么不直接修改hosts文件呢?一方面是机器比较多,一一设置比较麻烦,直接通过dhcp分配自定义的dns更方便。另一方面一些防护软件可能会保护hosts,设置了不一定有效。

    今天时间都耗在这上面,问题总算解决了。
    不好做什么评论,毕竟人家产品是免费让你用的,而且做的真心不错,再说别人坏话就不地道了。
    发布时间:2020-03-18 18:48:46
  • 【经验分享】有客户反映使用我们的代理访问某个URL(www.zbfdc.com.cn:81)始终返回403错误,访问其它网站正常。我自己测了一下,的确如此(如附图1所示)。由于是动态IP代理,可以排除IP被封了的问题。

    后来注意到,这个网站用了一个非常规的Web端口81,意识到了问题所在。

    Squi默认定义了如下端口为安全端口,如果目标端口(例如本例中的81)不在其中将会被拒绝,返回403错误。
    acl SSL_ports port 443
    acl Safe_ports port 80          # http
    acl Safe_ports port 21          #
    ftp
    acl Safe_ports port 443         # https
    acl Safe_ports port 70          #
    gopher
    acl Safe_ports port 210         # wais
    acl Safe_ports port 1025-65535  #
    unregistered ports
    acl Safe_ports port 280         # http-mgmt
    acl Safe_ports port 488         #
    gss-http
    acl Safe_ports port 591         # filemaker
    acl Safe_ports port 777         #
    multiling http

    解决方法很简单,把81端口加入到安全端口列表中即可,如附图2所示。
    重启Squid,测试,问题解决,如附图3所示。
    发布时间:2020-03-17 11:45:54
  • 【视频演示】受客户委托,对"采集某APP内综合商场商户楼层数据"进行可行性评估。实测可行,演示如视频所示。示例数据链接:http://db.site-digger.com/csv/6469616e70696e675f6d616c6c5f73686f70735f73616d706c655f3230323030333130/  西安鲲之鹏的微博视频 ​​​​

    发布时间:2020-03-12 14:05:49
  • 【吐槽】某地电信ADSL资源,拨号成功后前两个请求被强制跳转到push.hb.cnc.cn(如附图所示),第三个请求之后正常。这是宽带运营商搞的鬼,用于弹窗提示信息(广告或者提醒续费)。类似的情况之前在苏州电信遇到过。 ​​​​
    发布时间:2020-03-01 20:12:26
  • 【经验分享】Chrome Portable各版本下载链接:https://sourceforge.mirrorservice.org/p/po/portableapps/Google%20Chrome%20Portable/?C=M;O=D,这是Chrome便携版(支持Remote Debuging,功能和安装版没有区别),最近在某爬虫项目中集成了该版本,客户不需要额外安装浏览器,用起来很省心。 ​​​​
    发布时间:2020-02-24 16:23:49
  • 【视频演示】受客户委托对淘宝APP-淘鲜达店铺商品数据抓取的可行性进行评估。实测可行(销量也可以采集到),如录屏所示。  西安鲲之鹏的微博视频 ​​​​

    发布时间:2020-02-21 17:44:07
  • 【经验分享】Win8下安装VMware出现"error1316 指定账户已存在"问题的解决

    似乎是之前的安装有注册表残留(在控制面板已安装程序列表里看不到),尝试安装了多次,持续出现"error1316 指定账户已存在"问题,网上有VMware注册表清理工具试了也不管用。

    后来使用Windows Installer CleanUp Utility(Windows Installer 清理实用工具包,简称MSICUU)解决了问题。MSICUU会显示你以前没卸干净的软件列表(如附图1所示), 然后选择你想完全卸掉的项目 ,卸载了就可以了。

    附MSICUU的下载链接>>> O【Windows Installer CleanUp Utility下载】2...
    发布时间:2020-02-19 17:14:47
  • 【视频】携程酒店价格采集对比工具定制版演示
    该最新定制版(2020年)使用Google Chrome Dev Protocol(非Selenium + webdirver模式)实现,不会暴露navigator.webdriver等各种特征,不容易被识别。
    对比17年的版本:采用的是(Selenium + phantomjs)能够被反爬虫机制识别,返回有虚假价格情况,失败率也高。  西安鲲之鹏的微博视频

    发布时间:2020-02-18 15:24:40
当前位置: 首页 > FAQ(常见问题)

什么是Web数据抓取(采集)?

因特网(Internet)中有海量的有用数据,但大多数信息都是以无结构的文本形式存在,使得信息聚合和重用非常困难。 Web数据抓取(采集)是一种将非结构化内容转换为结构化数据(例如,Excel文档、MySQL数据库)的技术。一个Web数据抓取(采集)项目大致可以分为如下三步:

1)爬取目标网站并下载相关页面。

2)从下载的页面中提取感兴趣的数据(字段,例如 名称、地址)。

3)将提取的数据(字段)以结构化的形式存储(例如,CSV、JSON、XML、ACCESS、SQLITE、MSSQL、MySQL)。

数据采集合法吗?

从公共网站上采集数据是很常见的(实际上,“谷歌”、“百度”的数据也来源于采集)和合法的。我们进行采集的前提是假设客户将会合法、合理地使用数据,并且客户已获取目标数据源的访问授权。同时我们保留权利拒绝任何人将数据用于非法目的或我们认为不合理的用途。

你们能采集什么样的数据?

任何你能在浏览器中看到的数据都可以被抓取,只是难度会有所不同。以下几点因素会使得采集工作变得困难,从而费用也将更高。

■ 限制单个IP的访问数量或访问频率。

■ 不一致的页面结构。

■ 数据被加密(或混淆)了,需要解析。

■ 数据被JavaScript动态加载。

■ 数据在Flash中展现。

■ 海量的数据(例如,数百万甚至上千万的页面)。

你们的采集服务比用采集工具自己采集有什么优势?

采集工具具有局限性:

■  很多场景都不能适用。比如,登录采集、Ajax动态加载数据、联合采集、需要上下文逻辑、数据加密等等。

■  操作上具很大的难度。要求客户能够自己分析网站和页面结构,客户通常需要自己编写复杂的提取规则。

■  不能对采集结果的二次处理。

我们提供的是定制采集服务,即根据目标网站的实际情况以及客户的需求,编写采集脚本,能够处理各种复杂的情况(数据加密、连接限制)和上下文逻辑,从而能够得到最完美的采集结果。

点击这里查看我们是如何进行数据采集工作的

成人网站你们是否采集?

不。任何反动、色情、博彩性质的网站我们都拒绝采集。

怎么收费?

费用主要取决于目标网站的复杂程度,点击这里查看我们的基本收费标准。如果一个网站规模较小、结构良好、数据在HTML中清晰可见,我们的收费应该在1500元以内。

我们也出售一些采集好的数据,价格会比定制采集的费用少很多。点击进入数据超市,查看我们的部分数据

采集一个网站需要多长时间?

时间主要取决于目标网站的规模,一个简单的网站可能在一天内即可采集完成,但是一个大的网站可能会耗费数周的时间。在项目开始之前我们会给你一个估计时间。我们采用分布式系统架构,日采集页面数可以达到8000万。我们拥有海量稳定高匿HTTP代理IP地址池,可以有效绕过各种反采集策略。

怎么雇用你们?

你只需要在这里提交你的项目,我们会在24小时内跟你取得联系。你也可以通过电话或者在线QQ直接联系我们,点击这里查看我们的联系方式

怎么付款?

在项目的开始,我们会收取项目总额30%的预付款,交付数据时结算尾款。

我们支持多种支付途径:支付宝、银行汇款、PayPal,详情请查看这里

能退款吗?

我们的退款原则是:

■ 如果一个项目无法完成当然是无条件退款。

■ 如果在我们开始开发前你想取消一个项目,你也可以得到退款。

■ 如果你的需求在项目开始之后变化了,我们可以重新谈价格。

你们使用什么技术?

■ 我们的数据采集程序主要采用开源、免费、跨平台并支持多线程的Python语言开发。

■ 对于大型采集项目我们采用亚马逊云主机。我们同时在西安电信,Linode东京机房托管和租用了多台主机。

■ 解析JavaScript(例如加密)我们采用Webkit技术。

■ 我们也熟悉其它开发语言:PHP。

你们招聘开发人员吗?

如果你对Web数据采集技术感兴趣,如果你想通过挑战各种难题学到新技术,我们很乐意收到你的简历hello@site-digger.com

QQ在线客服
欢迎咨询,点击这里给我发送消息。
欢迎咨询,点击这里给我发送消息。

加微信咨询