更多>>关于我们

西安鲲之鹏网络信息技术有限公司从2010年开始专注于Web(网站)数据抓取领域。致力于为广大中国客户提供准确、快捷的数据采集相关服务。我们采用分布式系统架构,日采集网页数千万。我们拥有海量稳定高匿HTTP代理IP地址池,可以有效获取互联网任何公开可见信息。

您只需告诉我们您想抓取的网站是什么,您感兴趣的字段有哪些,你需要的数据是哪种格式,我们将为您做所有的工作,最后把数据(或程序)交付给你。

数据的格式可以是CSV、JSON、XML、ACCESS、SQLITE、MSSQL、MYSQL等等。

更多>>官方微博

西安鲲之鹏
陕西 西安

加关注

  • 【经验分享】利用HAProxy Runtime API的"set server"命令可以动态修改Haproxy的Backend server。
    例如 将Backend "backendout"的 Server "server1"的地址修改为115.209.110.181,端口修改为32603,执行如下命令即可。
    echo "set server backendout/server1 addr 115.209.110.181 port 32603" | socat stdio tcp4-connect:127.0.0.1:9999

    有两个前提:
    (1)HAproxy 2.0以后的版本才支持 Runtime API。
    (2)在配置文件里要开始 Runtime API的端口。如下配置示例,在9999端口开启Runtime API。
    global
    stats socket ipv4@127.0.0.1:9999 level admin

    详细用法可以参见官方博客里的示例,链接为https://www.haproxy.com/blog/dynamic-configuration-haproxy-runtime-api/
    发布时间:2022-05-22 16:22:21
  • 【经验分享】linux下如何检测某个网口下有ADSL拨号设备信号?
    用途:检测拨号设备是否工作正常,或者网口与拨号设备的连接是否正常。
    方法:可以使用"pppoe-discovery -I eth1"命令,eth1修改为具体要检测的网口。如果对应网口和拨号设备连接正常,将会返回BAS的名称和IP。
    文档连接:https://www.systutorials.com/docs/linux/man/8-pppoe-discovery/

    如附图所示,为分别在连云港联通、南京电信、南昌电信拨号环境下做的测试。
    发布时间:2022-05-10 19:10:47
  • 【经验分享】如何查看客户通过web隧道访问了什么网站?
    Web隧道内传输的数据通常是经过ssl加密的,如何通过抓包查看客户访问了什么网站呢?我们知道Web隧道的建立离不开HTTP的CONNECT方法,因为只要我们过滤CONNECT关键词就能拿到客户连接的目标网址。
    例如,我们通过ngrep进行包过滤,锁定Web隧道服务的端口(本例为65002)
    sudo ngrep -d ens3 -W byline -N -t -q CONNECT port 65002
    PS:ens3 是网口。结果如附图所示。
    发布时间:2022-05-10 16:58:59
  • 【经验分享】如何计算阿里系Ajax请求中的sign签名?
    有过阿里系采集经验的开发者都应该知道,某宝(天猫)H5版、1688、某宝司法拍卖H5版等阿里系网站,在Ajax请求中都会有一个sign签名参数(如下图1、2、3所示),要是值不正确将无法获取到有效的数据(例如返回“非法请求”提示)。如果我们无法构造出有效的sign,就只能通过“模拟浏览器操作”的方式来绕过签名验证,再结合"mitmproxy动态抓包脚本"来提取返回数据,这种方案效率太低,而且很不灵活。本文将介绍如何计算这个sign值以及给出对应的Python实现,这样就能实现通过直接HTTP交互抓取数据。点击链接查看详情>>> http://www.site-digger.com/html/articles/20211018/851.html

    •  
    发布时间:2021-10-18 14:59:23
  • 【经验分享】接上一篇:Android APP内置WebView如何获取当前加载的URL(方法二)?
    这次是直接HOOK android.webkit.WebView类的loadUrl()方法,可以直接得到加载的URL。同时也可以再loadUrl()内调用setWebContentsDebuggingEnabled(true)开启远程调试。效果如附图所示,这是某宝APP内嵌的H5页面,成功获取到了URL并且在inspect中能看到对应的WebView窗口(开启该WebView的远程调试成功)。

    // 查看WebView加载的URLs并启动远程调试
    Java.use("android.webkit.WebView").loadUrl.overload("java.lang.String").implementation = function (s) {
    console.log('WebView.loadUrl():' + s);
    console.log('Set webview DebuggingEnabled!');
    this.setWebContentsDebuggingEnabled(true);
    this.loadUrl.overload("java.lang.String").call(this, s);
    };
    发布时间:2022-05-06 13:31:47
  • 【经验分享】Android APP内置WebView如何获取当前加载的URL?
    (1)使用Firida强制其开启WebView的远程调试,以某司法拍卖APP为例,执行如下代码后。
    Java.perform(function() {
    var WebView = Java.use("com.uc.webview.export.WebView");
    WebView.setWebContentsDebuggingEnabled(true);
    }
    );
    (2)通过adb forward命令把WebView的Unix域套接字映射为本地端口,详细步骤可参见我们的这篇文章http://www.site-digger.com/html/articles/20220414/860.html
    (3)通过WebView的远程调试接口即可看到当前Tab的JSON数据,如附图所示,其中就有URL信息。
    发布时间:2022-05-06 13:04:25
  • 【经验分享】可以用VMware Workstation远程管理ESXi服务器上的虚拟机。
    ESXi管理界面是基于Web的,用起来不太习惯,今天偶然发现VMware Workstation的菜单里有个“连接服务器”操作,试了一下竟然可以远程管理ESXi。
    1. 点击"文件->连接服务器"。填入ESXi的IP地址、管理员用户名和密码,连接。
    2. 如果有https错误提示,点击忽略。成功连上以后就能看到和本地虚拟机一样的列表。操作起来也和操作本地虚拟机一样方便。如附图所示。
    发布时间:2022-04-02 17:42:32
  • 【经验分享】Linux如何设置虚拟内存?
    1. 先看一下是否设置了虚拟内存。执行free -m命令,查看"Swap:"后的第一个数字,如果是0则表明未设置。
    2. 添加虚拟内存,假设1G。
    # 创建swapfile文件
    sudo dd if=/dev/zero of=/swapfile bs=1M count=1024
    # 将目标设置为swap分区文件
    sudo mkswap /swapfile
    # 激活启用虚拟内存,执行完毕之后就可以用free -m验证是否生效了。
    sudo swapon /swapfile
    开机自动启用虚拟内存:
    添加这行: /swapfile swap swap defaults 0 0 到 /etc/fstab即可。
    发布时间:2022-04-01 19:36:02
  • 【经验分享】Windows下如何获取进程的命令行参数?
    任务管理器里可以通过添加“命令行”列显示出来,但是无法复制。如下命令比较完美。
    示例:
    wmic process where caption="wechatweb.exe" get caption,commandline /value ​​​
    发布时间:2022-03-23 13:51:44
  • 【经验分享】taskkill终止进程出现“拒绝访问”如何解决?
    试试 wmic process where name='NemuPlayer.exe' delete
    效果如附图所示。 ​​​
    发布时间:2022-03-02 14:10:17
当前位置: 首页 > 技术文章 >
网页数据抓取之当当网数据抓取实录
发布时间:2011-11-26

说起“网页数据抓取”,可能很多人都不甚了解吧。毕竟,在国内来说,类似网页数据抓取的事情虽然早已有人在做,但总体从业人员还是较少,而受众也更是知之甚少。

其实说明白了大家一点也不陌生。所谓“网页数据抓取”,也称为网页数据采集,Web数据采集等等,就是从我们平时通过浏览器查看的web网页上来提取需要的数据信息,然后以结构化的方式存储到CSV、JSON、XML、ACCESS、MSSQL、MYSQL等格式的文件或数据库中的过程。当然,这里的数据提取过程,是借助于计算机软件技术来实现的,而不是通过人工的方式手动复制、粘贴来实现的。也正因为如此,才使得从大型网站上采集需要的数据成为可能。

下面,就以笔者从当当网上采集数据的过程为例,来具体说一下网页数据抓取的基本过程吧。

首先,我们要对目标网站的网页结构进行分析,以确定该网站上的数据是否可以采集以及如何采集。

当当网是一个综合性的网站,这里我们就以图书类数据为例来说明吧。经过查看,我们找到了图书信息的目录页。图书信息是以多级目录为结构来组织的,如下图所示,图片左侧的就是图书信息的一级目录:

因为很多网站出于数据保护的原因,都会限制数据显示的数目,比如数据最多显示100页之类的,超过100页的数据就不给显示出来了。这样的话,如果选择进入的目录级别越高,能够得到的数据量就越少。所以,为了能够得到尽可能多的数据,我们需要进入更底层的目录,也就是更小的分类级,才能获得更多的数据。

 点开一级目录,就可以进入二级图书目录,如下图所示:

同样,依次点击各级目录,最后就能进入到最底层的目录,这里显示着该目录下的所有可显示的数据项列表,我们可以称之为底层列表页,如图所示:

当然,这个列表页很可能也是分为多页的,我们在进行数据采集时,需要遍历每一页的数据项,通过每个数据项上的链接,就可以进入到最终数据的页面,我们称之为详细页。如下图:

到这里,获取详细数据的路径已经明确了。接下来,我们就要对详细页上的有用数据项进行分析,然后针对性地编写数据采集程序,就可以抓取到我们感兴趣的数据了。

下面是笔者对当当网图书数据进行网页数据抓取时编写的程序的部分代码:

下面是笔者采集到的部分图书信息示例数据:

至此,一个完整的网页数据抓取过程就完成了。从上面的数据列表中可以看出,只要是网页上有的数据项,我们差不多都可以抓取下来。至于后续的工作,那就看您要怎么使用这些数据了。

特别说明:本文旨在技术交流,请勿将涉及的技术用于非法用途,否则一切后果自负。如果您觉得我们侵犯了您的合法权益,请联系我们予以处理。
☹ Disqus被Qiang了,之前所有的评论内容都看不到了。如果您有爬虫相关技术方面的问题,欢迎发到我们的问答平台:http://spider.site-digger.com/
QQ在线客服
欢迎咨询,点击这里给我发送消息。
欢迎咨询,点击这里给我发送消息。

加微信咨询