更多>>关于我们

西安鲲之鹏网络信息技术有限公司从2010年开始专注于Web(网站)数据抓取领域。致力于为广大中国客户提供准确、快捷的数据采集相关服务。我们采用分布式系统架构,日采集网页数千万。我们拥有海量稳定高匿HTTP代理IP地址池,可以有效获取互联网任何公开可见信息。

您只需告诉我们您想抓取的网站是什么,您感兴趣的字段有哪些,你需要的数据是哪种格式,我们将为您做所有的工作,最后把数据(或程序)交付给你。

数据的格式可以是CSV、JSON、XML、ACCESS、SQLITE、MSSQL、MYSQL等等。

更多>>官方微博

西安鲲之鹏
陕西 西安

加关注

  • 【经验分享】playwright/selenium绕过反自动化/爬虫检测最新方案
    原理:是通过在页面加载之前注入js脚本,抹去navigator.webdriver等浏览器自动化特征。
    使用的这个js脚本(stealth.min.js)来源于Github上的puppeteer-extra-plugin-stealth项目(A plugin for puppeteer-extra and playwright-extra to prevent detection.)。

    playwright的示例:
    context.add_init_script(path='stealth.min.js')
    page = context.new_page()
    page.goto("https://bot.sannysoft.com/")

    selenium的示例:
    driver = webdriver.Chrome()
    with open('stealth.min.js', 'r') as f:
    js = f.read()
    driver.execute_cdp_cmd('Page.addScriptToEvaluateOnNewDocument', {'source': js})

    效果检验:
    1. 第一个检验标准,是看是否还会爆出navigator.webdriver等特征,可以直接在控制台查看,也可以通过访问https://bot.sannysoft.com/来查看。例如附图1是未做绕过处理时的截图。
    2. 第二个检验标准,是尝试登录淘宝,看能否成功。如果未做绕过处理,会出现滑块验证码,而且是无法正常处理的那种,无法登录成功。如附图2所示。

    经过测试,上述两项检验标准均通过:即没有爆出navigator.webdriver等特征,也可以成功登录淘宝,不出现滑块验证码。

    另附stealth.min.js的下载地址:
    http://www.site-digger.com/uploads/stealth.min.js
    发布时间:2022-08-10 11:05:15
  • 【经验分享】miller以XTAB格式查看字段内容较多或者字段较多的CSV文件
    示例:mlr --icsv --oxtab --from mouser_products_202208.csv head -n 3
    官方文档:https://miller.readthedocs.io/en/latest/file-formats/#xtab-vertical-tabular

    效果如附图所示。 ​​​
    发布时间:2022-08-10 10:26:30
  • 【分享】"CZ88纯真IP库20220420版" - MySQL版(52万条)免费下载

    数据说明:
    基于”QQ纯真IP库20220420版”转换的MySQL版本,共计529,985条。添加的数字格式的IP段起始和终止字段,可以通过该数据快速查询出某IP的归属国家、位置信息。

    字段说明:
    `ip_start_num` – 起始IP,数字类型(根据ip_start转换)
    `ip_end_num` – 终止IP,数字类型(根据ip_end转换)
    `ip_start` – 起始IP,字符串类型
    `ip_end` – 终止IP,字符串类型
    `country` – 所属国家
    `location` – 所在位置

    用法举例:
    (1)先将待查询IP转为数字类型。例如:
    ip_num = struct.unpack(‘!I’, socket.inet_aton(ip))[0]
    (2)查询”ip_start_num <= ip_num and ip_end_num >= ip_num”的记录,例如SQL语句:
    sql = ‘SELECT country FROM ips WHERE ip_start_num <= %s AND ip_end_num >= %s;’.format(ip_num, ip_num)

    示例数据:
    http://db.site-digger.com/csv/637a38385f6970735f32303232303432305f73616d706c65/

    下载链接:
    http://www.data-shop.net/2014/08/cz88-free-ips-database-20220420-mysql-version-52w/

    应用举例:
    如附图2所示,是使用该数据实现的IP地址归属地查询API。
    发布时间:2022-08-02 12:34:26
  • 【经验分享】一例Squid http认证异常问题的排查
    背景:
    (1)Squid配置的HTTP代理。使用external_acl_type自定义acl脚本进行ip和用户名密码认证,acl通过的放行,否则deny。
    (2)Playwright设置带用户名密码认证的http代理(上述Squid)代理。

    问题:
    curl命令或者requests库测试均工作正常,但是Playwright始终报 NS_ERROR_PROXY_FORBIDDEN错误。

    排查:
    用curl -v命令测试用户名密码不对或者为空情况下squid的返回,如下图所示,返回的是403状态码。意识到问题的所在了,对于浏览器来说,只有当服务端返回407状态码时,才会启用HTTP Proxy Basic Auth认证。此时返回403直接中断了后续认证流程。

    解决:
    自定义的external_acl_type之后,在http_access deny all之前,加入acl auth_user,让其在external_acl_type的ACL匹配失败的情况下能够返回407状态码。

    延伸:
    如何让“浏览器一开始就带上Proxy-Authorization头,这样就能直接通过认证,减少一次407的返回,提高效率。就像request库一样”? 经过测试发现使用一些代理插件,例如SwitchyOmega,可以实现。
    发布时间:2022-06-23 10:58:25
  • 【经验分享】利用HAProxy Runtime API的"set server"命令可以动态修改Haproxy的Backend server。
    例如 将Backend "backendout"的 Server "server1"的地址修改为115.209.110.181,端口修改为32603,执行如下命令即可。
    echo "set server backendout/server1 addr 115.209.110.181 port 32603" | socat stdio tcp4-connect:127.0.0.1:9999

    有两个前提:
    (1)HAproxy 2.0以后的版本才支持 Runtime API。
    (2)在配置文件里要开始 Runtime API的端口。如下配置示例,在9999端口开启Runtime API。
    global
    stats socket ipv4@127.0.0.1:9999 level admin

    详细用法可以参见官方博客里的示例,链接为https://www.haproxy.com/blog/dynamic-configuration-haproxy-runtime-api/
    发布时间:2022-05-22 16:22:21
  • 【经验分享】linux下如何检测某个网口下有ADSL拨号设备信号?
    用途:检测拨号设备是否工作正常,或者网口与拨号设备的连接是否正常。
    方法:可以使用"pppoe-discovery -I eth1"命令,eth1修改为具体要检测的网口。如果对应网口和拨号设备连接正常,将会返回BAS的名称和IP。
    文档连接:https://www.systutorials.com/docs/linux/man/8-pppoe-discovery/

    如附图所示,为分别在连云港联通、南京电信、南昌电信拨号环境下做的测试。
    发布时间:2022-05-10 19:10:47
  • 【经验分享】如何查看客户通过web隧道访问了什么网站?
    Web隧道内传输的数据通常是经过ssl加密的,如何通过抓包查看客户访问了什么网站呢?我们知道Web隧道的建立离不开HTTP的CONNECT方法,因为只要我们过滤CONNECT关键词就能拿到客户连接的目标网址。
    例如,我们通过ngrep进行包过滤,锁定Web隧道服务的端口(本例为65002)
    sudo ngrep -d ens3 -W byline -N -t -q CONNECT port 65002
    PS:ens3 是网口。结果如附图所示。
    发布时间:2022-05-10 16:58:59
  • 【经验分享】如何计算阿里系Ajax请求中的sign签名?
    有过阿里系采集经验的开发者都应该知道,某宝(天猫)H5版、1688、某宝司法拍卖H5版等阿里系网站,在Ajax请求中都会有一个sign签名参数(如下图1、2、3所示),要是值不正确将无法获取到有效的数据(例如返回“非法请求”提示)。如果我们无法构造出有效的sign,就只能通过“模拟浏览器操作”的方式来绕过签名验证,再结合"mitmproxy动态抓包脚本"来提取返回数据,这种方案效率太低,而且很不灵活。本文将介绍如何计算这个sign值以及给出对应的Python实现,这样就能实现通过直接HTTP交互抓取数据。点击链接查看详情>>> http://www.site-digger.com/html/articles/20211018/851.html

    •  
    发布时间:2021-10-18 14:59:23
  • 【经验分享】接上一篇:Android APP内置WebView如何获取当前加载的URL(方法二)?
    这次是直接HOOK android.webkit.WebView类的loadUrl()方法,可以直接得到加载的URL。同时也可以再loadUrl()内调用setWebContentsDebuggingEnabled(true)开启远程调试。效果如附图所示,这是某宝APP内嵌的H5页面,成功获取到了URL并且在inspect中能看到对应的WebView窗口(开启该WebView的远程调试成功)。

    // 查看WebView加载的URLs并启动远程调试
    Java.use("android.webkit.WebView").loadUrl.overload("java.lang.String").implementation = function (s) {
    console.log('WebView.loadUrl():' + s);
    console.log('Set webview DebuggingEnabled!');
    this.setWebContentsDebuggingEnabled(true);
    this.loadUrl.overload("java.lang.String").call(this, s);
    };
    发布时间:2022-05-06 13:31:47
  • 【经验分享】Android APP内置WebView如何获取当前加载的URL?
    (1)使用Firida强制其开启WebView的远程调试,以某司法拍卖APP为例,执行如下代码后。
    Java.perform(function() {
    var WebView = Java.use("com.uc.webview.export.WebView");
    WebView.setWebContentsDebuggingEnabled(true);
    }
    );
    (2)通过adb forward命令把WebView的Unix域套接字映射为本地端口,详细步骤可参见我们的这篇文章http://www.site-digger.com/html/articles/20220414/860.html
    (3)通过WebView的远程调试接口即可看到当前Tab的JSON数据,如附图所示,其中就有URL信息。
    发布时间:2022-05-06 13:04:25
当前位置: 首页 > 技术文章 >
iptables DNAT Web流量截取实验
发布时间:2018-11-05

为了进行本次实验,我们用树莓派3B+(如下图所示)搭建了一个无线网关。

我们给树莓派安装了Ubuntu18.04系统。树莓派3B+有一个千兆网口并搭载一个支持AP功能的无线网卡。

有线网卡eth0,IP配置为192.168.1.11; 无线网卡wlan0,IP配置为: 10.10.1.1;

  • 有线网卡eth0,IP配置为192.168.1.11;
  • 无线网卡wlan0,IP配置为: 10.10.1.1;

无线网卡以AP模式工作,通过hostapd创建热点,使用isc-dhcp-server作为DHCP服务器。

准备工作:

1.开启Linux的内核IP转发功能

sudo sysctl -w net.ipv4.ip_forward=1
或者
sudo bash -c "echo 1 > /proc/sys/net/ipv4/ip_forward"
前者重启失效,后者重启仍有效

2.给防火墙添加自动SNAT规则

sudo iptables -t nat -A POSTROUTING -o eth0 -j MASQUERADE

至此,无线路由器(下简称树莓派)已配置到位。

 

用笔记本的无线网卡连接上AP,获取到的IP地址为10.10.1.52,测试网络工作正常。本次实验的网络环境如下图所示。

另外,台式机192.168.1.6是笔者当前使用的电脑。

实验一:HTTP截流并转发给Natcat

实验目的:
截获内网发出的HTTP流量,并转发给Natcat(下简称nc)处理。

实验步骤:

1.在树莓派上用nc监听8080端口,并将nc.txt的内容回送给客户端,即模拟一个HTTP服务端,命令如下。

nc -l -vv -p 8080 < nc.txt

nc.txt的内容如下(一个最简化HTTP响应报文):

HTTP/1.1 200 OK
Content-Length: 2

hi

2.在树莓派上加入如下DNAT规则。将所有目标端口为80端口(HTTP)的请求重定向到10.10.1.1:8080(即nc监听的端口)。

sudo iptables -t nat -A PREROUTING -p tcp --dport 80 -j DNAT --to 10.10.1.1:8080

3.在笔记本(10.10.1.52)上启动Wireshark抓包。

4.然后打开浏览器并访问一个HTTP网站(注意不能是HTTPS网站,因为我们只转发了80端口的流量,而没有转发443端口的流量),例如在浏览器地址栏输入http://www.site-digger.com/html/about.html。按下回车键瞬间,nc接收到了该HTTP请求,数据如下图所示。

5.同时浏览器上显示出了内容"hi"。Wiireshark也抓到了2条HTTP协议数据,如下所示。

第一条为HTTP请求(10.10.1.52:56506 -> 47.90.32.133:80)包,如下图所示:

第二条为HTTP应答(47.90.32.133:80 -> 10.10.1.52:56506),如下图所示:

实验总结:

1.实际上该HTTP请求并未真正发送到了目标主机www.site-digger.com(47.90.32.133:80),而是在树莓派路由器内被拦截并重定向给了nc进程;

2.来自www.site-digger.com(47.90.32.133:80)的应答数据实际上也并非真正来自目标网站,而是来自于路由器上的nc进程;

实际的数据包发送流程是这样:
HTTP请求【浏览器(10.10.1.52:56506) -> www.site-digger.com(47.90.32.133:80)】包到达树莓派路由器内核后被我们配置的NAT规则命中,内核修改包为【浏览器(10.10.1.52:56506) -> nc进程(10.10.1.1:8080)】,并记录下原始的映射关系。这样nc进程就收到了该HTTP请求,nc做出应答之后数据包是这样的【nc进程(10.10.1.1:8080)->浏览器(10.10.1.52:56506)】,数据包到内核之后会根据之前保存下来的映射关系,再将包修改为【 www.site-digger.com(47.90.32.133:80) ->浏览器(10.10.1.52:56506)】,这样浏览器顺利接收到HTTP应答(可怜的浏览器并不知道该响应是伪造的)。

 

实验二:HTTP截流并转发给互联网远程WEB主机

在实验一中我们是把80端口的流量转发给了本地主机(路由器上的nc进程),那么如果是转发给互联网上的远程主机,是否能正常工作呢?

1.在树莓派上加入如下DNAT规则。将所有目标端口为80的请求重定向到47.90.32.133:80(鲲之鹏的Web服务器)。

sudo iptables -t nat -A PREROUTING -p tcp --dport 80 -j DNAT --to 47.90.32.133:80

2.我们在笔记本浏览器中尝试访问一些HTTP网站,发现无论我们输入什么网址,返回的内容都是http://47.90.32.133/(Apache默认首页),如下截图所示(访问www.qq.com)。

结论:DNAT也可以转发流量到远程主机。

 

实验三:HTTP + HTTPS截流并转发给Mitmproxy

激动人心的时刻就要来了,实验三才是我们本次研究的终极目标。资深爬虫开发人员肯定对Mitmproxy不陌生,它通过中间人代理模式工作,即能处理HTTP协议数据,又能通过伪造证书解析HTTPS协议数据。由于Mitmproxy是通过代理模式工作的,我们要抓包必须要先给浏览器或者手机的WIFI设置Fiddler代理。但是这个步骤很繁琐,特别对手机而言,每次都要要输入一遍参数,测完还要再去掉代理。况且还有些设备你无法给它设置代理,例如小米音响。

本次实验的目标是打造一个自动化HTTP(S)抓包路由器,只要我们的设备(PC、手机、平板、或者其它支持WIFI连接的智能设备)连上该路由器热点,就能自动抓取设备发出的HTTP(S)流量并解析。

实验步骤:

1.在树莓派上安装mitmproxy,安装完成之后,以透明代理(Transparent Proxying)模式启动。

# 安装mitmproxy
sudo pip3 install mitmproxy
# 以Transparent模式启动mitmweb
mitmweb --mode transparent --showhost

启动后,如下图所示:

由于mitmweb提供的数据包查看接口(WEB版的)默认只监听127.0.0.1:8081,因此我们要想在远程主机上查看还得添加一条如下的DNAT规则,使得我们能够远程访问该接口。

sudo iptables -t nat -A PREROUTING -p tcp --dport 8081 -j DNAT --to 127.0.0.1:8081
# 默认系统不转发127.0.0.1,需要如下配置上述规则才能起作用
sysctl -w net.ipv4.conf.eth0.route_localnet=1

上述步骤完成之后,我们可以在远程主机比如192.168.1.6上访问一下http://192.168.1.11:8081 试试,如下所示:

2.在树莓派上加入如下DNAT规则。将所有目标端口为80或者443的请求重定向到10.10.1.1:8080(树莓派上mitmproxy监听的端口)。

sudo iptables -t nat -A PREROUTING -p tcp --dport 80 -j DNAT --to 10.10.1.1:8080
sudo iptables -t nat -A PREROUTING -p tcp --dport 443 -j DNAT --to 10.10.1.1:8080

添加成功之后可以看到nat表的规则如下:sudo iptables -t nat -L

3.手机连接树莓派的热点,先用浏览器访问http://mitm.it 下载并安装根证书。然后打开一个微信小程序,比如打开58同城小程序,查看发布信息的电话号码。查看mitmproxy上是否抓取到了该数据包。如下图所示,成功抓取。

好了。至此我们的抓包利器打造完毕。今后只要我们把设备接入该WIFI,就能抓取并分析设备发出的HTTP(S)数据。需要注意的这里我们不能使用Fiddler来替代Mitmproxy,因为Fiddler不支持Transparent Proxying模式。因为我们转发的是原始HTTP请求,而不是HTTP代理协议请求。

 

参考文章:

https://mitmproxy.readthedocs.io/en/v2.0.2/tutorials/transparent-dhcp.html

http://www.zsythink.net/archives/1764

特别说明:本文旨在技术交流,请勿将涉及的技术用于非法用途,否则一切后果自负。如果您觉得我们侵犯了您的合法权益,请联系我们予以处理。
☹ Disqus被Qiang了,之前所有的评论内容都看不到了。如果您有爬虫相关技术方面的问题,欢迎发到我们的问答平台:http://spider.site-digger.com/