更多>>关于我们

西安鲲之鹏网络信息技术有限公司从2010年开始专注于Web(网站)数据抓取领域。致力于为广大中国客户提供准确、快捷的数据采集相关服务。我们采用分布式系统架构,日采集网页数千万。我们拥有海量稳定高匿HTTP代理IP地址池,可以有效获取互联网任何公开可见信息。

您只需告诉我们您想抓取的网站是什么,您感兴趣的字段有哪些,你需要的数据是哪种格式,我们将为您做所有的工作,最后把数据(或程序)交付给你。

数据的格式可以是CSV、JSON、XML、ACCESS、SQLITE、MSSQL、MYSQL等等。

更多>>官方微博

西安鲲之鹏
陕西 西安

加关注

  • 【经验分享】playwright/selenium绕过反自动化/爬虫检测最新方案
    原理:是通过在页面加载之前注入js脚本,抹去navigator.webdriver等浏览器自动化特征。
    使用的这个js脚本(stealth.min.js)来源于Github上的puppeteer-extra-plugin-stealth项目(A plugin for puppeteer-extra and playwright-extra to prevent detection.)。

    playwright的示例:
    context.add_init_script(path='stealth.min.js')
    page = context.new_page()
    page.goto("https://bot.sannysoft.com/")

    selenium的示例:
    driver = webdriver.Chrome()
    with open('stealth.min.js', 'r') as f:
    js = f.read()
    driver.execute_cdp_cmd('Page.addScriptToEvaluateOnNewDocument', {'source': js})

    效果检验:
    1. 第一个检验标准,是看是否还会爆出navigator.webdriver等特征,可以直接在控制台查看,也可以通过访问https://bot.sannysoft.com/来查看。例如附图1是未做绕过处理时的截图。
    2. 第二个检验标准,是尝试登录淘宝,看能否成功。如果未做绕过处理,会出现滑块验证码,而且是无法正常处理的那种,无法登录成功。如附图2所示。

    经过测试,上述两项检验标准均通过:即没有爆出navigator.webdriver等特征,也可以成功登录淘宝,不出现滑块验证码。

    另附stealth.min.js的下载地址:
    http://www.site-digger.com/uploads/stealth.min.js
    发布时间:2022-08-10 11:05:15
  • 【经验分享】miller以XTAB格式查看字段内容较多或者字段较多的CSV文件
    示例:mlr --icsv --oxtab --from mouser_products_202208.csv head -n 3
    官方文档:https://miller.readthedocs.io/en/latest/file-formats/#xtab-vertical-tabular

    效果如附图所示。 ​​​
    发布时间:2022-08-10 10:26:30
  • 【分享】"CZ88纯真IP库20220420版" - MySQL版(52万条)免费下载

    数据说明:
    基于”QQ纯真IP库20220420版”转换的MySQL版本,共计529,985条。添加的数字格式的IP段起始和终止字段,可以通过该数据快速查询出某IP的归属国家、位置信息。

    字段说明:
    `ip_start_num` – 起始IP,数字类型(根据ip_start转换)
    `ip_end_num` – 终止IP,数字类型(根据ip_end转换)
    `ip_start` – 起始IP,字符串类型
    `ip_end` – 终止IP,字符串类型
    `country` – 所属国家
    `location` – 所在位置

    用法举例:
    (1)先将待查询IP转为数字类型。例如:
    ip_num = struct.unpack(‘!I’, socket.inet_aton(ip))[0]
    (2)查询”ip_start_num <= ip_num and ip_end_num >= ip_num”的记录,例如SQL语句:
    sql = ‘SELECT country FROM ips WHERE ip_start_num <= %s AND ip_end_num >= %s;’.format(ip_num, ip_num)

    示例数据:
    http://db.site-digger.com/csv/637a38385f6970735f32303232303432305f73616d706c65/

    下载链接:
    http://www.data-shop.net/2014/08/cz88-free-ips-database-20220420-mysql-version-52w/

    应用举例:
    如附图2所示,是使用该数据实现的IP地址归属地查询API。
    发布时间:2022-08-02 12:34:26
  • 【经验分享】一例Squid http认证异常问题的排查
    背景:
    (1)Squid配置的HTTP代理。使用external_acl_type自定义acl脚本进行ip和用户名密码认证,acl通过的放行,否则deny。
    (2)Playwright设置带用户名密码认证的http代理(上述Squid)代理。

    问题:
    curl命令或者requests库测试均工作正常,但是Playwright始终报 NS_ERROR_PROXY_FORBIDDEN错误。

    排查:
    用curl -v命令测试用户名密码不对或者为空情况下squid的返回,如下图所示,返回的是403状态码。意识到问题的所在了,对于浏览器来说,只有当服务端返回407状态码时,才会启用HTTP Proxy Basic Auth认证。此时返回403直接中断了后续认证流程。

    解决:
    自定义的external_acl_type之后,在http_access deny all之前,加入acl auth_user,让其在external_acl_type的ACL匹配失败的情况下能够返回407状态码。

    延伸:
    如何让“浏览器一开始就带上Proxy-Authorization头,这样就能直接通过认证,减少一次407的返回,提高效率。就像request库一样”? 经过测试发现使用一些代理插件,例如SwitchyOmega,可以实现。
    发布时间:2022-06-23 10:58:25
  • 【经验分享】利用HAProxy Runtime API的"set server"命令可以动态修改Haproxy的Backend server。
    例如 将Backend "backendout"的 Server "server1"的地址修改为115.209.110.181,端口修改为32603,执行如下命令即可。
    echo "set server backendout/server1 addr 115.209.110.181 port 32603" | socat stdio tcp4-connect:127.0.0.1:9999

    有两个前提:
    (1)HAproxy 2.0以后的版本才支持 Runtime API。
    (2)在配置文件里要开始 Runtime API的端口。如下配置示例,在9999端口开启Runtime API。
    global
    stats socket ipv4@127.0.0.1:9999 level admin

    详细用法可以参见官方博客里的示例,链接为https://www.haproxy.com/blog/dynamic-configuration-haproxy-runtime-api/
    发布时间:2022-05-22 16:22:21
  • 【经验分享】linux下如何检测某个网口下有ADSL拨号设备信号?
    用途:检测拨号设备是否工作正常,或者网口与拨号设备的连接是否正常。
    方法:可以使用"pppoe-discovery -I eth1"命令,eth1修改为具体要检测的网口。如果对应网口和拨号设备连接正常,将会返回BAS的名称和IP。
    文档连接:https://www.systutorials.com/docs/linux/man/8-pppoe-discovery/

    如附图所示,为分别在连云港联通、南京电信、南昌电信拨号环境下做的测试。
    发布时间:2022-05-10 19:10:47
  • 【经验分享】如何查看客户通过web隧道访问了什么网站?
    Web隧道内传输的数据通常是经过ssl加密的,如何通过抓包查看客户访问了什么网站呢?我们知道Web隧道的建立离不开HTTP的CONNECT方法,因为只要我们过滤CONNECT关键词就能拿到客户连接的目标网址。
    例如,我们通过ngrep进行包过滤,锁定Web隧道服务的端口(本例为65002)
    sudo ngrep -d ens3 -W byline -N -t -q CONNECT port 65002
    PS:ens3 是网口。结果如附图所示。
    发布时间:2022-05-10 16:58:59
  • 【经验分享】如何计算阿里系Ajax请求中的sign签名?
    有过阿里系采集经验的开发者都应该知道,某宝(天猫)H5版、1688、某宝司法拍卖H5版等阿里系网站,在Ajax请求中都会有一个sign签名参数(如下图1、2、3所示),要是值不正确将无法获取到有效的数据(例如返回“非法请求”提示)。如果我们无法构造出有效的sign,就只能通过“模拟浏览器操作”的方式来绕过签名验证,再结合"mitmproxy动态抓包脚本"来提取返回数据,这种方案效率太低,而且很不灵活。本文将介绍如何计算这个sign值以及给出对应的Python实现,这样就能实现通过直接HTTP交互抓取数据。点击链接查看详情>>> http://www.site-digger.com/html/articles/20211018/851.html

    •  
    发布时间:2021-10-18 14:59:23
  • 【经验分享】接上一篇:Android APP内置WebView如何获取当前加载的URL(方法二)?
    这次是直接HOOK android.webkit.WebView类的loadUrl()方法,可以直接得到加载的URL。同时也可以再loadUrl()内调用setWebContentsDebuggingEnabled(true)开启远程调试。效果如附图所示,这是某宝APP内嵌的H5页面,成功获取到了URL并且在inspect中能看到对应的WebView窗口(开启该WebView的远程调试成功)。

    // 查看WebView加载的URLs并启动远程调试
    Java.use("android.webkit.WebView").loadUrl.overload("java.lang.String").implementation = function (s) {
    console.log('WebView.loadUrl():' + s);
    console.log('Set webview DebuggingEnabled!');
    this.setWebContentsDebuggingEnabled(true);
    this.loadUrl.overload("java.lang.String").call(this, s);
    };
    发布时间:2022-05-06 13:31:47
  • 【经验分享】Android APP内置WebView如何获取当前加载的URL?
    (1)使用Firida强制其开启WebView的远程调试,以某司法拍卖APP为例,执行如下代码后。
    Java.perform(function() {
    var WebView = Java.use("com.uc.webview.export.WebView");
    WebView.setWebContentsDebuggingEnabled(true);
    }
    );
    (2)通过adb forward命令把WebView的Unix域套接字映射为本地端口,详细步骤可参见我们的这篇文章http://www.site-digger.com/html/articles/20220414/860.html
    (3)通过WebView的远程调试接口即可看到当前Tab的JSON数据,如附图所示,其中就有URL信息。
    发布时间:2022-05-06 13:04:25
当前位置: 首页 > 技术文章 >
基于arcpy实现导出区域内网格中心坐标功能
发布时间:2020-10-12

    在进行数据采集的时候经常会用到基于“周边检索”结果的采集:就是利用平台(网站或APP)提供的"附近"检索功能,搜索"某个位置"周边“X千米”范围内的某类信息(例如POI),然后采集搜索出来的结果。这里的“某个位置”就是搜索圆形区域的圆心(搜索中心点),“X千米”指的是搜索半径。

    这个搜索中心点的选取至关重要。因为如果选的少了会因为区域覆盖不全导致数据遗漏,选的太多(密)了,会增加搜索次数,影响采集效率。所以如何合理的选择搜索中心点很重要。例如,我们在采集"北京市房山区"内POI信息的时候就曾遇到过这样的问题。刚开始我们使用了"行政区、商圈、加油站"这三类信息点的位置作为搜索中心点,采集下来发现有不少遗漏。仔细检查后发现,原因是由于房山区相对比较偏远,这三类信息点比较少,搜索中心点比较少导致有很多地区覆盖不到,从而造成数据缺失。

    一种合理的搜索中心点选取方法:将待采集区域划分成面积想等的若干网格,每个网格的面积由搜索半径确定,然后取网格中心点的坐标作为搜索中心点,这样区域内每个地方都能被覆盖到。

    下面介绍基于arcpy实现上面的思路。arcpy是ArcGIS里包含的一个Python地理数据分析库。在安装完ArcGIS之后就能使用该库了。需要注意的是ArcGIS安装的时候会自带安装一个32位的Python,我们需要使用它自带的这个Python,否则(例如,使用自己安装的64位Python)会找不到arcpy库,或者出现因为和64位版本Python不兼容导致的异常问题。

    第一步,获取待采集行政区的边界坐标。关于行政区的边界坐标获取方法,网上介绍有各种途径,这里推荐一种最简单的方法,使用阿里云datav里的工具,链接是http://datav.aliyun.com/tools/atlas/

    第二步,根据待采集区域的边界坐标,画出该区域范围(多边形)。如下图所示是使用arcpy根据"北京房山区"的边界坐标,绘制出的多边形区域。

北京市房山区的边界

    第三步,根据待采集区域边界上极限(最大最小)坐标,计算出每个网格(正方形)的顶点坐标,画出网格(渔网图)。这里的网格大小根据搜索半径确定,如果搜索半径为2KM,这里网格边长就选用2KM(近似等于0.009 * 2 经度)大小。如下图所示是在“房山区”上画出的网格后的效果。

北京市房山区加网格后效果

第四步,遍历每个网格,判断网格和待采集区域是否相交,如果相交,计算并导出网格中心点的坐标。如下图所示是绘制出相交网格中心点坐标后的效果。

北京市房山区加网格和网格中心点后效果

"北京市房山区"共被拆分为738个"2KM*2KM"的网格,最后导出的网格中心点坐标列表如下所示。

北京市房山区的网格中心点坐标列表截图

上述过程的完整代码如下:

# coding: utf-8
# create_boundary_fishnet_coords.py
# 导出行政区边界内渔网格中心点坐标


import sys
import os
import math
import arcpy


# 网格大小, 经度0.009度相当于1公里
GRID_WIDTH = 0.009 * 2


def create(input_boundary_file):

    # 输出目录
    output_dir = os.path.splitext(os.path.basename(input_boundary_file))[0] + '-output'
    output_dir = os.path.splitext(os.path.basename(input_boundary_file))[0] + '-output'
    if not os.path.exists(output_dir):
        os.mkdir(output_dir)
    
    # 加载边界原始数据
    bounday_file_data = ''
    with open(input_boundary_file, 'rb') as f:
        bounday_file_data = f.read()
    
    # 根据边界点创建行政区多边形面
    bounday_array = arcpy.Array()
    xmin, ymin, xmax, ymax = None, None, None, None
    is_first = True
    for xy in bounday_file_data.split(';'):
        x, _, y = xy.partition(',')
        x = float(x.strip())
        y = float(y.strip())
        if is_first:
            xmin = xmax = x
            ymin = ymax = y
            is_first = False
        else:
            if x > xmax:
                xmax = x
            if x < xmin:
                xmin = x
            if y > ymax:
                ymax = y
            if y < ymin:
                ymin = y
        bounday_array.add(arcpy.Point(x, y))
    # https://pro.arcgis.com/zh-cn/pro-app/arcpy/classes/polygon.htm
    bounday_polygon = arcpy.Polygon(bounday_array)
    # 导出边界多边形的shp文件,用gis软件(e.g. OpenJUMP)查看
    shp_file = '{}/boundary.shp'.format(output_dir)
    arcpy.CopyFeatures_management(bounday_polygon, shp_file)
    print 'Shapefile "{}" is ready.'.format(shp_file)
    
    # 画出渔网图
    # 根据边界坐标经纬度最大和最小值,依次计算出每个网格正方形四个顶点的坐标
    # 计算网格的行列数
    grid_rows_num = int(math.ceil((ymax - ymin)/float(GRID_WIDTH)))
    grid_columns_num = int(math.ceil((xmax - xmin)/float(GRID_WIDTH)))
    # 依次计算各网格(0, 0), (0, 1), (0, 2) ... (grid_rows_num - 1, grid_columns_num-1)四个顶点的坐标
    grids = []
    for r in range(grid_rows_num):
        for c in range(grid_columns_num):
            grid_4coords = arcpy.Array()
            # 左上角坐标
            x_lt = xmin + c * GRID_WIDTH
            y_lt = ymax - r * GRID_WIDTH
            # 右上角坐标
            x_rt = x_lt + GRID_WIDTH
            y_rt = y_lt
            # 左下角坐标
            x_lb = x_lt
            y_lb = y_lt - GRID_WIDTH
            # 右下角坐标
            x_rb = x_rt
            y_rb = y_lb
            #按"左上->右上->右下->左下->左上"顺序画一个封闭四边形,注意顺序不能乱,否则画出来的图形不对(我第一次的时候就画成两个对三角了)
            grid_4coords.add(arcpy.Point(x_lt, y_lt))
            grid_4coords.add(arcpy.Point(x_rt, y_rt))
            grid_4coords.add(arcpy.Point(x_rb, y_rb))
            grid_4coords.add(arcpy.Point(x_lb, y_lb))
            grid_4coords.add(arcpy.Point(x_lt, y_lt))
            # 创建一个网格(四边形)
            grids.append(arcpy.Polygon(grid_4coords))
    # 导出网格的shp文件
    shp_file = '{}/grids.shp'.format(output_dir)
    arcpy.CopyFeatures_management(grids, shp_file)
    print 'Shapefile "{}" is ready.'.format(shp_file)
    
    # 对比每个"网格四边形"和"区域多边形",找到两者"相交"的网格,导出对应的网格中心点坐标
    # 如果 disjoint 返回 False,则两个几何相交,详见 https://pro.arcgis.com/zh-cn/pro-app/arcpy/classes/polygon.htm
    center_points = []
    for grid in grids:
        if bounday_polygon.disjoint(grid) == False:
            # 网格左上角表座
            grid_x_lt = grid.getPart(0)[0].X
            grid_y_lt = grid.getPart(0)[0].Y
            # 计算出网格中心点坐标
            grid_x_center = grid_x_lt + 0.5 * GRID_WIDTH
            grid_y_center = grid_y_lt - 0.5 * GRID_WIDTH
            print (grid_x_center, grid_y_center)
            center_points.append((grid_x_center, grid_y_center))
    # 导出中心点的shp文件
    shp_file = '{}/center_points.shp'.format(output_dir)
    # 导出中心点坐标到csv文件
    csv_file = '{}/center_points.csv'.format(output_dir)
    writer = open(csv_file, 'wb')
    writer.write('"longitude","latitude"\n')
    center_points_geo = []
    for p in center_points:
        center_points_geo.append(arcpy.PointGeometry(arcpy.Point(p[0], p[1])))
        writer.write('"{}","{}"\n'.format(p[0], p[1]))
    writer.close()
    print 'CSV file "{}" for center points is ready.'.format(csv_file)
    # 参考 https://gis.stackexchange.com/questions/16122/creating-shapefile-from-lat-long-values-using-arcpy
    arcpy.CopyFeatures_management(center_points_geo, shp_file)
    print 'Shapefile "{}" is ready.'.format(shp_file)


            
if __name__ == '__main__':
    create('boundary_data/beijing_fangshan_boundary.txt')

附"北京市房山区”的边界坐标(BD09)数据:北京市房山区边界坐标数据下载

另附上一个演示视频,点击这里去腾讯视频观看:https://v.qq.com/x/page/d3163phzye5.html

特别说明:本文旨在技术交流,请勿将涉及的技术用于非法用途,否则一切后果自负。如果您觉得我们侵犯了您的合法权益,请联系我们予以处理。
☹ Disqus被Qiang了,之前所有的评论内容都看不到了。如果您有爬虫相关技术方面的问题,欢迎发到我们的问答平台:http://spider.site-digger.com/