黑马程序员技术交流社区
标题: 【上海校区】Python爬虫-国家企业信用信息公示系统App [打印本页]
作者: 不二晨 时间: 2018-10-30 09:32
标题: 【上海校区】Python爬虫-国家企业信用信息公示系统App
分析saicwap.apk,看这个名称,好像已经明白了什么。
安装&运行&解包查看国家企业信用信息公示系统Android APK文件。
UI交互体验基本上就是一个网页。
dex很小,assets文件很多。
根据名称搜索加猜测,直接得出结论,WebView外壳,JQuery+AJAX实现网页。
使用Fiddler抓包,仅有一条简单的HTTP Request & Response。
Response是标准JSON文本。
填写Android Mobile HTTP Header参数。URL = 'http://yd.gsxt.gov.cn/QuerySummary'MOBILE_ACTION = 'entSearch'TOPIC = 1PAGE_NUM = 1PAGE_SIZE = 10USER_ID = 'id001'USER_IP = '192.168.0.1'USER_AGENT = 'Mozilla/5.0 (Linux; Android 4.4.2; vivo Y28L Build/KTU84P) AppleWebKit/537.36 (KHTML, like Gecko) Version/4.0 Chrome/30.0.0.0 Mobile Safari/537.36 Html5Plus/1.0'ACCEPT_LANGUAGE = 'zh-CN,en-US;q=0.8'XRW = 'com.zongjucredit'ORIGIN = 'file://'CHARSET = 'application/x-www-form-urlencoded; charset=UTF-8'使用requests库。def query(keyword): _data = [('mobileAction', MOBILE_ACTION), ('keywords', keyword), ('topic', TOPIC), ('pageNum', PAGE_NUM), ('pageSize', PAGE_SIZE), ('userID', USER_ID), ('userIP', USER_IP)] _headers = {'User-Agent': USER_AGENT, 'Accept-Language': ACCEPT_LANGUAGE, 'X-Requested-With': XRW, 'Origin': ORIGIN, 'Content-Type': CHARSET} _response = requests.post(URL, data=_data, headers=_headers) print(_response.status_code) if _response.status_code == 200: _content = _response.json() print(json.dumps(_content, indent=2, sort_keys=True, ensure_ascii=False))测试运行{"BUSEXCEPTCOUNT": "0","CAT18": "10","CAT2NAME": "法定代表人","ENTNAME": "<font color=red>腾讯科技</font>(成都)有限公司","ENTTYPE": "6150","ESTDATE": "2008年07月10日","NAME": "奚丹","PRIPID": "BFA63C5493A3045829033A5B114CE66AFD1B796865F63020C39130E7149AE9152BAC6972D71F0C3A65B342A32972C4439717E803CD7E66773D486FDD9FCBAEC8","REGNO": "510100400024413","REGSTATE_CN": "存续(在营、开业、在册)","S_EXT_NODENUM": "510000","UNISCID": "915101006771521538"}实测,有时会封IP,24小时解禁,一旦封禁,爬虫和官方App一概屏蔽。
威武+1。
【转载】
作者: 不二晨 时间: 2018-10-31 14:30
作者: 梦缠绕的时候 时间: 2018-11-1 14:36
作者: 魔都黑马少年梦 时间: 2018-11-1 16:15
欢迎光临 黑马程序员技术交流社区 (http://bbs.itheima.com/) |
黑马程序员IT技术论坛 X3.2 |