正则表达式
正则表达式通常用来检索,替换,匹配符合某个规则的文本。在处理非结构化的文本数据时,需要匹配一定的规则,以获取需要的文本数据。
正则表达式的效率是非常高的,当然匹配规则也比较复杂。在Python是内置正则表达式(re模块)。
正则表达式匹配规则
正则表达式常用函数
re模块一般使用步骤:
使用compile()函数,建立一个匹配模型
compile():制定匹配规则,用于生成一个Pattern对象。如:
import re
# compile()的参数是匹配规则,返回一个模型对象pattern
pattern = re.compile(r'\d+')
1
2
3
4
5
6
7
通过模型Pattern调用匹配方法,匹配具体文本内容
pattern的匹配方法有:
match():从起始位置开始查找,一次匹配
import re
if __name__ == '__main__':
# 匹配数字
pattern = re.compile(r'\d+')
content = pattern.match('12abc3456dfg789')
print(content) # <_sre.SRE_Match object; span=(0, 2), match='12'> 返回一个对象,匹配到了一个数据,是12(match='12'),范围是0-2
content2 = pattern.match('abc123def456')
print(content2) # None:表示没有匹配到数据
1
2
3
4
5
6
7
8
9
10
11
search():从任意位置开始查找,一次匹配
import re
if __name__ == '__main__':
# 匹配数字
pattern = re.compile(r'\d+')
content = pattern.search('abc123def456')
print(content) # <_sre.SRE_Match object; span=(3, 6), match='123'> 匹配到了'123',角标范围3-6
# 获取匹配的文本,正则匹配结果通过group获取匹配的结果
print(content.group()) # 123
1
2
3
4
5
6
7
8
9
10
findall():全部查找匹配,返回全部匹配的数据列表
import re
if __name__ == '__main__':
# 匹配数字
pattern = re.compile(r'\d+')
content = pattern.findall('abc123def456')
print(content) # 输出 ['123', '456']
for item in content:
print(item) #输出 123 和 456
1
2
3
4
5
6
7
8
9
10
11
finditer():全部匹配,返回迭代器对象(不常用)。
import re
if __name__ == '__main__':
# 匹配数字
pattern = re.compile(r'\d+')
content = pattern.finditer('abc123def456')
print(content) #输出 <callable_iterator object at 0x0000018B3E7AF9E8> 返回一个迭代器对象
for item in content:
print(item) # 输出 <_sre.SRE_Match object; span=(3, 6), match='123'> 和 <_sre.SRE_Match object; span=(9, 12), match='456'>
print_content_result(item) # 输出 123 和分隔符 , 456 和分隔符
1
2
3
4
5
6
7
8
9
10
split():分割字符串,返回列表
import re
if __name__ == '__main__':
# 匹配数字
pattern = re.compile(r'\d+')
content = pattern.split('abc123def456')
print(content) # 输出 ['abc', 'def', '']
1
2
3
4
5
6
7
8
sub():检索和替换
sub函数用法:
re.sub(pattern, repl, string, count=0)
pattern参数:正则中模式字符串
repl参数:替换的字符串,也可以是一个函数
string参数:要被查找替换的原始字符串
count参数:模式匹配后替换的最大次数,默认0表示替换所有的匹配
eg1:
if __name__ == '__main__':
# 匹配数字
pattern = re.compile(r'\d+')
num = re.sub(pattern, '-', 'abc123def456') # 匹配所有
print(num) # 输出 abc-def-
eg1:
if __name__ == '__main__':
# 匹配数字
pattern = re.compile(r'\d+')
num = re.sub(pattern, '-', 'abc123def456', count=1) # 匹配一个
print(num) # abc-def456
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
匹配内容结果返回及处理
re模块通过group()来获取匹配的结果的文本信息。如下:
“`
import re
def print_content_result(content):
if content != None:
print(content.group())
print(‘-’ * 30)
if name == ‘main‘:
# 匹配数字
pattern = re.compile(r’\d+’)
content = pattern.match(‘12abc3456dfg789’)
print(content) # <_sre.SRE_Match object; span=(0, 2), match=’12’> 返回一个对象,匹配到了一个数据,是12(match=’12’),范围是0-2
print_content_result(content) #输出 123 和分割线
content2 = pattern.match('abc123def456')
print(content2) # None:表示没有匹配到数据
print_content_result(content2) #输出 分割线
1
2
3
“`
正则表达式的爬虫案例
import re
from urllib import request
"""
正则表达式:爬虫小案例
"""
class ReSpider(object):
def __init__(self):
"""
"""
def loadPage(self, url, headers):
"""
load 需要爬取的页面
:param url: 页面的url
:return: 返回抓取的网页
"""
req = request.Request(url, headers=headers)
resp = request.urlopen(req)
return resp.read()
def parsePage(self, content, pattern):
"""
解析抓取的网页,进行一定的规则匹配
:param content: 网页内容
:param pattern: 解析模型
:return: 返回解析后的数据
"""
list = pattern.findall(content)
print(list)
return list
def writeFile(self, lists, filename):
"""
将解析后的数据,写入到文件中
:param content: 解析后的数据
:return: 不返回数据
"""
for item in lists:
with open(filename, 'a', encoding='utf-8')as f:
item = item.replace('<p>', '').replace('</p>', '').replace('<br>', '').replace('<br />', '')
f.write(item)
if __name__ == '__main__':
"""
程序开始执行代码:
"""
url = 'http://www.neihan8.com/article/list_5_1.html'
headers = {
'User-Agent': 'Mozilla/5.0(Windows NT 10.0; WOW64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.3427.400 QQBrowser/9.6.12513.400'
}
spider = ReSpider()
# 加载页面
html = spider.loadPage(url, headers)
gbk_html = html.decode('gbk')
# 解析规则
pattern = re.compile(r'<div.*?class="f18 mb20">(.*?)</div>', re.S)
# 解析页面
list = spider.parsePage(gbk_html, pattern)
# 写入文件
spider.writeFile(list, 'content.txt')
---------------------
【转载,仅作分享,侵删】
作者:张行之
来源:CSDN
原文:https://blog.csdn.net/qq_33689414/article/details/78553488
版权声明:本文为博主原创文章,转载请附上博文链接!
|
|