前言
我们百度搜索一些东西得时候,经常找到文档里面
然后就会发现需要充值才能复制!怎么可以不花钱也保存呢?
今天就分享给大家一个python获取文档数据得方法
环境使用
python 3.8
pycharm
模块使用
requests >>> 数据请求模块 pip install requests
docx >>> 文档保存 pip install python-docx
re 内置模块 不需要安装
ctrl + R : 首先你得看得数据, 才能想办法获取
安装python第三方模块
win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车
在pycharm中点击Terminal(终端) 输入安装命令
基本思路流程
一. 分析数据来源
找文档数据内容, 是在那个url里面生成的
通过开发者工具进行抓包分析
1.打开开发者工具: F12 / 鼠标右键点击检查选择network
2.刷新网页: 让本网页数据内容重新加载一遍
如果你是非VIP账号, 看数据, 图片形式 —> 把数据<图片> 获取下来 —> 做文字识别
3.分析文库数据内容, 图片所在地址
获取所有图片内容: 文库数据 --> 图片形式 —> 所有图片内容保存下载
文字识别, 把图片文字识别出来, 保存word文档里面
二. 代码实现步骤
1.发送请求, 模拟浏览器对于url地址发送请求
图片数据包
2.获取数据, 获取服务器返回响应数据
开发者工具: response
3.解析数据, 提取图片链接地址
4.保存数据, 把图片内容保存到本地文件夹
5.做文字识别, 识别文字内容
6.把文字数据信息, 保存word文档里面
代码展示
# 导入数据请求模块
import requests
# 导入格式化输出模块
from pprint import pprint
# 导入base64
import base64
# 导入os模块
import os
# 导入文档模块
from docx import Document
# 导入正则
import re
# 导入json
import json
文字识别:
- 注册一个百度云API账号
- 创建应用 并且去免费领取资源
- 在技术文档里面 Access Token获取
- 调用API接口去做文字识别
def get_content(file):
# client_id 为官网获取的AK, client_secret 为官网获取的SK
host = 'https://aip.****.com/oauth/2.0/token?grant_type=client_credentials&client_id=Gu7BGsfoKFZjLGvOKP7WezYv&client_secret=rGa2v2FcVnxBDFlerSW5H0D2eO7nRxdp'
response = requests.get(host)
access_token = response.json()['access_token']
'''
通用文字识别(高精度版)
'''
request_url = "https://aip.****.com/rest/2.0/ocr/v1/accurate_basic"
# 二进制方式打开图片文件
f = open(file, 'rb')
img = base64.b64encode(f.read())
params = {"image":img}
request_url = request_url + "?access_token=" + access_token
headers = {'content-type': 'application/x-www-form-urlencoded'}
json_data = requests.post(request_url, data=params, headers=headers).json()
# 列表推导式
words = '\n'.join([i['words'] for i in json_data['words_result']])
return words
# # 读取文件夹里面所有图片内容
# content_list = []
# files = os.listdir('img\\')
# for file in files:
# filename = 'img\\' + file
# words = get_content(file=filename)
# print(words)
# content_list.append(words)
#
# # 保存word文档里面
# doc = Document()
# # 添加第一段文档内容
# content = '\n'.join(content_list)
# doc.add_paragraph(content)
# doc.save('data.docx')
link = 'https://wenku.****.com/aggs/74d1a923482fb4daa58d4b8e?index=0&_wkts_=1670327737660&bdQuery=%E7%AD%94%E9%A2%98'
# 请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
html_data = requests.get(url=link, headers=headers).text
json_data = json.loads(re.findall('var pageData = (.*?);', html_data)[0])
pprint(json_data)
for j in json_data['aggInfo']['docList']:
name = j['title'] # 名字
score = j['score'] # 评分
viewCount = j['viewCount'] # 阅读量
downloadCount = j['downloadCount'] # 下载量
docId = j['docId'] # 数据包ID
1.发送请求, 模拟浏览器对于url地址发送请求
长链接, 可以分段写
问号前面: url链接
问号后面: 请求参数/查询参数
# 确定请求链接
url = 'https://wenku.****.com/gsearch/rec/pcviewdocrec'
# 请求参数
data = {
'docId': docId,
'query': name,
'recPositions': ''
}
# 请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
#发送请求
response = requests.get(url=url, params=data, headers=headers)
# <Response [200]> 响应对象, 200 表示请求成功
print(response)
2.获取数据, 获取服务器返回响应数据
开发者工具: response
- response.json() 获取响应json字典数据, 但是返回数据必须是完整json数据格式 花括号 {}
- response.text 获取响应文本数据, 返回字符串 任何时候都可以, 但是基本获取网页源代码的时候
- response.content 获取响应二进制数据, 返回字节 保存图片/音频/视频/特定格式文件
- print(response.json()) 打印字典数据, 呈现一行
- pprint(response.json()) 打印字典数据, 呈现多行, 展开效果
3.解析数据, 提取图片链接地址
字典取值: 键值对 根据冒号左边内容[键], 提取冒号右边的内容[值]
# 定义文件名 整型
num = 1
# for循环遍历, 把列表里面元素一个一个提取出来
for index in response.json()['data']['relateDoc']:
# index 字典呀
pic = index['pic']
print(pic)
# # 4. 保存数据 发送请求 + 获取数据 二进制数据内容
# img_content = requests.get(url=pic, headers=headers).content
# # 'img\\'<文件夹名字> + str(num)<文件名> + '.jpg'<文件后缀> mode='wb' 保存方式, 二进制保存
# # str(num) 强制转换成 字符串
# # '图片\\' 相对路径, 相对于你代码的路径 你代码在那个地方, 那个代码所在地方图片文件夹
# with open('图片\\' + str(num) + '.jpg', mode='wb') as f:
# # 写入数据 保存数据 把图片二进制数据保存
# f.write(img_content)
# # 每次循环 + 1
# print(num)
# num += 1
以上就是Python实现复制文档数据的详细内容,更多关于Python复制文档数据的资料请关注编程网其它相关文章!