现介绍三种能够有效提高检索能力的技术,即查询扩展(Query expansion),跨编码器重排序(Cross-encoder re-ranking),嵌入适配器(Embedding adaptors),可以支持检索到更多与用户查询密切匹配的相关文档,从而提高生成答案的影响力。
1.查询扩展
查询扩展是指对原始查询进行改写的一系列技术。有两种常见的方法:
1) 使用生成的答案进行查询扩展
给定输入查询后,这种方法首先会指示 LLM 提供一个假设答案,无论其正确性如何。然后,将查询和生成的答案合并在一个提示中,并发送给检索系统。
图片
这个方法的效果很好。基本目的是希望检索到更像答案的文档。假设答案的正确性并不重要,因为感兴趣的是它的结构和表述。可以将假设答案视为一个模板,它有助于识别嵌入空间中的相关邻域。具体可参考论文《Precise Zero-Shot Dense Retrieval without Relevance Labels【1】》
下面是用来增强发送给 RAG 的查询的提示示例,该 RAG 负责回答有关财务报告的问题。
You are a helpful expert financial research assistant.
Provide an example answer to the given question, that might
be found in a document like an annual report.
2)用多个相关问题扩展查询
利用 LLM 生成 N 个与原始查询相关的问题,然后将所有问题(加上原始查询)发送给检索系统。通过这种方法,可以从向量库中检索到更多文档。不过,其中有些会是重复的,因此需要进行后处理来删除它们。
图片
这种方法背后的理念是,可以扩展可能不完整或模糊的初始查询,并纳入最终可能相关和互补的相关方面。
下面是用来生成相关问题的提示:
You are a helpful expert financial research assistant.
Your users are asking questions about an annual report.
Suggest up to five additional related questions to help them
find the information they need, for the provided question.
Suggest only short questions without compound sentences.
Suggest a variety of questions that cover different aspects of the topic.
Make sure they are complete questions, and that they are related to
the original question.
Output one question per line. Do not number the questions.
具体可参考论文《Query Expansion by Prompting Large Language Models【2】》。
上述方法有一个缺点就是会得到很多的文档,这些文档可能会分散 LLM 的注意力,使其无法生成有用的答案。这时候需要对文档进行重排序,去除相关性不高的文档。
2.交叉编码器重排序
这种方法会根据输入查询与检索到的文档的相关性的分数对文档进行重排序。为了计算这个分数,将会使用到交叉编码器。
交叉编码器是一种深度神经网络,它将两个输入序列作为一个输入进行处理。这样,模型就能直接比较和对比输入,以更综合、更细致的方式理解它们之间的关系。
图片
交叉编码器可用于信息检索:给定一个查询,用所有检索到的文档对其进行编码。然后,将它们按递减顺序排列。得分高的文档就是最相关的文档。
详情请参见 SBERT.net Retrieve & Re-rank【3】。
图片
下面介绍如何使用交叉编码器快速开始重新排序:
pip install -U sentence-transformers
#导入交叉编码器并加载
from sentence_transformers import CrossEncoder
cross_encoder = CrossEncoder("cross-encoder/ms-marco-MiniLM-L-6-v2")
#对每一对(查询、文档)进行评分
pairs = [[query, doc] for doc in retrieved_documents]
scores = cross_encoder.predict(pairs)
print("Scores:") for score in scores:
print(score)
# Scores:
# 0.98693466
# 2.644579
# -0.26802942
# -10.73159
# -7.7066045
# -5.6469955
# -4.297035
# -10.933233
# -7.0384283
# -7.3246956
#重新排列文件顺序:
print("New Ordering:")
for o in np.argsort(scores)[::-1]:
print(o+1)
交叉编码器重新排序可与查询扩展一起使用:在生成多个相关问题并检索相应的文档(比如最终有 M 个文档)后,对它们重新排序并选出前 K 个(K < M)。这样,就可以减少上下文的大小,同时选出最重要的部分。
3.嵌入适配器
这是一种功能强大但使用简单的技术,可以扩展嵌入式内容,使其更好地与用户的任务保持一致,利用用户对检索文档相关性的反馈来训练适配器。
适配器是全面微调预训练模型的一种轻量级替代方法。目前,适配器是以小型前馈神经网络的形式实现的,插入到预训练模型的层之间。训练适配器的根本目的是改变嵌入查询,从而为特定任务产生更好的检索结果。嵌入适配器是在嵌入阶段之后、检索之前插入的一个阶段。可以把它想象成一个矩阵(带有经过训练的权重),它采用原始嵌入并对其进行缩放。
图片
以下是训练步骤:
1)准备训练数据
要训练嵌入适配器,需要一些关于文档相关性的训练数据。这些数据可以是人工标注的,也可以由 LLM 生成。这些数据必须包括(查询、文档)的元组及其相应的标签(如果文档与查询相关,则为 1,否则为-1)。为简单起见,将创建一个合成数据集,但在现实世界中,需要设计一种收集用户反馈的方法(比如,让用户对界面上的文档相关性进行评分)。
为了创建一些训练数据,首先可利用LLM生成财务分析师在分析财务报告时可能会提出的问题样本。
import os
import openai
from openai import OpenAI
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())
openai.api_key = os.environ['OPENAI_API_KEY']
PROMPT_DATASET = """
You are a helpful expert financial research assistant.
You help users analyze financial statements to better understand companies.
Suggest 10 to 15 short questions that are important to ask when analyzing
an annual report.
Do not output any compound questions (questions with multiple sentences
or conjunctions).
Output each question on a separate line divided by a newline.
"""
def generate_queries(model="gpt-3.5-turbo"):
messages = [
{
"role": "system",
"content": PROMPT_DATASET,
},
]
response = openai_client.chat.completions.create(
model=model,
messages=messages,
)
content = response.choices[0].message.content
content = content.split("\n")
return content
generated_queries = generate_queries()
for query in generated_queries:
print(query)
# 1. What is the company's revenue growth rate over the past three years?
# 2. What are the company's total assets and total liabilities?
# 3. How much debt does the company have? Is it increasing or decreasing?
# 4. What is the company's profit margin? Is it improving or declining?
# 5. What are the company's cash flow from operations, investing, and financing activities?
# 6. What are the company's major sources of revenue?
# 7. Does the company have any pending litigation or legal issues?
# 8. What is the company's market share compared to its competitors?
# 9. How much cash does the company have on hand?
# 10. Are there any major changes in the company's executive team or board of directors?
# 11. What is the company's dividend history and policy?
# 12. Are there any related party transactions?
# 13. What are the company's major risks and uncertainties?
# 14. What is the company's current ratio and quick ratio?
# 15. How has the company's stock price performed over the past year?
然后,为每个生成的问题检索文档。为此,将查询一个 Chroma 集合,在该集合中,以前索引过一份财务报告。
results = chroma_collection.query(query_texts=generated_queries, n_results=10, include=['documents', 'embeddings'])
retrieved_documents = results['documents']
再次使用 LLM 评估每个问题与相应文档的相关性:
PROMPT_EVALUATION = """
You are a helpful expert financial research assistant.
You help users analyze financial statements to better understand companies.
For the given query, evaluate whether the following satement is relevant.
Output only 'yes' or 'no'.
"""
def evaluate_results(query, statement, model="gpt-3.5-turbo"):
messages = [
{
"role": "system",
"content": PROMPT_EVALUATION,
},
{
"role": "user",
"content": f"Query: {query}, Statement: {statement}"
}
]
response = openai_client.chat.completions.create(
model=model,
messages=messages,
max_tokens=1
)
content = response.choices[0].message.content
if content == "yes":
return 1
return -1
然后,将训练数据结构化为问答元组。每个元组将包含查询的嵌入、文档的嵌入和评估标签(1,-1)。
retrieved_embeddings = results['embeddings']
query_embeddings = embedding_function(generated_queries)
adapter_query_embeddings = []
adapter_doc_embeddings = []
adapter_labels = []
for q, query in enumerate(tqdm(generated_queries)):
for d, document in enumerate(retrieved_documents[q]):
adapter_query_embeddings.append(query_embeddings[q])
adapter_doc_embeddings.append(retrieved_embeddings[q][d])
adapter_labels.append(evaluate_results(query, document))
最后,生成完训练元组后,将其放入torch数据集,为训练做准备。
2)定义模型
定义了一个以查询嵌入、文档嵌入和适配器矩阵为输入的函数。该函数首先将查询嵌入与适配器矩阵相乘,然后计算该结果与文档嵌入之间的余弦相似度。
def model(query_embedding, document_embedding, adaptor_matrix):
updated_query_embedding = torch.matmul(adaptor_matrix, query_embedding)
return torch.cosine_similarity(updated_query_embedding, document_embedding, dim=0)
3)定义损失(loss)
目标是最小化前一个函数计算出的余弦相似度。为此,将使用均方误差(MSE)损失来优化适配器矩阵的权重。
def mse_loss(query_embedding, document_embedding, adaptor_matrix, label):
return torch.nn.MSELoss()(model(query_embedding, document_embedding, adaptor_matrix), label)
4)训练
初始化适配器矩阵,并完成训练 100 次epochs。
# Initialize the adaptor matrix
mat_size = len(adapter_query_embeddings[0])
adapter_matrix = torch.randn(mat_size, mat_size, requires_grad=True)
min_loss = float('inf')
best_matrix = None
for epoch in tqdm(range(100)):
for query_embedding, document_embedding, label in dataset:
loss = mse_loss(query_embedding, document_embedding, adapter_matrix, label)
if loss < min_loss:
min_loss = loss
best_matrix = adapter_matrix.clone().detach().numpy()
loss.backward()
with torch.no_grad():
adapter_matrix -= 0.01 * adapter_matrix.grad
adapter_matrix.grad.zero_()
训练完成后,适配器可用于扩展原始嵌入,并适配用户任务。
test_vector = torch.ones((mat_size,1))
scaled_vector = np.matmul(best_matrix, test_vector).numpy()
test_vector.shape
# torch.Size([384, 1])
scaled_vector.shape
# (384, 1)
best_matrix.shape
# (384, 384)
在检索阶段,只需将原始嵌入输出与适配器矩阵相乘,然后输入检索系统即可。
以上三种方法操作性较强,感兴趣的读者可以将其应用到现有的RAG应用中,来评估这些手段对于自己的场景有效性。
相关链接:
【1】https://arxiv.org/pdf/2212.10496.pdf
【2】https://arxiv.org/pdf/2305.03653.pdf
【3】https://www.sbert.net/examples/applications/retrieve_rerank/README.html
原文来自:Ahmed Besbes:3 Advanced Document Retrieval Techniques To Improve RAG Systems