目录

一、项目简介

二、性能优势

三、使用方式

重现C-MTEB结果示例代码

使用方法

四、现有应用


开源模型

在数字化转型的浪潮中,文本数据的处理和分析成为了各行各业关注的焦点。如何将人类阅读的文本转换为机器可理解的形式,并且能够准确地召回和提取这些转换结果,成为了提升我们工作效率和体验的关键。

无论是从社交媒体中提取情感倾向,还是对大量文档进行内容相似性分析,或是在复杂的对话系统中实现精准的语义理解,文本向量化(Embedding)技术都扮演着至关重要的角色——纯文本无法通过数学方式计算,而转换为向量后,即可进行最基础的数学运算。

流程
流程

今天,我们和大家分享一款令人兴奋的开源模型——acge_text_embedding。今年三月,acge模型在Massive Text Embedding Benchmark (MTEB) 中文榜单(C-MTEB)登顶第一,目前模型已在Hugging Face和Github平台开源。

平台开源

一、项目简介

acge_text_embedding模型由TextIn团队开发,是一个通用的文本编码模型——可变长度的向量化模型。Embedding是一种用于机器学习和自然语言处理领域的表示技术,它将高维的离散数据(如单词、句子或者图像的特征等)转换为低维的连续向量,这些向量能够捕捉到数据的语义特征和关系,将单词、短语或整个文档的语义和上下文信息封装在一个密集的、低维的向量空间中。

acge模型使用了Matryoshka Representation Learning,建议使用的维度为1024或者1792。

在Hugging Face平台上,acge模型单月下载量为30,423。

图1
图2
图3
图4

二、性能优势

优秀的召回效果:采用对比学习技术,通过最小化正对之间的距离和最大化负对之间的距离来呈现文本语义表示,提升整体召回效果。

强大的模型泛化能力:基于多场景、高质量、数量庞大的数据集,打造强大泛化能力,加快模型收敛。

改善模型“偏科”与遗忘问题:技术开发过程中,采用多任务混合训练,多loss适配场景,适应各种下游任务,避免模型“偏科”;引入持续学习训练方式,改善引入新数据后模型灾难性遗忘问题。

更快的处理速度:运用MRL技术,训练可变维度的嵌入,提高处理速度,降低了存储需求。

三、使用方式

重现C-MTEB结果示例代码

1 import torch
2 import argparse
3 import functools
4 from C_MTEB.tasks import *
5 from typing import List, Dict
6 from sentence_transformers import SentenceTransformer
7 from mteb import MTEB, DRESModel
8
9
10 class RetrievalModel(DRESModel):
11    def __init__(self, encoder, **kwargs):
12        self.encoder = encoder1
13
14    def encode_queries(self, queries: List[str], **kwargs) -> np.ndarray:
15        input_texts = ['{}'.format(q) for q in queries]
16        return self._do_encode(input_texts)
17
18   def encode_corpus(self, corpus: List[Dict[str, str]], **kwargs) -> np.ndarray:
19        input_texts = ['{} {}'.format(doc.get('title', ''), doc['text']).strip() for 
  doc in corpus]
20        input_texts = ['{}'.format(t) for t in input_texts]
21        return self._do_encode(input_texts)
22
23    @torch.no_grad()
24    def _do_encode(self, input_texts: List[str]) -> np.ndarray:
25        return self.encoder.encode(
26            sentences=input_texts,
27            batch_size=512,
28            normalize_embeddings=True,
39            convert_to_numpy=True
30        )
31
32
33 def get_args():
34    parser = argparse.ArgumentParser()
35    parser.add_argument('--model_name_or_path', default="acge_text_embedding", type=str)
36    parser.add_argument('--task_type', default=None, type=str)
37    parser.add_argument('--pooling_method', default='cls', type=str)
38    parser.add_argument('--output_dir', default='zh_results',
39                        type=str, help='output directory')
40    parser.add_argument('--max_len', default=1024, type=int, help='max length')
41    return parser.parse_args()
42
43

44 if __name__ == '__main__':
45    args = get_args()
46    encoder = SentenceTransformer(args.model_name_or_path).half()
47    encoder.encode = functools.partial(encoder.encode, normalize_embeddings=True)
48    encoder.max_seq_length = int(args.max_len)
49
50    task_names = [t.description["name"] for t in MTEB(task_types=args.task_type,
51                                                      task_langs=['zh', 'zh-CN']).tasks]
52   TASKS_WITH_PROMPTS = ["T2Retrieval", "MMarcoRetrieval", "DuRetrieval",  "CovidRetrieval", "CmedqaRetrieval",
53                          "EcomRetrieval", "MedicalRetrieval", "VideoRetrieval"]
54    for task in task_names:
55        evaluation = MTEB(tasks=[task], task_langs=['zh', 'zh-CN'])
56        if task in TASKS_WITH_PROMPTS:
57            evaluation.run(RetrievalModel(encoder), output_folder=args.output_dir, overwrite_results=False)
58        else:
59            evaluation.run(encoder, output_folder=args.output_dir, overwrite_results=False)

使用方法

sentence-transformer库中的使用方法,并算出两个文本的相似度:

 
1 from sentence_transformers import SentenceTransformer
2
3 sentences = ["合合信息是一家伟大的公司", "介绍一下合合信息公司"]
4 model = SentenceTransformer('acge_text_embedding')
5 print(model.max_seq_length)
6 embeddings_1 = model.encode(sentences, normalize_embeddings=True)
7 embeddings_2 = model.encode(sentences, normalize_embeddings=True)
8 similarity = embeddings_1 @ embeddings_2.T
9 print(similarity)

在sentence-transformer库中的使用方法,选取不同维度的向量:

 
1 from sklearn.preprocessing import normalize
2 from sentence_transformers import SentenceTransformer
3
4 sentences = ["数据1", "数据2"]
5 model = SentenceTransformer('acge_text_embedding')
6 embeddings = model.encode(sentences, normalize_embeddings=False)
7 matryoshka_dim = 1024
8 embeddings = embeddings[..., :matryoshka_dim]  # Shrink the embedding dimensions
9 embeddings = normalize(embeddings, norm="l2", axis=1)
10 print(embeddings.shape)
11 # => (2, 1024)

四、现有应用

当前,acge模型已在多个应用场景下展现其优势:

  • (a) 文档分类:通过ocr技术精确识别图片、文档等场景中的文字,利用acge强大的文本编码能力,结合语义相似度匹配技术,构建通用分类模型;

  • (b) 长文档信息抽取:通过文档解析引擎与层级切片技术,利用acge生成向量索引,检索抽取内容块,提升长文档信息抽取模型精度;

  • (c) 知识问答:通过文档解析引擎与层级切片技术,利用acge生成向量索引,定位文件内容,实现精准问答。

更多模型细节,可以到项目地址查看:

链接https://huggingface.co/aspire/acge_text_embedding

模型API调用https://www.textin.com/market/detail/acge_text_embedding

欢迎随时与研发团队探讨技术细节。

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐