1.8B

680 Pulls 更新于7周前

README

gte-Qwen2-1.5B-instruct

gte-Qwen2-1.5B-instruct 是 gte(通用文本嵌入)模型系列中的最新模型。该模型基于 Qwen2-1.5B LLM 模型,并使用了与 gte-Qwen2-7B-instruct 模型相同的训练数据和策略。

该模型集成了几个关键进展

  • 双向注意力机制的集成,丰富了其上下文理解能力。
  • 指令微调,仅应用于查询端以简化效率。
  • 跨越广泛的多语言文本语料库的全面训练,涉及多个领域和场景。这种训练同时利用弱监督数据和监督数据,确保模型在各种语言以及广泛的下游任务中的适用性。

模型信息

  • 模型大小:1.5B
  • 嵌入维度:1536
  • 最大输入标记数:32k

评估

MTEB & C-MTEB

您可以使用scripts/eval_mteb.py在MTEB(英文)/C-MTEB(中文)上重新生成以下结果:gte-Qwen2-1.5B-instruct

模型名称 MTEB(56) C-MTEB(35) MTEB-fr(26) MTEB-pl(26)
bge-base-en-1.5 64.23 - - -
bge-large-en-1.5 63.55 - - -
gte-large-en-v1.5 65.39 - - -
gte-base-en-v1.5 64.11 - - -
mxbai-embed-large-v1 64.68 - - -
acge_text_embedding - 69.07 - -
stella-mrl-large-zh-v3.5-1792d - 68.55 - -
gte-large-zh - 66.72 - -
multilingual-e5-base 59.45 56.21 - -
multilingual-e5-large 61.50 58.81 - -
e5-mistral-7b-instruct 66.63 60.81 - -
gte-Qwen1.5-7B-instruct 67.34 69.52 - -
NV-Embed-v1 69.32 - - -
gte-Qwen2-7B-instruct 70.24 72.05 68.25 67.86
gte-Qwen2-1.5B-instruct 67.16 67.65 66.60 64.04

GTE模型

gte系列模型持续发布了两种类型的模型:仅编码模型(基于BERT架构)和仅解码模型(基于LLM架构)。

模型 语言 最大序列长度 维度 模型大小(内存使用,fp32)
GTE-large-zh 中文 512 1024 1.25GB
GTE-base-zh 中文 512 512 0.41GB
GTE-small-zh 中文 512 512 0.12GB
GTE-large 英文 512 1024 1.25GB
GTE-base 英文 512 512 0.21GB
GTE-small 英文 512 384 0.10GB
GTE-large-en-v1.5 英文 8192 1024 1.74GB
GTE-base-en-v1.5 英文 8192 768 0.51GB
GTE-Qwen1.5-7B-instruct 多语言 32000 4096 26.45GB
GTE-Qwen2-7B-instruct 多语言 32000 3584 26.45GB
GTE-Qwen2-1.5B-instruct 多语言 32000 1536 6.62GB

引用

如果您觉得我们的论文或模型有帮助,请考虑引用

https://hugging-face.cn/Alibaba-NLP/gte-Qwen2-1.5B-instruct