4,203 撤回 更新于8周前

README

gte-Qwen2-7B-instruct是gte(通用文本嵌入)模型系列中最新模型,在大规模文本嵌入基准MTEB(截至2024年6月16日)的英语和中文评估中均排名第一。

最近,Qwen 团队发布了 Qwen2 系列模型,我们基于 Qwen2-7B LLM 模型训练了 gte-Qwen2-7B-instruct 模型。与 gte-Qwen1.5-7B-instruct 模型相比,gte-Qwen2-7B-instruct 模型在微调阶段使用了相同的训练数据和训练策略,唯一的区别是将基础模型升级为 Qwen2-7B。考虑到 Qwen2 系列模型相较于 Qwen1.5 系列的改进,我们也可以期待嵌入模型性能的持续提升。

模型集成了几个关键的新进展

Integration of bidirectional attention mechanisms, enriching its contextual understanding.
Instruction tuning, applied solely on the query side for streamlined efficiency
Comprehensive training across a vast, multilingual text corpus spanning diverse domains and scenarios. This training leverages both weakly supervised and supervised data, ensuring the model's applicability across numerous languages and a wide array of downstream tasks.

模型信息

Model Size: 7B
Embedding Dimension: 3584
Max Input Tokens: 32k

https://hugging-face.cn/Alibaba-NLP/gte-Qwen2-7B-instruct