5 个月前更新
5 个月前
eec48ef9afdc · 16GB
模型
架构llama
·
参数22.2B
·
量化Q5_K_M
16GB
参数
{ "stop": [ "[INST]", "[/INST]", "</s>" ] }
47B
模板
{{- if .Messages }} {{- range $index, $_ := .Messages }} {{- if eq .Role "user" }} {{- if and (le (l
900B
许可证
# Mistral AI Research License If You want to use a Mistral Model, a Derivative or an Output for any
11kB
自述文件
Mistral Small 3 在低于 70B 的“小型”大型语言模型类别中树立了新的基准,拥有 24B 参数,并实现了可与更大型模型相媲美的最先进的功能。
Mistral Small 可以在本地部署,并且异常“知识密集”,量化后可以放入单个 RTX 4090 或 32GB RAM MacBook 中。非常适合
- 快速响应的对话代理。
- 低延迟函数调用。
- 通过微调获得主题专家。
- 供处理敏感数据的业余爱好者和组织进行本地推理。
主要特点
- 多语言: 支持数十种语言,包括英语、法语、德语、西班牙语、意大利语、中文、日语、韩语、葡萄牙语、荷兰语和波兰语。
- 以代理为中心: 提供一流的代理功能,具有本机函数调用和 JSON 输出。
- 高级推理: 最先进的会话和推理能力。
- Apache 2.0 许可证: 开放许可证,允许用于商业和非商业目的的使用和修改。
- 上下文窗口: 32k 上下文窗口。
- 系统提示: 保持对系统提示的强烈遵守和支持。
- 分词器: 使用具有 131k 词汇量的 Tekken 分词器。
人工评估
我们与外部第三方供应商一起进行了一对一评估,评估内容包含 1000 多个专有编码和通用提示。评估人员的任务是从 Mistral Small 3 与另一个模型生成的匿名内容中选择他们喜欢的模型响应。 我们知道,在某些情况下,对人类判断的基准与公开的基准差异很大,但我们已格外谨慎地验证了公平评估。 我们相信上述基准是有效的。
指令性能
我们的指令调整模型在代码、数学、一般知识和指令遵循基准测试中,其性能与三倍于其大小的开放权重模型以及专有的 GPT4o-mini 模型相比具有竞争力。
所有基准的性能准确性均通过相同的内部评估流程获得 - 因此,数字可能与之前报告的性能略有不同(Qwen2.5-32B-Instruct、Llama-3.3-70B-Instruct、Gemma-2-27B-IT)。基于判断的评估(例如 Wildbench、Arena hard 和 MTBench)基于 gpt-4o-2024-05-13。
客户正在多个行业评估 Mistral Small 3,包括
- 金融服务客户用于欺诈检测
- 医疗保健提供商用于客户分诊
- 机器人、汽车和制造公司用于设备上的命令和控制
- 跨客户的横向用例包括虚拟客户服务以及情绪和反馈分析。