Mistral Small 3.1 开源发布:128K 上下文、多模态、轻量级


Mistral AI 现已开源发布全新轻量级 AI 模型 Mistral Small 3.1。Mistral Small 3.1 能够处理文本和图像,参数仅为 240 亿。该模型提高了文本能力和多模态理解能力,并具备 128K 上下文窗口。

核心特性

  • 轻量级部署:可在 单个 RTX 4090 或 32GB RAM 的 Mac 上运行,非常适合本地或设备端应用。
  • 快速对话响应:优化交互体验,适用于虚拟助手等需要即时反馈的应用场景。
  • 低延迟函数调用:在自动化和代理工作流中可快速执行函数,提高效率。
  • 专属微调(Fine-Tuning):支持特定领域的定制优化,以满足不同业务需求。
  • 强大的推理能力:为社区创新提供坚实基础,例如 Nous Research 在 Mistral Small 3 之上构建的 DeepHermes 24B。

Mistral AI 表示,Mistral Small 3.1 的数据处理速度约为每秒 150 个字节,非常适合需要快速响应的应用。该模型被设计用于处理各种生成式人工智能任务,包括指令跟踪、对话辅助、图像理解和函数调用。它为企业级和消费级人工智能应用奠定了坚实的基础。

下载地址:Mistral Small 3.1 Base & Mistral Small 3.1 Instruct


相關推薦

2025-05-17

istral 等,并提供简单易用的界面和 API。Ollama 的特点包括轻量级设计、跨平台支持(Windows、Linux、macOS)、模型微调与自定义功能,以及高效的推理性能。 由于其便捷性和开源特性,Ollama 获得了大量用户的青睐,被广泛用于本

2024-07-26

、Java、C、C++、JavaScript 和 Bash。 Mistral Large 2 拥有 128k 的上下文窗口,支持包括中文在内的数十种语言以及 80 多种编码语言。该模型在 MMLU 上的准确度达到了 84.0%,并在代码生成、推理和多语言支持方面有非常明显的改进。 M

2025-05-23

充当完整的软件工程代理。这意味着它可以理解跨文件的上下文,浏览大型代码库,并解决实际的软件开发问题。更重要的是,Devstral 基于宽松的 Apache2.0许可证发布,允许开发者和组织自由地部署、修改和商业化该模型。 Mistra

2025-06-11

根据CNBC的报道,法国AI初创公司Mistral将推出其首个推理模型Magistral,加入与OpenAI、DeepSeek等全球领先企业的竞争。 Mistral首席执行官亚瑟・门施介绍道,Magistral不仅擅长数学和编码,还能够实现欧洲语言的逻辑推理,突破了美

2024-09-27

督微调、拒绝采样和直接偏好优化模型。 最后模型支持上下文扩展到 128K 个,同时也针对性优化了模型的多种能力,例如摘要、重写、指令遵循、语言推理和工具使用。

2025-06-12

Mistral 宣布推出其首个推理模型系列 Magistral,采用 step-by-step 的方式,以提高数学和物理等主题的一致性和可靠性。 Magistral 有两种版本:Magistral Small 和 Magistral Medium。Magistral Small 拥有 240 亿个参数,在 Apache 2.0 协议下开

2025-04-30

-32B、14B、8B、4B、1.7B、0.6B,均为Apache 2.0开源协议。 2. 上下文长度:密集模型中,0.6B、1.7B、4B为32K,8B及以上为128K;MoE模型均为128K。 模力方舟上的昇腾算力已为您准备好首批0.6B、8B、30B三款模型,其中 30B 为 Mixture-of-Experts

2024-07-25

lama 3.1 系列在推理能力和多语言支持方面进行了改善,其上下文长度被提升至 128K,而模型参数也被提高到了 4050 亿规模,是近年来规模最大的大语言模型之一。该模型在通用常识、可引导性、数学、工具使用和多语言翻译等广

2025-04-18

tors 的工具 通过 Ollama 视觉模型(granite3.2-vision、gemma3、mistral-small3.1)添加 OCR 添加 Mistral AI 翻译 添加 KoboldCpp AI 翻译  添加 AvalAI 翻译 为 DeepL 添加“中文繁体” 为 TTS 添加画外音 在主文本框中添加“Insert unicode sym

2025-05-09

法国 AI 初创公司 Mistral 发布了新的 AI 模型 Mistral Medium 3,该模型注重效率,同时不影响性能。据介绍,在各项基准测试中,该模型性能达到或超过 Claude Sonnet 3.7 的 90%,而成本显著更低(每百万 token 输入 0.4 美元/输出 2 美元)

2024-11-01

gCite-glm4-9b 和 LongCite-llama3.1-8b 这两个模型,支持最大 128K 上下文。 但它更擅长生成准确的回答和精确的句子级别的内容引用,如果说其他的知识库可能会经常出现幻觉甚至胡说八道的情况,那么 LongCite 相比精确度要高很多。

2024-07-18

Transformer 的模型不同,基于 Mamba 的模型推理时间更快,上下文时间更长。 包括 AI21 在内的其他公司和开发者已经发布了基于 Mamba 的新人工智能模型。 现在,Mistral 的 Codestral Mamba 7B 采用了这种新架构,即使输入文本较

2025-04-11

(检索增强生成)和工具调用等任务。该模型支持 128K 的上下文长度,并且可以在单个 8xH100 节点上进行推理。 据介绍,Llama-3.1-Nemotron-Ultra-253B 的设计目标是支持高级推理、指令遵循以及 AI 助手工作流程。技术特点如下:

2023-09-30

法国人工智能初创公司 Mistral AI 宣布推出其首款大语言模型 Mistral 7B 是一个,号称是迄今为止同规模产品中最强大的语言模型;在 Apache-2.0 许可下开源,可完全免费使用,不受任何限制。 Mistral AI 是一个成立仅六个月的初创