GeekAI v4.2.2 发布,支持原生 DeepSeek 推理模型 API


GeekAI 基于 AI 大语言模型 API 实现的 AI 助手全套开源解决方案,自带运营管理后台,开箱即用。支持AI写作,AI生图,AI生音乐,AI生成视频,AI智能体等功能。

GeekAI v4.2.2 更新内容

  • 功能优化:开启图形验证码功能的时候现检查是否配置了 API 服务,防止开启之后没法登录的 Bug。

  • 功能优化:支持原生的 DeepSeek 推理模型 API,聊天 API KEY 支持设置完整的 API 路径,比如 https://api.geekai.pro/v1/chat/completions

  • 功能优化:支持 GPT-4o 图片编辑功能。

  • 功能新增:对话页面支持 AI 输出语音播报(TTS)。

  • 功能优化:替换瀑布流组件,优化用户体验。

  • 功能优化:生成思维导图时候自动缓存上一次的结果。

  • 功能优化:优化 MJ 绘图页面,增加 MJ-V7 模型支持。

  • 功能优化:后台管理增加生成一键登录链接地址功能

具体升级教程,请参考 GeekAI v4.2.1 升级教程。

演示地址

  • GeekAI 演示站

  • GeekAI 演示站(带管理后台)

项目文档

  • GeekAI项目文档


相關推薦

2025-03-26

上新!DeepSeek-V3重磅升级 昨夜,DeepSeek-V3迎来一波更新,升级至「DeepSeek-V3-0324」版本。 不仅将模型参数量由原版的671B提升至685B,编程、数学等推理思考能力大幅提升,性能表现可以与Claude 3.5/3.7 Sonnet相媲美。同时,模型的开

2025-04-11

关注的是,英伟达新模型的性能逼近拥有 6710 亿参数的 DeepSeek R1,但只用了不到一半的参数量。 测试结果显示,GPQA(76 vs. 71.5)、IFEval 指令遵循(89.5 vs. 88.8)和 LiveCodeBench 编码任务(66.3 vs. 65.9)。并且,Llama-3.1-Nemotron-Ultra-25

2025-03-27

DeepSeek-V3 模型近日进行了更新,虽然大家都说更新后的 DeepSeek-V3-0324 强到没边——哪怕叫 DeepSeek V3.5 也不为过,但官方仍低调地称其是“小版本升级”。 下面是官方针对 DeepSeek-V3-0324 发布的更新说明。 DeepSeek V3 模型已完成

2024-09-24

GeekAI 基于 AI 大语言模型 API 实现的 AI 助手全套开源解决方案,自带运营管理后台,开箱即用。支持AI写作,AI生图,AI生音乐,AI生成视频,AI智能体等功能。 GeekAI v4.1.4 更新内容 功能优化:用户文件列表组件增加分页功

2025-03-25

Xinference v1.4.0 发布 🚀! ✨ Gemma-3 模型重磅来袭,DeepSeek-v3 现已支持 Function Calling! 🎉 社区贡献者突破 100+!感谢大家的支持,期待更多伙伴加入贡献代码 💪💖。 🌍 社区版 📌 更新指南 * Pip:pip install 'xinference==1.4.0

2024-07-05

GeekAI 基于 AI 大语言模型 API 实现的 AI 助手全套开源解决方案,自带运营管理后台,开箱即用。集成了 OpenAI, Azure, ChatGLM,讯飞星火,文心一言等多个平台的大语言模型。集成了 MidJourney 和 Stable Diffusion AI绘画功能。 主要特性

2025-04-08

的问题。 AI推理时代即将到来? 今年年初,中国AI公司DeepSeek模型的横空出世在AI领域掀起巨浪,R1模型因其高效推理能力和低成本训练受到全球关注,也对英伟达等芯片企业形成了前所未有的冲击。 英伟达公司年度开发者大

2025-04-15

DeepSeek 在其 GitHub 仓库发布预告称,即将开源推理引擎 DeepSeek Inference Engine。 考虑到代码分支和维护资源等问题,他们选择了直接和 vLLM 等现有开源项目合作的方式进行开源。 下面是官方公告: 几周前,在开源周期间,

2025-04-22

同类模型小一个数量级的情况下,整体效果对标OpenAI o1和DeepSeek R1,再次证明了基于国产算力训练的全栈自主可控大模型具备登顶业界最高水平的实力和持续创新的潜力。 ✨融入了更多场景复杂类型数据,模型的泛化性也取得

2025-03-27

北京时间 3 月 24 日晚,DeepSeek 「突然」发布了模型更新。 但暂时还不是 DeepSeek V4 或 R2,而是 DeepSeek V3 模型的一次更新。 目前,其开源版本目前已经上架开源网站。其开源版本模型体积为 6850 亿参数。 https://huggingface.co/dee

2025-04-09

B     💰 Fin-R1(金融领域)      🧐 Deepseek-VL2 ✨ 新功能     新增 n_worker 校验机制,若超出可用 worker 数量,则拦截避免错误 🚧     Fin-R1 模型支持 GPTQ(int4, int8)和 FP8   SGLang 引

2025-04-30

6)、AIME'24(85.7)、LiveCodeBench v5(70.7)等测试中,优于DeepSeek-R1、o1、Grok-3等模型,仅在AIME'25(81.5)略低于Gemini-2.5-Pro(86.7)。 Qwen3-30B-A3B:在ArenaHard(91.0)、AIME'24(80.4)等测试中,超越QwQ-32B(激活参数为其10倍)。 Qwen3

2025-04-25

避免步其后尘。 目前,OpenAI面临来自包括中国AI实验室DeepSeek在内的开源策略竞争者的挑战。这些"开源"竞争者将模型提供给AI社区用于实验,在某些情况下还允许商业化使用,与OpenAI此前更为封闭的做法形成鲜明对照。 这种开

2024-07-18

的表现优于竞争对手开源模型 CodeLlama 7B、CodeGemma-1.17B 和 DeepSeek。 开发人员可以从 GitHub 仓库或通过 HuggingFace 修改和部署 Codestral Mamba。它将采用开源 Apache 2.0 License。 Mistral 声称,Codestral 早期版本的性能优于 CodeLlama 70B 和 Deep