开源模型
精选高质量本地大语言模型,支持完全离线运行 · 运行时与模型独立下载
GLM-4 9B Chat
智谱AI出品的通用对话模型,中文理解能力卓越,支持 128K 超长上下文。量化版仅需消费级 GPU 即可流畅运行。
核心能力
- 流畅的中英双语多轮对话与理解
- 128K 超长上下文窗口支持
- 代码生成、调试与解释
- 逻辑推理与知识问答
- 文本摘要、改写与风格迁移
运行要求
内存
≥ 8 GB RAM
显存
≥ 6 GB VRAM
存储空间
约 6 GB
量化精度
Q4_K_M
Zhipu AI License · 学术/个人使用
DeepSeek Coder V2 Lite
DeepSeek 专为代码场景打造的 MoE 轻量版,在 80+ 种编程语言上表现出色,代码补全与修复能力接近闭源模型。
核心能力
- 80+ 编程语言代码生成与自动补全
- Bug 智能检测与修复建议
- 代码逻辑解释与注释生成
- 代码重构与性能优化分析
- 单元测试自动生成
运行要求
内存
≥ 16 GB RAM
显存
≥ 8 GB VRAM
存储空间
约 10 GB
量化精度
Q4_K_M
DeepSeek License · 学术/个人使用
Qwen 2.5 3B Instruct
阿里通义千问轻量指令模型,仅需 4 GB 内存即可运行,是边端部署与低配设备的理想选择,支持商业使用。
核心能力
- 中英文指令跟随与任务执行
- 基础文本生成与摘要
- 简单代码补全辅助
- 轻量问答与信息提取
- 边缘设备与低配环境部署
运行要求
内存
≥ 4 GB RAM
显存
无需独立 GPU
存储空间
约 2.2 GB
量化精度
Q4_K_M
Apache 2.0 · 允许商业使用
Qwen 2.5 7B Instruct
均衡性能与效率的通义千问指令模型,综合能力强劲,支持数学推理与结构化输出,是个人与商业场景的主力选择。
核心能力
- 强指令跟随与复杂任务分解
- 中英文混合多轮对话管理
- 数学推理与步骤分析
- 代码生成与调试辅助
- JSON 等结构化格式输出
运行要求
内存
≥ 8 GB RAM
显存
≥ 6 GB VRAM
存储空间
约 4.7 GB
量化精度
Q4_K_M
Apache 2.0 · 允许商业使用
Qwen 2.5 14B Instruct
通义千问旗舰指令模型,处理复杂长文本、专业推理与多步骤任务的综合能力全面超越同量级开源模型。
核心能力
- 复杂指令理解与精准执行
- 高质量长文本生成与续写
- 高级逻辑推理与因果分析
- 专业领域(法律/医学/金融)知识问答
- 多语言文本处理与翻译
运行要求
内存
≥ 16 GB RAM
显存
≥ 10 GB VRAM
存储空间
约 8.9 GB
量化精度
Q4_K_M
Apache 2.0 · 允许商业使用
Qwen 2.5 Coder 3B
专为代码场景深度优化的轻量 Qwen 模型,适合集成到 IDE 插件或本地开发工具,仅需 4 GB 内存即可流畅运行。
核心能力
- 多编程语言代码生成与智能补全
- 行级与函数级代码补全提示
- Bug 定位与修复辅助
- 代码库上下文理解
- 适合 IDE 插件本地集成部署
运行要求
内存
≥ 4 GB RAM
显存
无需独立 GPU
存储空间
约 2.2 GB
量化精度
Q4_K_M
Apache 2.0 · 允许商业使用
Yi 1.5 9B Chat
零一万物出品的高质量中英双语对话模型,在创意写作、情景对话与情感理解方面具有独特优势,支持商业使用。
核心能力
- 高质量中英文自然对话
- 创意写作与文案内容生成
- 知识问答与详细解释
- 角色扮演与情景对话
- 文本情感分析与理解
运行要求
内存
≥ 8 GB RAM
显存
≥ 6 GB VRAM
存储空间
约 5.3 GB
量化精度
Q4_K_M
Apache 2.0 · 允许商业使用