开源模型

精选高质量本地大语言模型,支持完全离线运行 · 运行时与模型独立下载

GLM-4 9B Chat

对话 学术/个人

智谱AI出品的通用对话模型,中文理解能力卓越,支持 128K 超长上下文。量化版仅需消费级 GPU 即可流畅运行。

核心能力
  • 流畅的中英双语多轮对话与理解
  • 128K 超长上下文窗口支持
  • 代码生成、调试与解释
  • 逻辑推理与知识问答
  • 文本摘要、改写与风格迁移
运行要求
内存
≥ 8 GB RAM
显存
≥ 6 GB VRAM
存储空间
约 6 GB
量化精度
Q4_K_M
Zhipu AI License · 学术/个人使用

DeepSeek Coder V2 Lite

代码 学术/个人

DeepSeek 专为代码场景打造的 MoE 轻量版,在 80+ 种编程语言上表现出色,代码补全与修复能力接近闭源模型。

核心能力
  • 80+ 编程语言代码生成与自动补全
  • Bug 智能检测与修复建议
  • 代码逻辑解释与注释生成
  • 代码重构与性能优化分析
  • 单元测试自动生成
运行要求
内存
≥ 16 GB RAM
显存
≥ 8 GB VRAM
存储空间
约 10 GB
量化精度
Q4_K_M
DeepSeek License · 学术/个人使用

Qwen 2.5 3B Instruct

指令 Apache 2.0

阿里通义千问轻量指令模型,仅需 4 GB 内存即可运行,是边端部署与低配设备的理想选择,支持商业使用。

核心能力
  • 中英文指令跟随与任务执行
  • 基础文本生成与摘要
  • 简单代码补全辅助
  • 轻量问答与信息提取
  • 边缘设备与低配环境部署
运行要求
内存
≥ 4 GB RAM
显存
无需独立 GPU
存储空间
约 2.2 GB
量化精度
Q4_K_M
Apache 2.0 · 允许商业使用

Qwen 2.5 7B Instruct

指令 Apache 2.0

均衡性能与效率的通义千问指令模型,综合能力强劲,支持数学推理与结构化输出,是个人与商业场景的主力选择。

核心能力
  • 强指令跟随与复杂任务分解
  • 中英文混合多轮对话管理
  • 数学推理与步骤分析
  • 代码生成与调试辅助
  • JSON 等结构化格式输出
运行要求
内存
≥ 8 GB RAM
显存
≥ 6 GB VRAM
存储空间
约 4.7 GB
量化精度
Q4_K_M
Apache 2.0 · 允许商业使用

Qwen 2.5 14B Instruct

指令 Apache 2.0

通义千问旗舰指令模型,处理复杂长文本、专业推理与多步骤任务的综合能力全面超越同量级开源模型。

核心能力
  • 复杂指令理解与精准执行
  • 高质量长文本生成与续写
  • 高级逻辑推理与因果分析
  • 专业领域(法律/医学/金融)知识问答
  • 多语言文本处理与翻译
运行要求
内存
≥ 16 GB RAM
显存
≥ 10 GB VRAM
存储空间
约 8.9 GB
量化精度
Q4_K_M
Apache 2.0 · 允许商业使用

Qwen 2.5 Coder 3B

代码 Apache 2.0

专为代码场景深度优化的轻量 Qwen 模型,适合集成到 IDE 插件或本地开发工具,仅需 4 GB 内存即可流畅运行。

核心能力
  • 多编程语言代码生成与智能补全
  • 行级与函数级代码补全提示
  • Bug 定位与修复辅助
  • 代码库上下文理解
  • 适合 IDE 插件本地集成部署
运行要求
内存
≥ 4 GB RAM
显存
无需独立 GPU
存储空间
约 2.2 GB
量化精度
Q4_K_M
Apache 2.0 · 允许商业使用

Yi 1.5 9B Chat

对话 Apache 2.0

零一万物出品的高质量中英双语对话模型,在创意写作、情景对话与情感理解方面具有独特优势,支持商业使用。

核心能力
  • 高质量中英文自然对话
  • 创意写作与文案内容生成
  • 知识问答与详细解释
  • 角色扮演与情景对话
  • 文本情感分析与理解
运行要求
内存
≥ 8 GB RAM
显存
≥ 6 GB VRAM
存储空间
约 5.3 GB
量化精度
Q4_K_M
Apache 2.0 · 允许商业使用