让模型更易用,让创作更自由
模型托管
安全托管,轻松版本化,让模型像代码一样流动





模型/数据集加速
全球分发,瞬间加载,让下载等待成为过去式,专注创新



开发者个人工作台
一站式管理与展示,让 AI 创作更有序、更出彩


模型使用
多样化体验方式,随时随地解锁 AI 能力



社区活动
活力四射的开发者社区,挑战赛、协作项目与开放交流,让创意在共创中走向世界
让模型更易用,让创作更自由
模型托管
安全托管,轻松版本化,让模型像代码一样流动





模型/数据集加速
全球分发,瞬间加载,让下载等待成为过去式,专注创新



开发者个人工作台
一站式管理与展示,让 AI 创作更有序、更出彩


模型使用
多样化体验方式,随时随地解锁 AI 能力



社区活动
活力四射的开发者社区,挑战赛、协作项目与开放交流,让创意在共创中走向世界
发现、分享、部署最先进的AI模型、数据集和应用
DeepSeek-V4-Pro
DeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。
DeepSeek-V4-Flash
DeepSeek-V4-Flash(总参数 284B,激活 13B)主打极致性价比,推理成本仅为前代的十分之一,适合高频对话和大规模部署。两个版本均支持 Thinking/Non-Thinking 双模式,通过创新的混合注意力架构(CSA+HCA)实现 1M 上下文下 10 倍以上的推理效率提升。
MiniCPM-V-4.6
用户可将其部署在iOS、Android、HarmonyOS等移动平台,实现高效图像和视频理解。该项目基于SigLIP2-400M和Qwen3.5-0.8B构建,具备领先基础能力、强大多模态能力、超高效架构,支持多种推理和微调框架,适配性强。
ZAYA1-8B
可用于数学推理、代码生成等任务,支持本地部署和高效推理。该项目是端到端训练的混合专家语言模型,总参数量8.4B,活跃参数量760M,在数学和编码基准测试中表现突出。
MiniCPM-V-4.6-gguf
可用于在手机等边缘设备上高效实现图像和视频理解。该项目是 MiniCPM-V 4.6 的量化版本,基于 SigLIP2-400M 和 Qwen3.5-0.8B 构建,具备领先基础能力与强大多模态能力,支持主流移动平台部署。














