让模型更易用,让创作更自由
模型托管
安全托管,轻松版本化,让模型像代码一样流动





模型/数据集加速
全球分发,瞬间加载,让下载等待成为过去式,专注创新



开发者个人工作台
一站式管理与展示,让 AI 创作更有序、更出彩


模型使用
多样化体验方式,随时随地解锁 AI 能力



社区活动
活力四射的开发者社区,挑战赛、协作项目与开放交流,让创意在共创中走向世界
让模型更易用,让创作更自由
模型托管
安全托管,轻松版本化,让模型像代码一样流动





模型/数据集加速
全球分发,瞬间加载,让下载等待成为过去式,专注创新



开发者个人工作台
一站式管理与展示,让 AI 创作更有序、更出彩


模型使用
多样化体验方式,随时随地解锁 AI 能力



社区活动
活力四射的开发者社区,挑战赛、协作项目与开放交流,让创意在共创中走向世界
发现、分享、部署最先进的AI模型、数据集和应用
DeepSeek-V4-Pro
DeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。
DeepSeek-V4-Flash
DeepSeek-V4-Flash(总参数 284B,激活 13B)主打极致性价比,推理成本仅为前代的十分之一,适合高频对话和大规模部署。两个版本均支持 Thinking/Non-Thinking 双模式,通过创新的混合注意力架构(CSA+HCA)实现 1M 上下文下 10 倍以上的推理效率提升。
Kimi-K2.6
Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。
Qwen3.6-27B
可用于代码开发、视觉语言任务及多模态交互,提供直观高效的编程体验。该项目含27B参数,支持长上下文(原生262k tokens),具备Agentic Coding和思维保留能力,兼容主流推理框架。
DeepSeek-V4-Flash-w8a8-mtp
可用于企业私有化部署、长文档处理、低成本智能体开发与行业知识库场景。该项目是高效 MoE 大模型,总参数量284B,推理仅激活13B,支持100万token超长上下文,原生适配昇腾NPU与vLLM-ascend高并发推理。














