只需五分钟,就可以构建一个属于自己的DeepSeek
近日召开的杨浦区科技创新大会上,以共筑“杨数浦”新质秀带为主题,杨浦密集发布了一系列企业创新项目。其中,道客d.run上线DeepSeek R1模型引人注目。
用户在访问“模型体验-文本模型”即可一键解锁稳定的DeepSeek R1满血版及蒸馏版体验。此外,用户还可以一键部署1.5B、14B、32B蒸馏版本,无需购买显卡、安装驱动、配置网络和存储、安装环境、下载模型等一系列冗余的工作,只需五分钟你就可以构建一个属于自己的DeepSeek。
记者了解到,d.run平台支持包括MoE在内的多种大模型架构,还配备了预训练、微调、推理全流程工具,真正实现了开箱即用。当然,模型服务的稳定离不开底层源源不断的算力支持,d.run以云原生驱动算力资源的灵活调度,使得GPU利用率提升至80%以上,而且支持英伟达、华为昇腾、沐曦、燧原等国内外主流芯片架构,可以通过动态感知模型需求,帮助用户自动匹配最优算力方案。无论你是小白还是开发者,都可以在d.run上开启稳定、可靠的 DeepSeek R1体验。
当智能调度遇上超强认知模型,d.run正在加载DeepSeek R1的核爆级升级。
事实上,从DeepSeek开源看AI infra领域创新,道客已经在这里走过10 个年头。持之以恒,聚沙成塔。十载耕耘之下,道客抓住了AI infra领域创新的机遇,抢先出发,在全球技术生态中实现了韧性生长。换句话说,道客已经在AI编排调度领域构建了一定的开源技术矩阵。
以AI infra上的竞争为例,Kubernetes作为AI算力调度的事实标准,其技术创新正成为推动行业进化的核心引擎。道客在Kubernetes社区占据重要话语权,贡献量全球第三,国内第一。而且基于Kubernetes生态,自主开源或者核心贡献了一系列技术成果。KWOK以轻量化的方式完成大规模集群的仿真模拟及调度器压测,被NVIDIA、OpenA等全球AI科技巨头纷纷采用。Spiderpool 提供先进的 RDMA 网络优化方案,广泛适用于AI工作负载。HAMi提供了将算力切分至 1% 的异构算力设备管理方案,把算力利用率提升至新高度。
为了更好地支持上层推理,社区内出现了首个基于Kubernetes的企业级推理系统AIBrix,道客是该项目的核心贡献者,正在与字节跳动、Google、密歇根大学、伊利诺伊大学厄巴纳 - 香槟分校、华盛顿大学等产业界和学术界的开源伙伴,共同推动该项目在生产环境中的推理效率优化,加速大模型服务向高效落地阶段演进。针对分布式推理场景的特殊需求,
未来,DaoCloud道客还将继续坚持"开放核心+企业扩展"的商业化范式,从技术攻坚走向生态赋能,让开源价值穿透技术社区直达产业腹地。
️文字丨成佳佳
️图片丨成佳佳
️编辑丨李玲
*转载请注明来自上海杨浦