GMI Cloud 上架基于英伟达 H200 的 DeepSeek 系列模型!
构建了专属 DeepSeek – R1 推理端点
1 月下旬,DeepSeek 推出性能媲美 OpenAI o1 模型的推理模型 R1,不仅成本远低于 o1 而且还开源,API 付费价格也远低于 o1,一经发出,立刻引起了 AI 圈的广泛关注。
一周后的除夕当天,DeepSeek 再次推出并开源了多模态人工智能模型 Janus-Pro,一款基于 DeepSeek-LLM-1.5b-base 和 DeepSeek-LLM-7b-base 构建的模型。在这系列模型中,Janus-Pro-7B 在 GenEval 和 DPG-Bench 基准测试中,在文本生成、语义理解、知识问答等关键任务上,击败了 OpenAI 的 DALL-E 3 和 Stable Diffusion,直接将国内外 AI 狂欢推向高潮。
据悉,DeepSeek 在 GitHub 开源后,代码库快速吸引大量开发者关注,star 数短期内突破十万,且众多基于 DeepSeek 的二次开发项目如代码自动补全、智能文档摘要等,已在金融、医疗、科研等多领域实现高效部署,有力推动了 AI 应用的创新与落地。
而在这个过程中,GMI Cloud 技术团队第一时间在北美完成了对 DeepSeek R1 基于英伟达当前量产最强的 H200 GPU 服务器的部署适配和优化,构建了专属 DeepSeek – R1 推理端点!
为了让更多 AI 企业进行体验,GMI Cloud 本周正式推出限免体验 2 天活动!识别下方二维码,即刻获取体验资格,完成一键部署!
![GMI Cloud 上架基于英伟达 H200 的 DeepSeek 系列模型! GMI Cloud 上架基于英伟达 H200 的 DeepSeek 系列模型!](https://www.qbitai.com/wp-content/uploads/replace/60fb58debbe77e7d2767cc6856606803.jpeg)
技术细节
● 模型提供商:DeepSeek
● 模型名称:DeepSeek-R1
● 类型:聊天模型
● 参数:6850 亿
● 部署方式:专用端点(可动态扩容)
● 量化方式:FP8
● 上下文长度:该模型在单个会话中,能够处理 128,000 tokens
此外,GMI Cloud 还提供以下模型:
● DeepSeek-R1-Distill-Llama-70B
● DeepSeek-R1-Distill-Qwen-32B
● DeepSeek-R1-Distill-Qwen-14B
● DeepSeek-R1-Distill-Llama-8B
● DeepSeek-R1-Distill-Qwen-7B
● DeepSeek-R1-Distill-Qwen-1.5B
敏捷部署
1、与GMI Cloud 建立链接
2、创建模型包
3、部署
“if __name__ == ‘__main__’:
# Initialize the Client
cli = Client()
# Create an artifact from a template
artifact_id = create_artifact_from_template(cli, “deepseek_r1_template_001”)
# Create a task and start it
task_id = create_task_and_start(cli, artifact_id)
# Call chat completion
print(call_chat_completion(cli, task_id))”
SDK部署示例
https://github.com/GMISWE/python-sdk/blob/main/examples/deepseek_r1.py
![GMI Cloud 上架基于英伟达 H200 的 DeepSeek 系列模型! GMI Cloud 上架基于英伟达 H200 的 DeepSeek 系列模型!](https://www.qbitai.com/wp-content/uploads/replace/4d6571aa866a8aa7471f6c74de92891d.png)
![post-qrcode](https://aigc.luomor.com/wp-content/uploads/2023/03/qrcode_for_gh_ada6dea0c7e9_258.jpeg)