
想用大模型,但又担心高昂的订阅费用?DeepSeek-R1 作为国内开源 AI 大模型的佼佼者,不仅性能强劲,还免费开放!但很多普通用户可能还不知道,如何才能真正用上满血版 DeepSeek-R1,并且直接调用它的强大能力?
今天,小编就带你手把手搭建部署,如何快速上手 DeepSeek-R1,无论是本地部署还是在线直连,让你轻松体验这款超强 AI!💡
A、云端API调用
满血版 deepseek-R1, 参数 671B,理论上需要 350G 以上显存/内存才能够部署 FP4 的量化版本。对于家用电脑来说,这是不可能的,即使采用压缩、分层等优化方法,使用最新的 Nvidia RTX5090 显卡(32G 显存),每秒低于 10tokens 的推理输出速度不具备实用价值。
普通人能实际部署的仅仅是 Deepseek-R1-distill 蒸馏版模型,这是大家可以真正用得上的版本;模型大小从 1.5B 到 70B 都有。那么问题来了,普通人为什么要部署呢?
在线使用方面,deepseek 官方频繁提示“服务器繁忙,请稍后再试”并且停止了 API 充值,普通用户使用 API 可以是解决在线翻译、本地 UI 调用等需求的,好在 Deepseek-R1 是开源的,那我们就来看看哪些地主家有余粮(显卡/计算卡),要求当然是提供全尺寸 R1 模型的推理服务和一定的免费 API 额度。
1、Nvidia 云端使用
![图片[2]-DeepSeek-R1 免费使用攻略:普通用户如何轻松直连并解锁满血版AI大模型?](https://dh.turnfish.top/wp-content/uploads/2025/02/DeepSeek-R1-%E6%AD%A3%E5%BC%8F%E7%99%BB%E9%99%86-NVIDIA-NIM-%E5%B9%B3%E5%8F%B0%EF%BC%8C%E5%BC%80%E5%90%AF-AI-%E8%AE%A1%E7%AE%97%E6%96%B0%E7%BA%AA%E5%85%83.jpg)
打开「Nvidia NIM Deepseek-R1」就可以在网页端直接使用上满血版的 deepseek r1 推理服务了,「Nvidia NIM Deepseek-R1」是当下最稳定、响应最快的平台,没有之一。目前,匿名用户使用 deepseek r1 会存在排队现象,但一般不会超时。本文示例在不进行注册登录的前提下,对话排序为第 149(line 149),发送问题到实际输出显示的等待时间约 10 秒,老黄家的余粮一定是最充足的。
作为测试对比,在 deepseek 官方 api 调用出现错误的情况下,匿名状态在网页端翻译本文标题,没有任何排队等待,使用下文的硅基流动 api 也很慢,某为不是纯国产不受任何制约吗?舍不得堆量!登陆后同样使用 nvidia nim 提供的 api 也没有报错,并且响应输出快速。
Nvidia 提供免费免注册的在线全尺寸 deepseek r1 推理服务的同时,也可以注册 nvidia nim 账号以使用 api,注册用户赠送 5000 点积分。在右侧 api 调用代码区,可以直接使用给出的 base_url(https://integrate.api.nvidia.com/v1/chat/completions),api_key 则可以通过点击右上方的『Get API Key』进行注册并创建。
点击页面右上角的『Login』或右侧的『Get API Key』,都可以打开注册界面。输入电子邮箱注册即可。
完成注册后,将获得 1000 点积分,使用企业邮箱、额外填写企业信息,进一步获得 4000 点积分,也就是说,普通用户通常可以获得 5000 点积分。企业信息的角色、行业等都可以随意填写,但建议尽量保证企业名称的真实性。填写完成之后点击『Continue』就可以完成填报,会自动进行验证、积分增加和页面重定向。
接下来,就可以将创建 API key 并在相关应用中使用。本文以沉浸式翻译为例,打开设置后,选择『翻译服务』,不要下拉选择 deepseek,而应该点击顶部的添加OpenAI兼容服务。
点击注册:https://build.nvidia.com/deepseek-ai/deepseek-r1
2、硅基流动
硅基流动是一家中国 AI 公司,自 deepseek 2.5 时代就广为人知,提供有平价 API 接入,并且一直有注册送 2000万 tokens 的活动,额外还有邀请推广机制(邀请新用户注册送 2000 万 tokens)。硅基流动和华为合作,由华为昇腾提供算力支持提供满血版的 Deepseek-R1 推理服务。
新用户注册后,即进入首页的模型广场,顶部的 deepseek r1/v3 都是全量 671b 模型,任选其一,直接点击即开进入对话模式。
点开左侧『余额充值』即可查看到赠送的等值 14 元赠金,在『API 密钥』页面可以创建 API Key,用于翻译、编程等工具的远程调用。
在线体验也是需要消耗 token 的,不过硅基流动一直是平价的,并且可以观察到推理过程是不计费的。
硅基流动的 API 接入可参考官方文档,这里不做赘述。
点击注册:https://cloud.siliconflow.cn/i/TCZRgq4R
B、本地部署
DeepSeek-R1 虽然有1.5b、7b、8b、14b、32b等,但是这些都是量化版,非满血版,真正和官方一样的满血版只有一个,那就是未量化的 671b DeepSeek-R1 大模型!是目前最强最聪明的一个开源模型。
1、安装 Ollama
2、下载并部署 671b Deepseek R1 模型:
ollama run deepseek-r1:671b
3、UI 调用模型 【点击安装 】
如何卸载已安装过的模型?
ollama list # 查询已安装的模型
ollama rm 模型名称 # 卸载并删除模型
请登录后查看评论内容