DeepSeek 从快速入门到实用探索,程序员当然要私有部署代码助手
国内最新的神级人工智能模型已经正式发布,没错,它就是备受瞩目的DeepSeek-R1大模型。今天,我们将对DeepSeek进行一个简单的了解,并探索如何快速使用和部署这个强大的工具。值得一提的是,DeepSeek已经开源,您可以随意下载和使用它。
DeepSeek的官方网站地址如下:https://www.deepseek.com/
API文档的详细地址请访问:https://api-docs.deepseek.com/zh-cn/
好吧,让我们开始!
API
DeepSeek API 采用与 OpenAI 完全兼容的 API 格式,使得用户可以通过简单的配置修改,灵活地使用 OpenAI SDK 来访问 DeepSeek API。此外,还可以使用任何与 OpenAI API 兼容的软件进行接入。
在对话领域,OpenAI 的 ChatGPT 可以说是最早引领风潮的模型之一,因此很多框架都自然而然地集成了 OpenAI 接口。这种趋势促使后续的各种模型纷纷兼容 OpenAI 的接口特性,从而极大地方便了开发者,减少了接入工作量。
为了轻松切换到 DeepSeek API,我们只需将 OpenAI 的基础 URL 替换为 DeepSeek 的地址,具体操作如下所示:
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "Hello"},
],
stream=False
)
print(response.choices[0].message.content)
注意model='deepseek-chat'调用的是DeepSeek-V3模型,model='deepseek-reasoner'才是DeepSeek-R1大模型。
服务状态
目前由于国际原因,API服务不是很稳定,所以如果在调用其API接口如果无法及时响应,可以看下目前API服务状态。地址如下:https://status.deepseek.com/
如图所示:
实用集成
轻松将 DeepSeek 大模型的强大能力集成到各类软件中,助您提升应用的智能化水平。该平台支持众多第三方软件,具体支持的软件种类请见下图所示:
这种方法既可以调用官方的API服务,当然也可以调用本地的大模型服务,毕竟官方服务状态目前很不稳定。
Ollama
如果想在本地访问 DeepSeek 服务,那么你可以选择Ollama ,Ollama 是一个开源工具,旨在帮助用户在本地环境中轻松运行和管理大型语言模型(LLMs)。它通过简化的方式支持多种模型(如 Llama、Mistral、Gemma 等),并提供统一的接口供开发者调用,尤其适合需要本地部署和灵活切换模型的场景。
地址如下:https://ollama.com/
下载后,直接在本地运行命令即可。
ollama run deepseek-r1
当然,你可以选择启动的模型参数。目前有如下可选择:
ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b
参数越大,模型效果越好。
服务器准备
首先,我们需要登录腾讯云平台并购买 HAI 应用服务。腾讯云提供了两种计费方式:包月计费和按时计费。由于我目前并没有特别紧迫或庞大的需求,因此为了节省成本,我选择了按时计费方式。具体的购买流程和配置选项可以参考下面的图示:
在我完成购买后,腾讯云 HAI 服务器会自动为我们部署 DeepSeek-R1 模型并启动运行,整个过程非常简便。同时,HAI 还提供了算力连接的选择,具体有三种不同的方式:
- ChatBotUI:这是一种广泛应用的可视化聊天界面,它不仅支持实时的聊天互动,还具备管理聊天记录和提示词模板等功能,非常适合需要快速构建对话系统的场景。
- CloudStudio:CloudStudio 是一款功能强大的在线集成开发环境(IDE)。它允许我们编写 Python 脚本、调试代码、进行多种应用开发和测试,非常适合开发者进行项目调试和优化。
- JupyterLab:作为一种极为流行的数据科学工具,JupyterLab 提供了多个终端选择,包括 Linux 终端和 Python 脚本执行环境。它为数据分析、模型训练及执行等任务提供了非常便捷的支持。
ChatBotUI
在这里,我们首先来了解一下可视化界面,并演示如何快速上手使用。通过这一界面,用户可以直观地进行各种操作,轻松实现需求的配置和调整。具体的操作步骤和界面效果可以参考下面的图示:
可以选择其他选项,虽然有时候需要进行角色授权,授权过程非常简单,点击“授权”按钮即可完成,无需进行复杂操作。一旦授权完成,你便可以进入聊天界面。在该界面中,HAI服务器提供了多种参数选项,例如7B和1.5B。选择合适的参数后,你就可以立即开始实时聊天,无需等待。
ollama终端
我们继续选择JupyterLab方式连接算力,这里选择终端,如图所示:
我们去看下终端命令查看下,如图所示:
在这里,我们可以看到其实它使用的也是基于Ollama运行的DeepSeek-R1大模型。通过这种方式,用户可以非常方便地直接使用Ollama提供的命令,来查看和操作相应的API接口。如图所示:
这里我们演示的是直接使用 Ollama 运行 DeepSeek-R1 大模型,模型参数为 1.5B。要结束当前会话,您可以使用快捷键 Ctrl + D 退出。不过,需要注意的是,采用这种方式仅支持在本地运行和启动,无法进行外网调用或配置远程访问。
因此,如果希望实现外网访问或其他更复杂的配置,接下来的步骤将会介绍相关方法。
插件安装
CodeGPT
接下来,我们需要前往官方商店,下载并安装IDEA的插件——CodeGPT。此插件将为我们的开发环境提供智能代码辅助,帮助我们提升编程效率和质量。如下图所示,可以看到插件的下载页面,按照提示进行安装,即可将其集成到IDEA环境中。
下载完成后,我们需要进入IDEA的设置界面,找到并点击“Settings”菜单。在设置界面中,定位到“Tools”标签页,然后继续找到“Ollama本地模型”选项进行配置。关于Ollama模型的具体配置细节,这里就不再详细说明,因为腾讯云HAI服务器为我们提供的正是Ollama版本。在启动HAI服务器后,我们只需将其公网IP地址以及端口号6399进行相应配置即可。
需要注意的是,Ollama的默认端口并没有被使用,而是由HAI服务器自定义配置为6399端口。所以,我们只需确保在配置过程中,公网IP和自定义端口6399设置正确,就能顺利连接并启动服务。下面是配置的具体示例:
配置完成后,我们便可以充分利用私有化部署的DeepSeek-R1大模型,作为强大的代码助手来帮助我们高效编程。无论是思考问题的过程,还是生成相应的解决方案,模型都能提供智能化的支持,极大提高编程效率。具体效果如下图所示:
在这里,我使用的是DeepSeek-R1大模型中的7b参数版本,能够为编程任务提供强大的支持。当然,完全可以根据需要选择更大、更高效的参数版本,以获得更优异的性能和更精准的编程辅助。
我是努力的小雨,一个正经的 Java 东北服务端开发,整天琢磨着 AI 技术这块儿的奥秘。特爱跟人交流技术,喜欢把自己的心得和大家分享。还当上了腾讯云创作之星,阿里云专家博主,华为云云享专家,掘金优秀作者。各种征文、开源比赛的牌子也拿了。
💡 想把我在技术路上走过的弯路和经验全都分享出来,给你们的学习和成长带来点启发,帮一把。
🌟 欢迎关注努力的小雨,咱一块儿进步!🌟
#聊聊我眼中的AI#