Deep Seek:DeepSeek本地部署和第三方的Deepseek的使用

由于最近 DeepSeek 遭受了大规模、持续的恶意攻击,导致 DeepSeek 的服务器很不稳定。

在和 AI chat,经常会出现【服务器繁忙】的情况。

那有什么好的方法能用上稳定的 DeepSeek 吗?

本地下载deepseek模型,电脑带不动可以下载轻量级的模型,

虽然部署很简单,但说实话,如果电脑配置一般,也没必要再本地部署 DeepSeek 了!

因为大多数人的电脑,最多只能跑得动参数规模 32b 及以下的 DeepSeek-R1 的模型。

这些模型统称 DeepSeek-R1 【残血版】,和 DeepSeek 官网或 APP 提供的 671b 的【满血版】DeepSeek-R1 比,没办法相提并论,不是一个量级。

如果电脑配置好或者就想本地部署的可以学习以下教程:步骤很简单,就是下载模型稍微久一点。

一、本地部署deep Seek教程如下:

下面这个是查看DeepSeek状态的网站:

status.deepseek.com/

可以发现,最近标红的就是故障中

由于DeepSeek是开源生态,模型都提供了,所以有一种解决方案是本地部署,然后利用一些第三方软件来接入这个模型来使用,第三方在后面说明。

一、下载安装 Ollama

先来介绍一下 Ollama。

Ollama,是一款开源的大语言模型本地部署框架,主要用于在本地机器上便捷地部署和运行大语言模型(LLM)。

非专业用户通过 Ollama,只需要输入简单的指令,就能方便地管理和运行这些复杂的 AI 模型。

Ollama 的下载、安装也非常简单。

Ollama 下载:

进入 Ollama 官网:ollama.com/

Ollama 支持在 macOS、Linux、Windows 上安装。根据自己的电脑系统选择不同的版本进行下载:

Ollama 安装:

下载好后,按指示安装就可以了。

Ollama 安装成功验证:

在命令行窗口中输入 ollama -v,能显示出 Ollama 的版本,就说明安装成功了:

二、下载安装 DeepSeek-R1

安装完 Ollama 后,接下来安装 DeepSeek-R1。

在【Model】中找到【deepseek-r1】模型,点进去:

下拉框中显示了不同版本的模型对应的【参数规模】和【模型文件大小】:

其中 b 代表 billion(十亿)。

“1.5b 1.1GB”表示模型有 15 亿(1.5 billion)参数,模型文件大小为 1.1 GB。

参数规模越大,能力越强,相应的对电脑配置的要求也越高。

可以根据【电脑配置】或【需求场景】,选择合适的模型下载。

如果不清楚自己的电脑配置适合部署哪个模型,可以直接问 DeepSeek,像下面这样:

下面是 DeepSeek-R1 回答的<关于部署 DeepSeek-R1 不同参数模型在 Wind

剩余60%内容,订阅专栏后可继续查看/也可单篇购买

前端面试题 文章被收录于专栏

前端面试的一些常问问题、问题的具体实现(可直接运行)以及底层原理

全部评论

相关推荐

03-17 19:21
门头沟学院 Java
面试官_我太想进步了:正常企查查显示的员工一般比设计的少
点赞 评论 收藏
分享
03-27 17:33
门头沟学院 Java
代码飞升:同学院本,你要注意hr当天有没有回复过,早上投,还要打招呼要推销自己,不要一个劲投
点赞 评论 收藏
分享
评论
1
收藏
分享

创作者周榜

更多
牛客网
牛客企业服务