Deep Seek:DeepSeek本地部署和第三方的Deepseek的使用
由于最近 DeepSeek 遭受了大规模、持续的恶意攻击,导致 DeepSeek 的服务器很不稳定。
在和 AI chat,经常会出现【服务器繁忙】的情况。
那有什么好的方法能用上稳定的 DeepSeek 吗?
本地下载deepseek模型,电脑带不动可以下载轻量级的模型,
虽然部署很简单,但说实话,如果电脑配置一般,也没必要再本地部署 DeepSeek 了!
因为大多数人的电脑,最多只能跑得动参数规模 32b 及以下的 DeepSeek-R1 的模型。
这些模型统称 DeepSeek-R1 【残血版】,和 DeepSeek 官网或 APP 提供的 671b 的【满血版】DeepSeek-R1 比,没办法相提并论,不是一个量级。
如果电脑配置好或者就想本地部署的可以学习以下教程:步骤很简单,就是下载模型稍微久一点。
一、本地部署deep Seek教程如下:
下面这个是查看DeepSeek状态的网站:
status.deepseek.com/
可以发现,最近标红的就是故障中
由于DeepSeek是开源生态,模型都提供了,所以有一种解决方案是本地部署,然后利用一些第三方软件来接入这个模型来使用,第三方在后面说明。
一、下载安装 Ollama
先来介绍一下 Ollama。
Ollama,是一款开源的大语言模型本地部署框架,主要用于在本地机器上便捷地部署和运行大语言模型(LLM)。
非专业用户通过 Ollama,只需要输入简单的指令,就能方便地管理和运行这些复杂的 AI 模型。
Ollama 的下载、安装也非常简单。
Ollama 下载:
进入 Ollama 官网:ollama.com/
Ollama 支持在 macOS、Linux、Windows 上安装。根据自己的电脑系统选择不同的版本进行下载:
Ollama 安装:
下载好后,按指示安装就可以了。
Ollama 安装成功验证:
在命令行窗口中输入 ollama -v,能显示出 Ollama 的版本,就说明安装成功了:
二、下载安装 DeepSeek-R1
安装完 Ollama 后,接下来安装 DeepSeek-R1。
在【Model】中找到【deepseek-r1】模型,点进去:
下拉框中显示了不同版本的模型对应的【参数规模】和【模型文件大小】:
其中 b 代表 billion(十亿)。
“1.5b 1.1GB”表示模型有 15 亿(1.5 billion)参数,模型文件大小为 1.1 GB。
参数规模越大,能力越强,相应的对电脑配置的要求也越高。
可以根据【电脑配置】或【需求场景】,选择合适的模型下载。
如果不清楚自己的电脑配置适合部署哪个模型,可以直接问 DeepSeek,像下面这样:
下面是 DeepSeek-R1 回答的<关于部署 DeepSeek-R1 不同参数模型在 Wind
剩余60%内容,订阅专栏后可继续查看/也可单篇购买
前端面试的一些常问问题、问题的具体实现(可直接运行)以及底层原理