DeepSeek本地搭建部署详细图文教程

图片

近期,国产大模型 DeepSeek 凭借其强大的性能和广泛的应用场景,迅速成为 AI 领域的焦点。然而,随着用户数量的激增,DeepSeek 的在线服务时常面临访问压力,导致响应延迟甚至服务中断的情况。

图片

幸运的是,DeepSeek 作为一款开源模型,为用户提供了本地部署的解决方案。通过将 DeepSeek 部署到本地终端,用户不仅可以摆脱网络依赖,还能随时随地享受流畅的 AI 体验。本地部署后,DeepSeek 无需联网即可直接运行,彻底解决了在线服务的延迟和宕机问题。而且安全更适合一些工作人员。这次小编分享一下DeepSeek本地搭建部署详细图文教程给大家。

为什么选择本地部署 DeepSeek?

稳定高效:无需担心网络波动或服务器压力,本地部署确保模型始终高效运行。

隐私安全:数据完全存储在本地,避免敏感信息外泄,保障用户隐私。

灵活便捷:支持离线使用,随时随地调用模型,满足多样化需求。

开源自由:DeepSeek 的开源特性让用户可以根据需求自定义优化,打造专属 AI 工具。

安装Ollama

如果想要在本地运行 DeepSeek 需要用到 Ollama 这个工具,这是一个开源的本地大模型运行工具。

图片

图片

我们可以访问 https://ollama.com/ 进入 Ollama 官网下载 Ollama ,下载时有三个系统的安装包可选择,这里只需要选择下载我们电脑对应的操作系统版本即可,这里我选择的是 Windows 版本。

图片

图片

图片

下载部署 Deepseek 模型

回到 https://ollama.com/ 网址中,在网页上方搜索框中输入 Deepseek-r1,这个 Deepseek-r1 就是我们需要本地部署的一个模型。

图片

需注意的是,这里我们需要根据自己电脑的硬件配置来选择模型大小,下面是一个模型大小配置参考表格,大家可根据自己的电脑配置来自行选择,当然了,部署的本地模型越大,使用的深度求索效果就越好。

图片

一开始我下载的是14b的,需要9g下载太慢了,我换成了1.5b,1g下载就很快了

图片

模型下载完成后,我们就直接可以在命令提示符面板中使用它了。

图片

http://localhost:11434/

图片

可视化图文交互界面 Chatbox

虽然我们可以在本地正常使用 Deepseek 这个模型了,但是这个 AI 工具的面板是非常简陋的,很多人使用不习惯,这时我们就可以通过 Chatbox 这个可视化图文交互界面来使用它。

图片

进入 Chatbox 网页版本后点击使用自己的 API Key 或本地模型。

图片

这个教程还是非常简单的,如果是 Windows 操作系统则只需要配置一下环境变量即可,配置完环境变量后需重启一下 Ollama 程序。

图片

图片

nextjs-ollama-llm-ui

nextjs-ollama-llm-ui 是一个功能齐全且美观的网页界面,专为 Ollama 大语言模型 (LLM) 设计。项目的目标是让用户能够快速、简单地本地甚至离线运行大语言模型,而不需要繁琐的设置步骤。

图片
图片
来源:全栈开发ck
THE END