DeepSeek本地搭建部署详细图文教程
近期,国产大模型 DeepSeek 凭借其强大的性能和广泛的应用场景,迅速成为 AI 领域的焦点。然而,随着用户数量的激增,DeepSeek 的在线服务时常面临访问压力,导致响应延迟甚至服务中断的情况。
幸运的是,DeepSeek 作为一款开源模型,为用户提供了本地部署的解决方案。通过将 DeepSeek 部署到本地终端,用户不仅可以摆脱网络依赖,还能随时随地享受流畅的 AI 体验。本地部署后,DeepSeek 无需联网即可直接运行,彻底解决了在线服务的延迟和宕机问题。而且安全更适合一些工作人员。这次小编分享一下DeepSeek本地搭建部署详细图文教程给大家。
为什么选择本地部署 DeepSeek?
稳定高效:无需担心网络波动或服务器压力,本地部署确保模型始终高效运行。
隐私安全:数据完全存储在本地,避免敏感信息外泄,保障用户隐私。
灵活便捷:支持离线使用,随时随地调用模型,满足多样化需求。
开源自由:DeepSeek 的开源特性让用户可以根据需求自定义优化,打造专属 AI 工具。
安装Ollama
如果想要在本地运行 DeepSeek 需要用到 Ollama 这个工具,这是一个开源的本地大模型运行工具。
我们可以访问 https://ollama.com/ 进入 Ollama 官网下载 Ollama ,下载时有三个系统的安装包可选择,这里只需要选择下载我们电脑对应的操作系统版本即可,这里我选择的是 Windows 版本。
下载部署 Deepseek 模型
回到 https://ollama.com/ 网址中,在网页上方搜索框中输入 Deepseek-r1,这个 Deepseek-r1 就是我们需要本地部署的一个模型。
需注意的是,这里我们需要根据自己电脑的硬件配置来选择模型大小,下面是一个模型大小配置参考表格,大家可根据自己的电脑配置来自行选择,当然了,部署的本地模型越大,使用的深度求索效果就越好。

一开始我下载的是14b的,需要9g下载太慢了,我换成了1.5b,1g下载就很快了
模型下载完成后,我们就直接可以在命令提示符面板中使用它了。
http://localhost:11434/
可视化图文交互界面 Chatbox
虽然我们可以在本地正常使用 Deepseek 这个模型了,但是这个 AI 工具的面板是非常简陋的,很多人使用不习惯,这时我们就可以通过 Chatbox 这个可视化图文交互界面来使用它。

进入 Chatbox 网页版本后点击使用自己的 API Key 或本地模型。

这个教程还是非常简单的,如果是 Windows 操作系统则只需要配置一下环境变量即可,配置完环境变量后需重启一下 Ollama 程序。
nextjs-ollama-llm-ui
nextjs-ollama-llm-ui 是一个功能齐全且美观的网页界面,专为 Ollama 大语言模型 (LLM) 设计。项目的目标是让用户能够快速、简单地本地甚至离线运行大语言模型,而不需要繁琐的设置步骤。

