标签: DeepSeek
thumbnail

DeepSeek-R1强化学习算法:群组相对策略优化(GRPO)

DeepSeek-R1引入了组相对策略优化(GRPO),这是一种高效且有效的强化学习算法。GRPO摒弃了评判模型,而是通过组分数来估计基线,与近端策略优化(PPO)相比,显著减少了训练资源。
thumbnail

基于DeepSeek构建RAG 系统综合指南(含代码)

利用 DeepSeek 的先进语言模型构建多语言 RAG 系统,为智能文档交互领域开辟了新的道路。通过整合高效的向量存储和检索技术,该系统能够提供准确、上下文感知的回复,同时具备动态更新知识的能力。
thumbnail

DeepSeek-R1深度推理的核心技术:思维链(CoT)

DeepSeek的R1模型在处理逻辑推理、数学计算以及复杂问答等任务时,能够显式地展示其推理过程。R1深度推理的核心技术在于所采用的思维链(Chain of Thought,CoT)技术。
thumbnail

DeepSeek + LangGraph: 探讨并评测推理模型在Agent应用上的能力与表现

一些结论刚好也验证了DeepSeek-R1官方技术报告揭示的自身“能力缺陷”,包括不支持function calling、不擅长多轮对话、结构化输出较弱、提示词与复杂上下文敏感等,我们也期待下一个版本的R1在这些能力上取得突破!
thumbnail

DeepSeek应用实战技巧(附平替和本地布署方法)

DeepSeek是一款推理型大模型。划重点:DeepSeek不是普通聊天机器人,而是具备深度推理能力的智能助理!这意味着:当你在"保姆式教学"时,它其实在OS:"这届主人好啰嗦..."
thumbnail

Deepseek-R1与CAG(缓存增强生成)结合提升问答质量

DeepSeek模型与CAG技术的结合,为构建高效问答系统提供了全新的思路和方法。通过充分利用DeepSeek的强大语言理解和生成能力,以及CAG技术的缓存增强生成机制,系统能够实现快速、准确的问答服务。
thumbnail

Deepseek仅需一句话,生成哪吒同款爆燃海报!

有了这些免费的优秀国产AI软件,势必让我们的作图效率和质量大大提升,也许不用多久,一部属于自己的哪吒闹海就会诞生,AI让一切皆有可能!
thumbnail

DeepSeek R1 入门指南:架构、训练、本地部署上手

DeepSeek团队计划进一步优化模型在函数调用、多轮对话等复杂场景的表现,同时探索多语言混合推理的解决方案。通过开源MIT协议,R1系列不仅降低了AI开发门槛,更推动了行业协作创新。
thumbnail

Deepseek成功启示:从 TRPO 到 GRPO训练LLM

强化学习已成为训练大型语言模型不可或缺的一部分。从TRPO到PPO,再到最新的GRPO,这些算法不断推动着LLMs的创新和发展。通过平衡稳定性、效率和人类对齐,RL算法使LLMs能够更好地理解和生成自然语言,从而在各个领域发挥更大的作用。
thumbnail

DeepSeek技术基石:MoE、数据并行与模型并行全解析

MoE架构代表了深度学习模型发展的一个重要方向,它通过稀疏化和专家机制,不仅提升了大模型的训练效率,还为多任务、多模态处理开辟了新的可能性。尽管在实际应用中存在一定的挑战,但随着技术的不断进步,MoE将成为未来大规模模型训练和推理的核心架构之一。
thumbnail

Ollama部署Deepseek-R1大模型实操教程

本文是利用ollama工具进行模型部署的,和官方部署环境有些差异,但无关紧要。运行模型才是最终要的,毕竟模型才是大脑。小伙伴在部署的时候一定要根据自己的实际情况部署,并进行测试,效果刚刚的。
thumbnail

DeepSeek为何如此强大?深度解析3大AI加速技术(知识蒸馏、量化与压缩)

AI模型的优化和加速在资源受限的环境中尤为重要,知识蒸馏、无监督学习、模型量化和压缩加速方法为解决这一难题提供了多种解决方案。通过合理运用这些技术,我们能够在确保模型性能的同时,极大地提高计算效率和资源利用率
thumbnail

AI教母李飞飞团队训练出媲美DeepSeek R1推理模型,云计算费用不到50美元附代码

2025 年 1 月,李飞飞团队提出了一种极简的测试时扩展(test-time scaling)方法,仅需对预训练模型进行少量监督微调(SFT)并结合动态推理控制技术,即可显著提升语言模型的数学推理能力。
thumbnail

谁说DeepSeek不好用?那是你还不会这10个官方神级指令

把AI想象成刚入职的聪明助理:它需要清晰的任务说明、必要的工作背景,以及及时的反馈调整。记住这三个沟通原则,你就能把冷冰冰的工具变成懂你的智能伙伴。
thumbnail

DeepSeek本地搭建部署详细图文教程

国产大模型 DeepSeek 凭借其强大的性能和广泛的应用场景,迅速成为 AI 领域的焦点。然而,随着用户数量的激增,DeepSeek 的在线服务时常面临访问压力,导致响应延迟甚至服务中断的情况。
thumbnail

腾讯云HAI服务器部署与调用DeepSeek-R1大模型实战指南

成功地使用腾讯云的HAI服务器进行了DeepSeek-R1大模型的部署与实时调用。从购买HAI应用服务,到通过ChatBotUI、JupyterLab、CloudStudio等工具进行配置和调试,我们详细介绍了每个步骤。
thumbnail

DeepSeek R1 671B 完整版本地部署教程

完整的671B MoE模型也可以通过针对性的量化技术压缩体积,从而大幅降低本地部署门槛,乃至在消费级硬件(如单台Mac Studio)上运行。那么,如何用 ollama 在本地部署 DeepSeek R1 671B(完整未蒸馏版本)模型呢?一篇在海外热度很高的简明教程即将揭晓。
thumbnail

DeepSeek技术报告解析:为什么R1 可用低成本训练出高效模型

DeepSeek-R1 的成功表明,通过创新的训练方法和精心设计的架构,可以在保持模型性能的同时显著降低训练成本。这为未来大语言模型的开发提供了新的思路,特别是在资源受限的情况下如何实现高性能模型的训练。
thumbnail

DeepSeek 系列模型进化史,5000字解读

我们将深入剖析DeepSeek系列模型的发展历程,探索其背后的创新技术,以及这些技术如何推动开源大语言模型走向新的高度。
thumbnail

DeepSeek是否真绕开CUDA?为什么说CUDA是NVIDIA的核心壁垒

CUDA(Compute Unified Device Architecture,计算统一设备架构)是 NVIDIA 开发的一种 并行计算平台 和 编程模型,它为开发者提供了一种类似于 C、C++、Python 等编程语言的编程接口,使得他们可以使用这些熟悉的语言来编写能够在 GPU 上运行的代码,而无需深入了解 GPU 的底层硬件细节。
thumbnail

AI 编程助手DeepSeek本地部署分步指南

现在,你已经掌握了 DeepSeek 本地部署的核心知识和操作步骤。接下来,只需按照指南一步步操作,即可在你的机器上搭建一个专属的 AI 编程助手。
thumbnail

DeepSeek vs. ChatGPT vs. Gemini:三大LLM全面对比

DeepSeek、ChatGPT和Gemini代表了AI技术的三个方向:通用化、多模态化和高效化。它们的竞争不仅推动技术进步,更为用户提供了多样化的选择。无论是开发者、企业还是研究者,理解其差异都能帮助更好地利用AI赋能业务。
thumbnail

一文搞懂DeepSeek - AI强化学习和蒸馏技术

LLMs的推理能力仅通过强化学习来激励?DeepSeek-R1-Zero表明大型语言模型(Large Language Models)的推理能力可以仅通过强化学习来激励,而无需监督微调。
thumbnail

DeepSeek 如何利用多头潜在注意力(MLA)进行输出速度优化?

LLM 生成文本慢的核心原因是自注意力计算复杂度高,而 KV Cache 通过存储计算结果,减少了重复计算,大幅提升了效率。但 KV Cache 也会占用大量内存,而 DeepSeek 的 MLA 机制 通过潜在空间投影,压缩 Key-Value 存储,进一步优化了性能。