分类: 数据科学及AI人工智能
如虎添翼!Python-SciPy库在人工智能中的应用
SciPy作为Python生态系统中的重要组成部分,凭借其强大的功能模块和高效的性能,成为科学计算与数据分析的利器。无论你是数据科学家、工程师还是研究人员,掌握SciPy都将为你的工作带来极大的便利与提升。
Transformer 模型效率:通过改进注意力机制降低机器学习成本
注意力机制是 Transformer 的核心创新,它为人工智能模型提供了一种全新的方法,使模型能够根据具体任务的需求,灵活地聚焦输入序列的不同部分,从而更深入地理解复杂的语言和结构。
Scikit-learn,一个机器学习入门必备 Python 库!
机器学习真没那么难,关键是要动手实践。sklearn的API设计得特别人性化,跟着文档一步步来,很快就能上手。要是卡住了,就去翻翻官方文档,里面例子可多了。
奇异值分解SVD:矩阵相乘的4种视角
问题是,这还不仅仅是多几种计算方法,最重要的是,这种视角除了能算出结果外,它对理解矩阵的本质,帮助并不大。下面我们来说另外的3种视角,它们对理解矩阵,应用SVD至关重要。
Pandas数据过滤、排序、聚合...处理表格数据常用 10 个脚本
对于新手来说,掌握 Pandas 的基本操作是开展数据分析工作的第一步。本文将介绍十个常用的 Pandas 脚本,并通过简单的实际例子来帮助你理解这些操作。
PyTorch深度学习中的自动求导一文读懂
PyTorch 的自动求导机制通过构建计算图和反向传播,实现了自动计算梯度的功能。这使得用户可以专注于模型的设计和训练,而无需手动计算复杂的导数,极大地提高了开发效率。它就像一个聪明的“导数计算器”,帮助我们更好地理解和优化模型。
机器学习、深度学习、强化学习、迁移学习、集成学习和关联规则学习大解析
机器学习的原理就是通过算法,让计算机能够从大量的数据中发现规律,然后做出预测或者决策。比如,通过分析过去的销售数据,机器学习可以帮助我们预测未来哪个产品会大卖。
如何利用PyTorch实现图像识别?大佬教你
如何利用PyTorch实现图像识别的相关资料,文中通过图文以及实例代码介绍的非常详细,对大家学习或者使用PyTorch具有一定的参考学习价值,需要的朋友可以参考下。
……
机器学习数学基础之向量:内积与正交性
5.1 内积
内积是两个向量之间的乘积,其结果是一个标量。在机器学习中,内积用于计算两个向量的相似性。对于向量 a 和 b,内积定义为:
a · b = |a| |b| cos(θ……
机器学习数学基础之向量:子空间
4.1 子空间的定义
如果一个向量空间的子集本身也是一个向量空间,那么这个子集被称为子空间。子空间必须满足以下条件:
包含零向量。
对于任意两个向量 u 和 ……
机器学习数学基础之向量:线性相关性与线性无关性
3.1 线性相关性
一组向量,比如 v1、v2、一直到 vn,如果存在非零的系数 c1、c2、一直到 cn,使得:
c1v1 + c2v2 + ... + cn*vn = 0
则称这些向量是线性相关的……
机器学习数学基础之向量:向量空间
2.1 向量空间
向量空间是线性代数中的一个基本概念,主要由向量组成,这些向量具有相似的属性。向量空间的定义包括两个主要部分:集合和操作。
向量空间的定义……
机器学习数学基础之向量:基本运算
向量是数学中描述既有大小又有方向的量。在几何学中,我们通常将向量想象成从一点指向另一点的箭头。这个箭头的长度代表向量的大小,而指向代表向量的方向。
FastGraphRAG 如何做到高达 20%优化检索增强生成(RAG)性能优化
检索增强生成(RAG)被广泛用于构建基于知识的生成系统。然而,随着知识库规模的增长,如何高效检索并生成相关内容成为一大挑战。本文将带你深入了解 FastGraphRAG 这一创新工具,它通过经典 PageRank 算法的巧妙应用,为提升 RAG 系统性能提供了全新解决方案。
深度学习框架PyTorch有多厉害?不要太爽!
PyTorch真的特别好上手,代码写起来也很pythonic。不过这才是冰山一角,后面还有 数据加载 、 模型部署 、 分布式训练 等更多好玩的东西等着你去发现呢。赶紧动手试试吧,你会发现用PyTorch写深度学习代码简直不要太爽!
检索增强生成(RAG)技术解密:AI如何融合记忆与搜索
检索增强生成(RAG)通过使 AI 能够实时“咨询外部来源”来解决这个问题,就像学生在开卷考试中参考教科书一样。这种检索和生成的混合方法使 RAG 能够产生更准确、上下文相关和最新的回答。
微软:RAG(Retrieval-Augmented Generation)四个级别深度解析
微软研究的RAG四个级别不仅体现了LLMs需要理解的复杂性和多样性,也指明了各个层次的关注点。前两个层次主要聚焦于事实信息的检索,无论是直接呈现的还是需要基本推理得出的;而后两个层次则将重点转向了LLMs学习和应用数据背后逻辑的能力。
提示词工程(Prompt Engineering)的发展历程
提示词工程是AI技术与人类创造力的完美结合。从GPT-1的问世到GPT-4o的发布,它已成为人工智能发展的核心驱动力之一。如果你想让AI为你所用,学习提示词工程将是最直接的入门方式!
TensorFlow静态图与PyTorch动态图有什么不同?
TensorFlow和PyTorch以其强大的功能和广泛的应用成为了两大主流框架。它们之间的一个核心区别在于对计算图的处理方式:TensorFlow采用静态图,而PyTorch则使用动态图。PyTorch的动态图在自然语言处理、计算机视觉等领域的研究中被广泛使用,尤其是在需要动态网络结构的场景中,如条件模型和变长序列处理。
Andrew Ng 揭秘未来 AI:从 ChatGPT 到 AgentGPT
AgentGPT 时代已经来临!大型语言模型(LLM)正经历从“问答机器”到“自主行动者”的革命性转变,Andrew Ng 预言这将带来 10 倍效率提升!开发者正通过 Prompting 和 Fine-tuning 等技术探索其应用潜力,未来 Agentic 功能将更深度集成到 LLM 中,开启智能新篇章。
PyTorch Lightning解密:深度学习代码量减少60%
Lightning真是省心省力的好东西。代码写起来超级整洁,功能还贼全。不过刚开始用的时候可能会有点不习惯,毕竟跟原生PyTorch的写法差挺多。但是习惯了之后,真的是爽到飞起。建议大家有空试试看,保证让你的代码量直接砍掉一大半!
值得关注的25 个检索增强生成 (RAG) 模型和框架
NLP 的不断发展,这些创新的 RAG 模型将在提高基于语言的 AI 系统的准确性、效率和上下文相关性方面发挥关键作用。了解每种 RAG 变体的独特机制和优势,使开发人员和研究人员能够选择和定制最适合其特定需求的模型,从而推动 AI 在众多领域提供精确、可靠和上下文感知信息的能力向前发展。
彻底搞懂NLP自然语言处理:词嵌入(Word Embedding)
词嵌入(Word Embedding)是NLP中的一个关键技术,它能够将词汇从离散的符号表示转换为连续的向量表示,从而方便后续的深度学习模型进行处理。
深入剖析大语言模型能力边界:LLM擅长与不擅长的地方
大语言模型(LLMs)凭借其在语言生成、文本理解、知识问答、语言翻译等多个领域的卓越能力,已经在内容创作、智能客服、语言学习、科研、商业决策等众多实际应用中发挥着重要作用,为人们的生活和工作带来了极大的便利和创新。