分类: 数据科学及AI人工智能
大模型性能测试全指标、计算方法及优化指南
大模型技术的快速发展中,我们看到智谱、文心一言、千问、豆包,以及最近备受关注的 DeepSeekV3 等主流模型逐渐涌现。以下,我将从五个核心维度出发,深入解析这些大模型的性能指标及其优化方向。
Sklearn机器学习递归特征消除(RFE)强大特征选择
特征选择是机器学习中的一个至关重要的过程。选择数据集最相关的特征可以提高机器学习算法的效率,使其占用更少的内存空间和运行时间。递归特征消除(Recursive Feature Elimination,RFE)是一种强大特征选择算法。
GPU为什么对AI人工智能如此重要!
GPU 之所以能在 AI 领域大放异彩,其核心在于并行计算能力。并行计算,才是推动 AI 快速发展的核心动力。并行计算的发展趋势也不仅仅局限于 GPU,随着技术的进步,专用的加速硬件如 TPU(张量处理单元)和 NPU(神经网络处理单元)相继涌现。
深度学习图解:张量的运算
神经网络中的数据通常以张量的形式表示,这些张量运算通过矩阵乘法、向量点积等线性代数运算来实现,对于模型的训练、推理和特征提取等任务至关重要。
在神经……
Python 有哪些数据处理库和AI机器学习模块?
Python 拥有丰富的生态系统,提供了众多的数据处理库和模块,可以满足从简单到复杂的各种需求。以下是 Python 中一些其他重要的数据处理库和模块:
深度学习图解:导数和梯度
梯度是一个向量,它指向函数值增加最快的方向。在梯度下降算法中,我们需要找到函数值减小的方向,因此沿着梯度的反方向进行迭代更新参数是一个有效的策略。
线性变换与矩阵关系在机器学习中的应用
矩阵是线性代数中的另一个核心概念,它是一个按照长方形排列的复数或实数的集合,通常用于表示线性方程组、线性变换以及向量空间中的其他操作。矩阵具有多种性质,如加法、乘法、转置、逆等,这些性质使得矩阵成为解决线性问题强有力的工具。
大模型开发技术前置处理之——特征提取
在学习大模型技术的过程中,每个人应该都听过特征提取;但大部分人可能并不了解什么是特征提取,以及特征提取的方法和作用。
NumPy random 模块随机数生成常用方法汇总
使用 random.seed() 函数可以设置随机数生成器的种子。设置相同的种子可以保证每次运行程序时生成的随机数序列相同,这在需要重复实验或调试程序时非常有用。
AI技术架构:开发、训练、部署全链路深度解析!
本文基于AI技术架构全景图,详细解析了AI开发工具、AI平台、AI算力与框架、智能运维等四大部分。只有构建一个完善的AI架构,企业才能确保AI系统高效运行,实现真正的商业价值。
什么是神经网络?PyTorch和架构Transformer的区别和联系
PyTorch和Transformer的关系就是工具和理论的关系;没了工具就无法制造出神经网络,而没有理论神经网络就无法解决实际问题;这里PyTorch就是制造神经网络的工具;而Transformer就是让神经网络能够正常运行的理论。
Python实现特征工程的艺术:特种选择策略详解
特征工程是机器学习中的一项关键技术,它直接影响模型的性能和解释性。通过删除未使用的列、处理缺失值、选择相关性高的特征、控制共线性、利用模型系数和p值、以及应用自动化特征选择技术,我们可以显著提高模型的预测能力和泛化能力。
分类模型混淆矩阵:从枯燥到精美的可视化升级
如何通过数据可视化技巧对混淆矩阵进行美化。在保持信息完整性的基础上,我们将利用颜色映射、文字标注等方式,让混淆矩阵更加清晰直观,从而提升其在报告和展示中的表达效果。
深度学习图解:数据蒸馏和知识蒸馏
知识蒸馏从多个已经训练好的大型模型中,将知识转移给一个轻量级的模型。它主要关注于模型之间的知识传递,通过利用教师模型的输出(如概率分布或中间特征)作为软目标,来指导学生模型的训练。
数据挖掘关键步骤:数据预处理的步骤与技巧
数据挖掘项目中,数据预处理常常是耗时最长、最繁琐的步骤,但它对于最终结果的影响是决定性的。数据预处理包括数据清洗、数据集成、数据转换和数据降维等多个环节,每个环节都是提升数据质量和可用性的关键。
大模型技术之嵌入与向量化的区别是什么?
嵌入(Embedding)和向量化(Vectorization)是机器学习和自然语言处理中的两个重要概念,虽然它们都与将数据表示为向量有关,但在概念、应用和实现上有显著的区别。
数据挖掘入门:关键步骤、工具和技术
数据挖掘,或称知识发现,是从大量数据中提取有价值信息的过程。它不仅仅是简单的数据分析,而是一个涉及数据预处理、模式识别、模型构建和知识评估的复杂过程。
Python项目实战:用机器学习预测明天的天气!
我们从零开始完成了一个基于机器学习的天气预测项目,包括数据获取、预处理、建模、评估与优化等完整流程。
PYTHON机器学习数学基础:矩阵基本知识
矩阵的秩是线性无关的列的数量或行的数量。若只看矩阵的行,那么秩就是这些行中线性无关的行的数量,称为行秩;若只看矩阵的列,那么秩就是这些列中线性无关的列的数量,称为列秩。
Transformer模型的多头注意力机制,通俗讲解
我们在最初理解时,就把Q、K、V当做是三组输入张量,就可以了!并且对于输入给解码器的多头自注意力的Q、K、V,还都来源于一个张量x!
卷积神经网络(CNN)原理,是如何卷的?
卷积神经网络(CNN)通过使用卷积层来提取图像数据的局部特征,再通过池化层(Pooling Layer)来降低特征的空间维度,最后通过全连接层(Fully Connected Layer)进行分类或回归任务。
Pytorch实战Transformer算法之注意力机制
注意力机制是 Transformer 模型中最核心的部分。概念上,它是通过一个查询(query)与一组键值对(key-values)进行运算,最终生成一个输出。通过矩阵运算,可……
过拟合vs欠拟合:机器学习模型的‘减肥’与‘增肌’
欠拟合是指模型在训练数据上的表现就不够好,无法捕捉数据的基本结构,因此对训练集和测试集的预测都不准确。过拟合与欠拟合是机器学习中的一对“孪生难题”,它们考验着每一个数据科学家的智慧与耐心。
机器学习简史,理解深度学习的起源与重要性
深度学习并非总是解决问题的最佳方案:缺乏足够数据时,深度学习难以施展;某些情况下,其他机器学习算法可能更为高效。