文心一言、讯飞星火、ChatGPT大模型的横向比较

2024-02-1709:05:57人工智能与大数据Comments505 views字数 2001阅读模式

文心、讯飞、ChatGPT大模型的横向比较分析发现,大模型最终的优异表现依赖于模型规模的突破。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

通过比较不同规模的大模型,分析发现大模型的强大生成能力主要源自模型的参数量级的飞跃。尽管方法论上大同小异,但参数量的指数级增长是实现质的飞跃的关键所在。“大力出奇迹”可以说是大模型取得辉煌成就的最本质原因。模型越大,所包含的知识量和拟合复杂分布的能力就越强,也就能产生越逼真的生成结果。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

文心一言

文心一言、讯飞星火、ChatGPT大模型的横向比较
https://yiyan.baidu.com/

文字理解回答能力文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

文心一言、讯飞星火、ChatGPT大模型的横向比较文心一言、讯飞星火、ChatGPT大模型的横向比较文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

海报设计假如你是一名海报设计师,需要给浦发银行设计一个宣传海报。 浦发银行要举办 2023上海半程马拉松,活动时间:2023年3月9日到2023年3月31日;活动内容: 活动期间在上马APP或官网,通过支付宝绑定浦发银行借记卡支付报名费,可享受立减60元优惠文心一言、讯飞星火、ChatGPT大模型的横向比较文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

社会关系推理文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

小明的爸爸妈妈结婚,没有邀请小明,小明会生气么?文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

文心一言、讯飞星火、ChatGPT大模型的横向比较
在这里插入图片描述

讯飞星火

文心一言、讯飞星火、ChatGPT大模型的横向比较
https://xinghuo.xfyun.cn/

文心一言、讯飞星火、ChatGPT大模型的横向比较文心一言、讯飞星火、ChatGPT大模型的横向比较文心一言、讯飞星火、ChatGPT大模型的横向比较文心一言、讯飞星火、ChatGPT大模型的横向比较文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

海报设计文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

假如你是一名海报设计师,需要给浦发银行设计一个宣传海报。 浦发银行要举办 2023上海半程马拉松,活动时间:2023年3月9日到2023年3月31日;活动内容: 活动期间在上马APP或官网,通过支付宝绑定浦发银行借记卡支付报名费,可享受立减60元优惠文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

文心一言、讯飞星火、ChatGPT大模型的横向比较社会关系推理文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

小明的爸爸妈妈结婚,没有邀请小明,小明会生气么?文心一言、讯飞星火、ChatGPT大模型的横向比较文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

ChatGPT

文心一言、讯飞星火、ChatGPT大模型的横向比较
在这里插入图片描述

小明的爸爸妈妈结婚,没有邀请小明,小明会生气么?文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

文心一言、讯飞星火、ChatGPT大模型的横向比较
在这里插入图片描述

BERT大模型原理

• 2018年,Google推出了Bert 模型,碾压了以往的所有模型,在各种NLP的建模任务中取得了最佳的成绩 => NLP 领域步入 LLM 时代。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

文心一言、讯飞星火、ChatGPT大模型的横向比较
在这里插入图片描述

BERT采用完形填空作为预训练:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

文心一言、讯飞星火、ChatGPT大模型的横向比较空格处填什么字,受到上下文影响Bert的预训练 就是从大规模的上亿文本预料中,随机Mask一部分字,形成上面的完形填空题。通过训练,让模型具备从大量的数据中学习复杂的上下文联系的能力。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

ERNIE大模型原理

ERNIE 1.0的改进:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

基于phrase (比如短语a series of等)的mask策略基于entity (比如人名,位置,组织,产品等名词比如Tsinghua University, J. K. Rowling)的mask 策略相比于BERT 基于字的mask,在ERNIE 当中,由多个字组成的phrase 或者entity 当成统一单元,统一被mask。这样可以潜在的学习到知识的依赖。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

ERNIE 2.0文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

在ERNIE 2.0 中,提出了一个预训练框架,可以在大型数据集合中进行增量训练,即连续学习(Continual Learning)连续学习的目的是在一个模型中顺序训练多个不同的任务,这样可以在学习下个任务中,记住前一个学习任务学习到的结果。使用连续学习 => 不断积累新的知识文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

文心一言、讯飞星火、ChatGPT大模型的横向比较ERNIE 3.0文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

知识增强的大规模预训练模型结合了自回归网络和自编码网络,这样训练出来的模型就可以通过zero-shot学习、few-shot学习或微调来处理自然语言理解和生成任务用100亿个参数对大规模知识增强模型进行预训练,并在自然语言理解和自然语言生成任务上进行了一系列的实验评估ERNIE 3.0在54项基准测试中以较大的优势胜过最先进的模型,并在SuperGLUE基准测试中取得了第一名。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

ERNIE预训练模型:https://github.com/PaddlePaddle/ERNIE文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

文心一言、讯飞星火、ChatGPT大模型的横向比较
在这里插入图片描述

GPT大模型原理

GPT 与 BERT的区别:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

• Bert 使用 Encoder 编码器进行训练,适合文本理解文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

• GPT 使用 Decoder 解码器,更适合文本生成领域文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

GPT-1 略逊色于 Bert,当时Bert影响力更大文心一言、讯飞星火、ChatGPT大模型的横向比较文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

GPT-2 模型:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

• Bert霸榜NLP之后,又有很多新模型推出,比如:ERNIE, ALBert, BART, XLNET, T5等。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

• Bert预训练主要是完形填空,和预测下一个句子。后来很多模型增加了 多个预训练任务句子打乱顺序再排序、选择题、判断题、改错题、甚至把机器翻译、文本摘要、领域问答都放到了预训练任务中=> 模型类似人脑,多种任务:看新闻,听音乐,读古诗,写文章,做数学题等文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

GPT-3 模型:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

  • GPT-3模型参数量是1750亿,计算量是 bert-base的1000倍,在NLP多个任务中表现优秀,比如写SQL语句,JavaScript代码。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html
  • GPT-3的训练覆盖了STEM、人文科学、社会科学、数学、历史、法律等57门学科。难度从初级到高级专业水平不等。在这个基础上1750亿参数的GPT-3模型达到了43.9%准确率,而130亿参数的模型只有25%的准确率文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html
文心一言、讯飞星火、ChatGPT大模型的横向比较
大力出奇迹,参数量越大,效果越好
  • Prompt引导学习的方式,在超大模型上有很好的效果:只需要给出one-shot 或者few-shot,模型就能照猫画虎地给出正确答案。

这里10多亿参数的大模型是不行的,1000亿以上参数的模型效果好。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html

文心一言、讯飞星火、ChatGPT大模型的横向比较
文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/60162.html
  • 本站内容整理自互联网,仅提供信息存储空间服务,以方便学习之用。如对文章、图片、字体等版权有疑问,请在下方留言,管理员看到后,将第一时间进行处理。
  • 转载请务必保留本文链接:https://www.cainiaoxueyuan.com/ai/60162.html

Comment

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

确定