66读书

手机浏览器扫描二维码访问

本站广告仅展示一次,尽可能不去影响用户体验,为了生存请广大读者理解

大语言模型(llm):ai“读懂”语言的核心(第11页)

2018年是大语言模型发展的重要一年,Google和OpenAI分别提出了BERT - 1和GPT - 1模型,开启了预训练语言模型时代。BERT是一种双向、3.4亿参数的模型,通过自监督学习对各种非结构化数据进行预训练,能有效理解单词之间的关系,迅速成为自然语言处理任务的首选工具;GPT - 1则基于Transformer架构,通过生成式预训练方式,展现出一定的语言生成能力 。

此后,模型的参数量和性能不断提升。2019年,OpenAI发布GPT - 2,参数量达到15亿;同年,Google发布参数规模为110亿的T5模型。2020年,OpenAI将语言模型参数量扩展到1750亿,发布了GPT - 3,它在多种自然语言处理任务上表现出色,无需针对特定任务进行大量训练,就能完成文本生成、翻译、问答等任务,引发了学术界和工业界的广泛关注 。

(三)能力探索与爆发期:应用拓展与快速发展

从2019年到2022年,研究人员开始深入探索如何在不针对单一任务进行微调的情况下,充分发挥大规模语言模型的能力。2019年,Radford等人使用GPT - 2模型研究了大规模语言模型在零样本情况下的任务处理能力;Brown等人在GPT - 3模型上研究了通过语境学习进行少样本学习的方法,并推出指令微调方案,将大量各类型任务统一为生成式自然语言理解框架,并构造训练语料进行微调 。

2022年,Ouyang等人提出了使用“有监督微调+强化学习”的InstructGPT算法,进一步提升了模型对人类指令的理解和执行能力。同年11月,ChatGPT发布,它通过简单对话框,就能实现问题回答、文稿撰写、代码生成、数学解题等多种功能,让大语言模型真正走进大众视野,引发全球关注和广泛应用。

这章没有结束,请点击下一页继续阅读!

2023年3月,GPT - 4发布,相较于ChatGPT又有明显进步,具备多模态理解能力,在多种基准考试测试上的得分高于88%的应试者。从2022年开始,大模型呈现爆发式增长,各大公司和研究机构纷纷发布自己的大语言模型系统,如Google推出的Bard、百度的文心一言、科大讯飞的星火大模型、智谱ChatGLM、复旦大学MOSS等,在不同领域和场景中得到应用和验证 。

2024年3月18日,马斯克的AI创企xAI正式发布大模型Grok - 1,其参数量达到了3140亿,远超OpenAI GPT - 3.5的1750亿,成为迄今参数量最大的开源大语言模型,遵照Apache 2.0协议开放模型权重和架构,为大语言模型的发展注入新的活力,也推动了开源社区的发展和创新 。

五、大语言模型面临的挑战:前进路上的绊脚石

尽管大语言模型取得了巨大的进展,但在实际应用中,仍然面临着诸多挑战,这些挑战限制了模型的性能和应用范围,也是当前研究人员努力攻克的方向。

(一)“幻觉”问题:生成内容与事实不符

“幻觉”是大语言模型最常见的问题之一,指模型生成的内容看似合理,但与事实不符。比如,当被问到“爱因斯坦获得过几次诺贝尔文学奖”时,模型如果回答“1次”,就出现了“幻觉”,因为爱因斯坦是物理学家,获得的是诺贝尔物理学奖,与文学奖毫无关系 。

这种问题的产生,主要是因为模型基于训练数据中的模式和统计规律生成文本,而非真正理解语义和事实。如果训练数据存在偏差、错误或不完整,模型就可能学到错误的信息,从而在生成文本时产生“幻觉”。此外,模型在处理复杂问题或需要精确知识的场景时,也容易出现“幻觉”,因为它难以准确判断哪些信息是可靠的,哪些是不可靠的 。

(二)逻辑推理能力不足:复杂逻辑判断易出错

虽然大语言模型在语言生成和理解方面表现出色,但在处理复杂逻辑推理问题时,仍然存在明显不足。例如,对于一些需要多步推理、因果关系分析或数学证明的问题,模型可能会得出错误的结论。比如,在解决数学问题“一个数加上5等于10,这个数是多少”时,模型可能会正确回答“5”,但对于更复杂的问题,如“有一个数列,前三个数分别是1、3、6,请问第五个数是多少(该数列规律为相邻两项差值依次为2、3、4……)”,模型可能就无法准确推理出答案“15” 。

这是因为逻辑推理需要对问题进行深入分析、理解和运用规则,而目前的大语言模型主要是基于数据驱动的学习方式,缺乏对逻辑规则的显式表达和推理能力。它们更多地依赖于记忆和模式匹配,而不是真正的逻辑思考,因此在面对复杂逻辑问题时容易出错 。

(三)数据质量与隐私问题:数据是“双刃剑”

大语言模型的训练依赖于海量数据,数据的质量和隐私问题成为不容忽视的挑战。一方面,低质量的数据,如包含错误信息、偏见、重复内容的数据,会影响模型的学习效果,导致模型学到错误的知识或产生偏见。例如,如果训练数据中存在大量对某个特定群体的负面描述,模型可能会学习到这种偏见,并在生成文本时表现出来 。

另一方面,数据隐私也是一个重要问题。训练数据中可能包含用户的个人信息、敏感数据等,如果这些数据在收集、存储和使用过程中没有得到妥善保护,就可能导致数据泄露,侵犯用户隐私。此外,一些数据可能受到版权保护,未经授权使用这些数据进行模型训练,还可能引发法律纠纷 。

(四)计算资源需求巨大:训练成本高昂

热门小说推荐
虚伪王权

虚伪王权

关于虚伪王权:误入异世的大学生阴错阳差投身到了一个贫民的身上,而这个贫民又在机缘巧合之下假冒了公爵的儿子。主角带着虚伪的假面,游走在各方势力之间,他最终将以何种身份面对世人,是否依靠虚假的身份获...

美食之末世求生

美食之末世求生

末世重生有丧尸有美食有空间有种田有自然型天气环境灾害 郑砚重生回末世一年前,空间在手,美食我有。 一边收拾极品亲戚,一边收集各地特色小吃,酸辣粉、灌汤包、热干面、手抓饼、麻辣烫、酸菜面、烤面筋、酥油饼……等等 武力值爆表狠毒寡言护短攻VS好吃仓鼠(储藏食物)受。 提示: ①本文慢热种田,好人比坏人多。 ②主受,主角好吃嘴,常有美食出没。护短攻,攻宠受,受是攻的短。 小剧场卖萌: 郑砚:“你觉得和我在一起之前,和在一起之后,有什么变化?” 霍贤想了想,说:“之前后顾无忧,之后后顾有忧。” “……”郑砚:“我有手有脚能吃能喝,你忧什么啊!” 霍贤道:“怕你渴怕你饿,怕你冷怕你热,怕你事少闲着怕你事多累着……等。” 郑砚:“……”...

折金钗

折金钗

人人都说沈家三小姐是出了名的蠢笨,正室出身最后却落得个惨死异国他乡的下场。重活一世,沈乐窈决定不再畏首畏尾活下去。世人都道江云岫是北齐手段最为毒辣之人,她偏要借他毒辣双手除掉害她惨死的姨娘庶妹。春雨连绵,九重宫阙困情深。长风骤起,斩断前世浮华梦。...

赘妻(女尊)

赘妻(女尊)

本文原名《所有人都把我当废物》 松花镇落水村近些时日来了个怪女人。 怪女人美的恍若九天洛神,却既懒又弱,瘦的盈盈一握,连饭也吃不上。 村里人都以为她会饿死在崂山。 却不料…… 肩能扛,手能提,外能经商,内上得了厨房,十里八乡莫不称赞一声“能干”的小哥儿祝明奕,默不作声的与崂山懒女成了亲。 村人们叹气:这么好的哥儿,怎么就想不开…… 无能女谢琼暖:呵呵!我到底做了什么让你们把我当成废物? ―― 起初,被迫成亲的祝明奕:她那么弱,我一定得更加努力挣银钱,不然饿死她怎么办? 后来,他发现,他莫不是找了个有福妻主,自从成了亲,家里的银两越来越多,生活越来越好。 他们甚至有了去县里生活的银钱。 可是……好景不长。 瑞康四年,九江发生了一场铺天盖地的蝗灾,蝗灾之后便是连日干旱,庄家颗粒无收,饿殍遍野。 恢复记忆的他看着她莹白的侧脸,问:这普天之下,央央民众,皆是我子民,如今饿殍遍野。妻主惊世之才,可有办法助我救济苍生。 崂山懒女谢琼暖:奕哥儿,你别用这种眼神看我,我……救,还不成吗?啊? 排雷: 1.女主从末世穿越而来,自带空间异能。厌世吃货万人迷属性。 2.男主前期失忆,能干勤劳别扭小哥儿,后期恢复记忆人前霸气侧漏,人后羞涩吃醋护犊子 3.本文女尊架空,男女地位相对平等,作者不喜欢娘娘腔男人,即使有娇声娇气男人出没,后期也得被女主发配干活 4.本文1V1,男生子,小甜饼,全文无虐 5.考据党慎入。...

一辛为妾

一辛为妾

一辛为妾情节跌宕起伏、扣人心弦,是一本情节与文笔俱佳的其他类型小说,一辛为妾-勇往直前的枫叶-小说旗免费提供一辛为妾最新清爽干净的文字章节在线阅读和TXT下载。...

废土与安息

废土与安息

在辐射避难站出生长大到16岁的少年才第一次见到了外来者。外来者高大强壮,充满谜团,不自觉地吸引着少年的目光。直到一次意外的变异生物入侵危机,少年被外来者救下而随后产生了交集,而外来者也告诉了少年自己的秘密…… - *1V1,HE,初始背景小幅度参照游戏辐射避难站...