大语言模型中的涌现现象是不是伪科学?
Datawhale干货作者:平凡@知乎,诺桑比亚大学,在读博士今天晚上,花了一点儿时间看了两篇文章:《Emergent
Datawhale干货
(资料图)
作者:平凡@知乎,诺桑比亚大学,在读博士
今天晚上,花了一点儿时间看了两篇文章:
《Emergent Abilities of Large Language Models》[1]
《PROGRESS MEASURES FOR GROKKING VIA MECHANISTIC INTERPRETABILITY》[2]
这两篇讲的都是emergent behavior,即涌现现象。
大规模神经网络下的涌现现象在机器学习中使用大规模神经网络时,由于增加了参数数量、训练数据或训练步骤等因素,出现了定性上的新能力和性质,这些能力和性质在小规模神经网络中往往是不存在的。
第一篇文章举了这个例子,每个图都可以理解为一个任务,横轴是神经网络的规模,而纵轴是准确率,可以理解为模型的性能。
我们拿图一来看,在10的22次方前,这些模型基本上的性能基本上都很稳定在0附近,而在10的22以后,突然在10的24次方上获得了很大的性能提升,在其他的几个任务上都表现出类似的特征。
意想不到的效果第二篇文章更是有趣,我直接把推特一位博主的评论引用在这里:
作者发现,当我们训练用网络计算同余加法 a+b = ? (mod c) 时,网络在某个时间突然获得了 100% 准确率。分析发现,神经网络实际上“顿悟”了使用傅立叶变换来计算同余加法!这个算法可以证明是正确的, 反人类直觉的。
从这俩例子里面我的感受是,只要数据量足够且真实,且模型没有硬错误的前提下,不断的训练说不定真的能够产生一些意想不到的效果。
还有就是我觉得人类现在积累的知识并不少,但是系统的少,零星的多,如果类似ChatGPT这样的大模型可以拿所有的人类已有知识进行不断学习的话,我觉得有很大概率会让它涌现出意想不到的能力。
甚至可能把人类的生产力解放提前很多。
参考
1.https://arxiv.org/pdf/2206.07682.pdf
2.https://arxiv.org/pdf/2301.05217.pdf
标签:
Datawhale干货作者:平凡@知乎,诺桑比亚大学,在读博士今天晚上,花了一点儿时间看了两篇文章:《Emergent
蓝思科技2023年第一季度净利6454 86万其他收益增加2023 4 2420:31:04挖贝网于彤挖贝网4月24日,蓝思科技(300433)发
本次泰国赛张本美和报名了女单、女双、混双三个项目,但正如笔者之前所预测的,她在女双上的优势最小,因为
本田缤智可以换原厂机油,也可以使用其他品牌相关的机油,如壳牌、美孚、嘉实多这三大品牌的机油都挺不错。
和朋友一起开车旅游真的不要太爽!其实这次旅行也是一场说走就走的,前一天晚上决定的第二天就带上行李出发
美银证券称,维持长城汽车“中性”评级,预计强大的新车型销售时间表,将帮助其超越行业,但因转型至新...
1、1、内存:除使命召唤10和11需要至少6GB内存以外,其他版本4GB内存即可满足要求。2、2、CUP:高于3 0GH
4月22日,由广东省中医药局主办,南方医科大学中西医结合医院承办,江门市卫生健康局、鹤山市卫生健康局、
4月24日,福耀集团在其官微发布声明称,近期,网络上出现“曹德旺炮轰特斯拉涨薪”“宁愿捐款也不涨薪”...
中原网讯(赵文源通讯员旦亚平彭筱叶)4月21日,郑州高新区中小学心理健康教育优质课暨单元整体教学课堂观摩