



依靠“ Scaling Law”(缩放规律)——即经过堆砌算力、扩展模型参数和数据量来提高功能的开展形式——或许正触及天花板
互联网上揭露可用的高质量文本、图画数据已被大型模型根本耗费殆尽。未来的数据获取本钱将急剧上升,甚至有或许引发版权和数据隐私的剧烈抵触。
“数据质量”比“数据量”更重要。单纯堆砌低质数据不只作用递减,还或许让模型功能“中毒”。
模型功能的提高速度已开端低于算力投入的上涨的速度。练习一个比当时最强模型再提高10%的模型,其本钱或许是几何级数的增加,从经济上看已不合算。
如他所说,各大科技巨子已囤积了海量算力,但怎样更高效地使用这些算力,而非一味寻求更多算力,成为新课题。
当时的Transformer架构或许潜力已近发掘殆尽。在现有架构下,单纯的扩大没有办法处理模型的实质缺点,如“错觉”问题、逻辑推理才能不行、能源耗费巨大等。
苏茨克维所指的“回归研讨”并非否定大模型的价值,而是呼吁一场新的范式革新,要点或许会集在:
对巨子公司:竞赛焦点或许从“算力军备竞赛”转向“基础研讨打破才能”。具有顶尖基础研讨实验室的公司(如OpenAI、DeepMind)的长时间价值会愈加凸显。
对草创企业:时机不再局限于练习千亿级大模型。在笔直使用、模型优化、数据清洗、新式算法等详尽区分范畴会呈现很多时机。单纯靠“咱们有个更大模型”的创业故事将难以获得出资。
对芯片和云核算公司:短期需求仍然微弱,但中长时间看,假如算法完成革新性打破,对算力增加的需求形式或许会改动。商场将更重视能效比,而不只仅是肯定算力。
对出资界:出资的人要更专业的眼光来区分什么是真实的“技能打破”,而非只是被参数量和算力耗费所招引。出资周期或许拉长,需求更多耐性支撑底层研讨。
苏茨克维的结论可视为对当时AI职业过热出资和同质化竞赛的一次“清醒剂”。假如他的预言成真,意味着AI范畴将进入一个深水区:
中长时间:职业的下一波爆发式增加,有必要等候一次类似于“Transformer”等级的基础性、架构性的研讨打破。在那之前,职业或许会阅历一个从“疯狂”到“镇定”再到“厚实立异”的调整期。
这实际上为AI的健康和可持续开展指明晰方向,即从“大力出奇观”的工程化年代,迈向一个更需求原始立异的科学驱动年代。
#工信部:深化施行“机器人+”使用举动##OpenAI联手博通!AI产业链怎样投?##本年你的出资方针达到了吗?#$安全先进制作主题股票主张C(OTCFUND019458)$$天弘中证人工智能C(OTCFUND011840)$
郑重声明:用户在财富号/股吧/博客等社区宣布的一切信息(包含但不限于文字、视频、音频、数据及图表)仅代表个人自己的观念,与本网站态度无关,不对您构成任何出资主张,据此操作危险自担。
