从GPT到“草莓”:OpenAI的野心与安全困境
从GPT到“草莓”:OpenAI的野心与安全困境此前(qián),一道低难度的数学(xué)题——9.11和9.9哪个更大,难倒了一众海内外AI大模型,也让(ràng)外界了解到了大模型在推(tuī)理 方面的局限性。
不过,情况正(zhèng)在迅速发生(shēng)改变。当地时间8月27日,据The Information报道,OpenAI神秘的“草(cǎo)莓”(Strawberry,前身为Q*)项目,计划最早于(yú)今(jīn)年秋季推(tuī)出。同时,用“草(cǎo)莓”合成数据来(lái)开发的最新大模型——“猎户座”(Orion),或于明年年初推出。
The Information援引知情人士的 消息称,今年夏天,在秘密会议上,OpenAI向美国国家安全(quán)官员展(zhǎn)示了(le)“草莓”模型。
推理能力出众
据(jù)The Information报道,参与OpenAI该项目的两(liǎng)名人员透露,研究人员计划在今年(nián)秋季推出代号为“草莓”的新型AI,并有可能将其作为(wèi)ChatGPT的一部分。
据悉,OpenAI希望通过推出“草(cǎo)莓”为(wèi)公(gōng)司筹集更多资金,并寻找减少亏损的方法。此前,据媒(méi)体报道,OpenAI今年(nián)的亏损可能(néng)高达50亿美元。
据前述外媒(méi)报道,“草(cǎo)莓”目前的功能极其强大。它可以解决此(cǐ)前从未见过的数(shù)学问题(tí),这是当(dāng)前的聊天机器人无法可靠完成的任务。它还(hái)可以解(jiě)决涉及编程的问题,且不局限于(yú)回(huí)答技术(shù)性问(wèn)题。如果给予它更(gèng)多时间“思考”,“草莓”模型还(hái)可以(yǐ)回答用(yòng)户更“主观(guān)”的问题,例如产品营销策略。
为了展示“草莓”在(zài)语(yǔ)言方面的实力,研究人员向OpenAI内部同事展示了“草(cǎo)莓”如何解(jiě)决《纽约时报》上刊(kān)登的复杂字谜游戏。
现(xiàn)有的人工智(zhì)能并不擅长解决航空航天和结构工程等(děng)数学(xué)密集(jí)型领域的问题,因此,解决棘手数学问题的AI可能 是一个潜(qián)在有利可图的应用。为了提高模型的推理能力,一(yī)些(xiē)初创(chuàng)公司尝试将问题分解为更小的步骤(zhòu),但这些办法既慢又贵。
数学推理能力的提(tí)升也有助于(yú)AI模型更好地处理对话查询,例如客户服务请求。这或许对OpenAI即将推出的AI代理(lǐ)服务将起到帮助。
不仅是OpenAI,人工智能领(lǐng)域的其他主要(yào)参与者也在数学推(tuī)理方面取得了(le)长足进步。例如,谷歌DeepMind 最近开发了AlphaProof和AlphaGeometry 2,这是两个用于高级数学推理的AI系统。两个系统协同(tóng)工作,在2024年国际数学奥(ào)林匹克竞赛(sài)中获得银牌(pái),解决了六道题中的四道。
可帮助训练大模型
对OpenAI,“草莓”不(bù)仅是一 个(gè)即将要(yào)向外界推出的商(shāng)业模型,它(tā)还被赋予了更重要的(de)使命。
一(yī)位知情人士(shì)向The Information表示,OpenAI在使(shǐ)用更大版本的“草(cǎo)莓”来生成训练下一代旗舰模型“猎户座”(Orion)的数据。该模型旨在改进其现有(yǒu)的旗舰模型GPT-4并帮助OpenAI领先其他资金雄厚(hòu)的(de)竞争对(duì)手,争夺对话(huà)式(shì)AI或大(dà)型语言模型的霸主地位。
GPT-4自2023年(nián)3月推(tuī)出后,就成为一个(gè)改变游戏规则的大型(xíng)语言模型。然而,在过去18个月中,竞争对手(shǒu)已基(jī)本追赶上来。在某些情况下,甚至超越了OpenAI的最新模型(xíng)。
知情人士表示,这种由人工智能生成的 数(shù)据被(bèi)称为“合成数据(jù)”。这意味着“草莓”可以帮助OpenAI克(kè)服获取足(zú)够高质量数据的(de)限制,从(cóng)而利用从(cóng)互联网上提(tí)取的文本或图像等现实(shí)世界数据来(lái)训练新(xīn)模(mó)型。
代理初创公司Minion AI CEO、GitHub Copilot前首席架构师亚历克斯·格雷(léi)夫利表示,使用“草莓”生成(chéng)更高质量的训练(liàn)数(shù)据可以帮助OpenAI减少其模型(xíng)产生(shēng)的错误数量,即所谓的幻觉。幻觉是当前生成式AI的一个重 大限制,这(zhè)会导致AI经常生成看似合理但实际(jì)上不(bù)正确的数据。
“想象一下,一个没有幻觉的模型,你问它 一个逻辑难题(tí),它第一次尝试就能答对(duì)。”格雷夫利说道。该模型之所以(yǐ)能够做到这(zhè)一点,是因为“训练数据中的歧义较少,所(suǒ)以它猜测的(de)次数较(jiào)少”。
据The Information报道,OpenAI首席(xí)执行官阿尔(ěr)特(tè)曼在(zài)5月份的(de)一次活动中表示:“我们觉得我们拥(yōng)有足(zú)够的(de)数据来开发下(xià)一个模型。我们已经(jīng)进(jìn)行了各种实验(yàn),包括生成合成数据。”据(jù)报道,他指(zhǐ)的可能就是用“草莓”训练(liàn)的Orion(猎户座)。
安全隐患(huàn)乌云未(wèi)散
不过,就在OpenAI高歌猛进的同时,安(ān)全隐患(huàn)的乌云从未散去。
“草莓”项目源于前OpenAI首席科学家Ilya Sutskever的早期研究,OpenAI研究人员(yuán)Jakub Pachocki和Szymon Sidor在Sutskever的工作基础(chǔ)上开(kāi)发了一种新的(de)数学求解模型Q*。
而2023年底,有关OpenAI的Q*项目消息泄露(lù)时,一(yī)些专家将该技术定性为人工智能(AGI)的突破(pò),但人们对它知之甚少。这也让一些专注于人工智能安全的研究人员感到震惊。
这件事情发生在去年OpenAI罢免阿尔特曼事件之前。据知情(qíng)人士(shì)爆料(liào),此(cǐ)前OpenAI员工之间就公司是否(fǒu)以足够安全的方式开(kāi)发人工智(zhì)能展开了争论。安全也(yě)是罢免阿尔特(tè)曼后公司内部(bù)损(sǔn)害控制的一个重要主题,当时罢免的发起人正(zhèng)是Sutskever。
此后,安(ān)全(quán)问题就一直困扰着OpenAI。而在阿尔特曼重返(fǎn)OpenAI后,负(fù)责(zé)OpenAI安全团队的成员也相(xiāng)继离开(kāi)了公司。
今年5月离职的OpenAI“超级对(duì)齐”团队领导人Jan Leike在社媒(méi)平台X上写道:“过去几年,安(ān)全文化和流程已经退居次要地位,而闪亮的产品则成(chéng)为重中之重。”
鉴于今年早些时(shí)候几位安全部门领导人离职,以及美(měi)国参议员伊丽莎(shā)白·沃伦等美(měi)国政府高官对于技术安全问题的(de)批(pī)评,OpenAI决定提升对政府(fǔ)官员的透明度。
The Information援引一位了解相关会议情况人(rén)士(shì)的消息称,今年夏天,在一些并未公开 的会议上,阿尔特曼的团队向美国国家安全官员(yuán)展示了“草莓”模型。
报道指从GPT到“草莓”:OpenAI的野心与安全困境出,通过向政府官员展示(shì)一项(xiàng)尚未发布的技术,OpenAI可能为(wèi)人工智能开(kāi)发者(zhě)树立了新标准,尤其是在先进(jìn)人工智能日益成为潜 在安全隐(yǐn)患的今天。此次演示可能是OpenAI努力向政(zhèng)策制定者提高透(tòu)明度的一部分,但如(rú)果(guǒ)政策制定者认为该项技术对(duì)国家安全形成威胁(xié),那么他们可能给公司带来麻烦。
不过,一些业界人士(shì)对(duì)此并不买账,因为OpenAI并未向公众提升透明度。AI初创公司Abacus. AI的CEO Bindu Reddy表示,OpenAI将他们最好的大模型藏在背后,以此来取得领先优势。“如(rú)果没有开(kāi)源AI,我们都会完蛋,我们可能会把文明的(de)控制权交给1到2家(jiā)公(gōng)司。”Bindu Reddy说。
未经允许不得转载:廊坊云威节能建材有限公司 从GPT到“草莓”:OpenAI的野心与安全困境
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了