作者:陳彬,編輯:李墨天
6個(gè)月前,OpenAI爆發(fā)了一場(chǎng)舉世矚目的內(nèi)部斗爭(zhēng):
CEO奧特曼(Sam Altman)突然被開(kāi)除,106個(gè)小時(shí)后,又在員工的簇?fù)硐聫?fù)職。
自那之后,“刺殺國(guó)王”的始作俑者之一、首席科學(xué)家伊利亞(Ilya Sutskever),再也沒(méi)有現(xiàn)身。伊利亞是“深度學(xué)習(xí)教父”辛頓的大弟子,OpenAI的靈魂人物。消失前,他最后的工作,是帶領(lǐng)名為“超級(jí)對(duì)齊”的安全團(tuán)隊(duì)。
GPT-4o發(fā)布會(huì)之后,伊利亞突然更新推文,宣布從OpenAI離職。首席科學(xué)家的退出,加速了OpenAI的分裂。
3天后,另一位“超級(jí)對(duì)齊”的科學(xué)家簡(jiǎn)·雷克(Jan Leike),也宣布提桶跑路。簡(jiǎn)·雷克公開(kāi)爆料稱,兩人與奧特曼等高層存在嚴(yán)重分歧,安全團(tuán)隊(duì)舉步維艱。
OpenAI的文化正在“變質(zhì)”,忽視安全主義而轉(zhuǎn)向“閃亮的產(chǎn)品”。
陸續(xù)有技術(shù)大牛選擇離開(kāi)。
一位OpenAI員工對(duì)著媒體說(shuō)道,“注重安全的員工已經(jīng)對(duì)他失去了信心。信任正一點(diǎn)點(diǎn)崩潰,就像多米諾骨牌一張一張倒下一樣[1]?!?/p>
眾所周知,OpenAI是一家由理想主義情結(jié)捏合起來(lái)的機(jī)構(gòu)。然而,對(duì)于如何實(shí)現(xiàn)這一理想,OpenAI內(nèi)部卻漸漸衍生出了兩條不同的路線。伊利亞的離開(kāi),意味著他所代表的理想主義,已經(jīng)徹底敗給了另一種理想主義。
科學(xué)家與狂想家
2005年的一個(gè)周日,多倫多大學(xué)教授辛頓的辦公室門(mén)外,來(lái)了個(gè)不速之客。
來(lái)者是一位數(shù)學(xué)系的學(xué)生,操著一口東歐口音,表情似乎總是愁眉苦臉。彼時(shí),辛頓是極少數(shù)仍在研究深度學(xué)習(xí)的學(xué)者,并在多倫多大學(xué)組建了一個(gè)實(shí)驗(yàn)室。
這個(gè)學(xué)生說(shuō),他整個(gè)夏天都在快餐店兼職炸薯?xiàng)l,現(xiàn)在他更想來(lái)這個(gè)實(shí)驗(yàn)室工作。
辛頓打算考考這位急于展現(xiàn)自己的年輕人,給了他一份反向傳播的論文。這篇論文寫(xiě)于上世紀(jì)80年代,是辛頓最知名的研究成果之一。幾天后,這個(gè)學(xué)生回來(lái)了,問(wèn)他,“你為什么不求導(dǎo)并采用一個(gè)合理的函數(shù)優(yōu)化器?”
辛頓倒吸了一口氣,“我花了5年時(shí)間才想到這一點(diǎn)。[2]”這個(gè)學(xué)生,就是伊利亞。
辛頓發(fā)現(xiàn),伊利亞有種非常強(qiáng)大的原始直覺(jué),能靠“第六感”找到正確的技術(shù)路線[2]。因此,辛頓將伊利亞視作唯一一個(gè)比自己更“天才”的學(xué)生[3]。
并且,辛頓很快發(fā)現(xiàn),“技術(shù)天才”只是伊利亞身上的一個(gè)特質(zhì)。
與伊利亞長(zhǎng)期共事過(guò)的研究員謝爾蓋·萊文(Sergey Levine)曾說(shuō)道,他喜歡大的想法,并且從不懼怕相信?!安慌碌娜擞泻芏啵绕洳慌?。[2]”
2010年,伊利亞在閱讀了一篇論文之后,便大膽宣稱,深度學(xué)習(xí)將改變計(jì)算機(jī)視覺(jué)——只需要有人來(lái)推動(dòng)這項(xiàng)研究。在那個(gè)深度學(xué)習(xí)等同于民科的時(shí)代,伊利亞這番發(fā)言,顯然是有些倒反天罡的。
然而,他只花了2年,就打了所有人的臉。
2012年,辛頓、伊利亞以及克里哲夫斯基三人打造的AlexNet,以高達(dá)84%的圖像識(shí)別正確率,讓世界看到了深度學(xué)習(xí)的潛力,并引發(fā)了產(chǎn)業(yè)界的狂熱追逐。
那一年,谷歌花了4400萬(wàn)美元的天價(jià),只為了將AlexNet的3位作者收入麾下。
谷歌工作期間,伊利亞又開(kāi)始相信一件更宏大的事情:超越人類的超級(jí)智能,已經(jīng)近在眼前。
一方面,是因?yàn)樗l(fā)現(xiàn)深度學(xué)習(xí)的游戲規(guī)則變了。
此前,研究深度學(xué)習(xí)的只有一小撮人,資源捉襟見(jiàn)肘。2009年時(shí),辛頓曾短暫地在微軟做過(guò)一個(gè)深度學(xué)習(xí)項(xiàng)目,連一張價(jià)值1萬(wàn)美金的顯卡都申請(qǐng)不下來(lái),氣得他一頓陰陽(yáng)怪氣,“微軟顯然是家資金短缺的軟件銷售商。[2]”
然而,自AlexNet之后,無(wú)數(shù)聰明頭腦與熱錢涌入,未來(lái)被加速了。
另一方面,早在學(xué)生時(shí)期,伊利亞就堅(jiān)信Scaling laws。“第六感”告訴他,超級(jí)智能并沒(méi)那么復(fù)雜,只需要更多的數(shù)據(jù)與算力。
并且,伊利亞又一次證明了自己是對(duì)的。
2014年的NIPS學(xué)術(shù)會(huì)議上,伊利亞公布了他最新的研究成果:Seq2Seq(序列到序列)模型。Transformer誕生之前,它曾是谷歌機(jī)器翻譯的靈魂。只需要足夠的數(shù)據(jù),Seq2Seq模型就能表現(xiàn)得很好。
伊利亞在路演中提到,一個(gè)弱模型永遠(yuǎn)不可能有好的表現(xiàn)?!罢嬲慕Y(jié)論是,如果你有一個(gè)非常大的數(shù)據(jù)集和非常大的神經(jīng)網(wǎng)絡(luò),那么成功是有保證的。[4]”
科學(xué)家與狂想家這兩張面孔,在伊利亞身上迸發(fā)了神奇的化學(xué)反應(yīng)。
隨著伊利亞對(duì)超級(jí)智能愈發(fā)篤信,他對(duì)安全問(wèn)題的重視也與日俱增。沒(méi)過(guò)多久,伊利亞便遇見(jiàn)了知己。
理想主義的天花板
2015年,伊利亞收到投資機(jī)構(gòu)Y Combinator掌門(mén)人薩姆·奧特曼的邀請(qǐng),前往硅谷的瑰麗酒店參與一場(chǎng)秘密聚會(huì)。然而,奧特曼并非這場(chǎng)秘密聚會(huì)的主角。
馬斯克突然現(xiàn)身,告訴現(xiàn)場(chǎng)所有人,他打算成立一間AI實(shí)驗(yàn)室。
促使馬斯克這么做的導(dǎo)火索,是數(shù)周前的44歲生日派對(duì)。
當(dāng)時(shí),馬斯克邀請(qǐng)了谷歌CEO拉里·佩奇等一眾好友,去度假村玩了3天。晚飯過(guò)后,馬斯克與佩奇圍繞AI展開(kāi)了激烈爭(zhēng)吵。馬斯克認(rèn)為AI會(huì)毀滅人類,而佩奇則不以為然,嘲諷他是個(gè)“物種主義者”,對(duì)硅基生命有偏見(jiàn)[5]。
從那之后,馬斯克就不怎么和佩奇說(shuō)話了。
在秘密聚會(huì)的現(xiàn)場(chǎng),馬斯克等人提到,很少有科學(xué)家會(huì)考慮自己研究的長(zhǎng)期后果。如果任由谷歌這樣的大型企業(yè)壟斷AI技術(shù),很可能會(huì)在無(wú)意間造成巨大傷害。
因此,他們提出了一種全新的形式:
成立一間不受任何人控制、非盈利的實(shí)驗(yàn)室。
他們同樣會(huì)去追逐AGI(通用人工智能)的圣杯,但不以盈利為導(dǎo)向,且放棄大多數(shù)研究成果,轉(zhuǎn)而面向社會(huì)公開(kāi)(open source)。馬斯克與奧特曼認(rèn)為,如果所有人都能獲得強(qiáng)大的AI,那么“惡意AI”的威脅將大大降低。
“我能想到最好的事情,就是讓人類以更安全的方式構(gòu)建真正的AI。”另一位組織者布羅克曼(Greg Brockman)說(shuō)道[6]。
伊利亞被這個(gè)浪漫的想法打動(dòng)了。他為此放棄了年薪200萬(wàn)美元的誘惑,毅然加入OpenAI。
成立的頭15個(gè)月,OpenAI并沒(méi)有設(shè)立具體的戰(zhàn)略方向。谷歌科學(xué)家達(dá)里奧·阿莫迪(Dario Amodei),當(dāng)時(shí)曾拜訪過(guò)OpenAI,詢問(wèn)在研究什么,OpenAI的管理層竟一時(shí)答不上來(lái),“我們現(xiàn)在的目標(biāo)...是做點(diǎn)好事。[7]”
幾個(gè)月后,阿莫迪跳槽去了OpenAI,一起做點(diǎn)好事。
2017年3月,奧特曼等領(lǐng)導(dǎo)層意識(shí)到該更專注了。然而,在規(guī)劃AGI路線圖的時(shí)候,他們卻發(fā)現(xiàn)了一個(gè)嚴(yán)重的問(wèn)題:算力跟不上了。大模型所需要的算力,每隔3-4個(gè)月就會(huì)翻一倍;非盈利機(jī)構(gòu)的形式,顯然不足以支撐。
當(dāng)時(shí),馬斯克提出了一個(gè)提案:OpenAI并入特斯拉,由他完全掌管[8]。
然而,馬斯克低估了奧特曼的野心。
奧特曼一直在尋找重大的科學(xué)突破,希望憑此打造出一家價(jià)值萬(wàn)億美金的企業(yè)。過(guò)去,YC最為人熟知的投資案例,是Airbnb。隨著奧特曼掌權(quán)之后,YC開(kāi)始擠破腦袋尋
找各種研究核聚變、人工智能、量子計(jì)算的公司。
a16z創(chuàng)始人、風(fēng)險(xiǎn)投資家馬克·安德森曾表示,“在奧特曼的領(lǐng)導(dǎo)下,YC的野心水平提高了10倍。[9]”
2018年2月,奧特曼將OpenAI管理層都拉攏到了自己的陣營(yíng)。馬斯克從此離開(kāi)了團(tuán)隊(duì),不再和奧特曼說(shuō)話,并取消了對(duì)OpenAI的后續(xù)資助。
兩個(gè)月后,奧特曼發(fā)布了OpenAI的公司章程。在不起眼的角落,他對(duì)公司愿景的表述,做了些小小的修改,“我們預(yù)計(jì)需要調(diào)動(dòng)大量資源來(lái)完成使命?!?br />
至此,曾經(jīng)那個(gè)高度理想主義的OpenAI,漸漸踏入了另一條河流。
第一次分裂
2019年2月,OpenAI對(duì)外宣告了GPT-2,卻沒(méi)有第一時(shí)間對(duì)外開(kāi)源。而后來(lái)的GPT-3,更徹底走向了閉源,OpenAI變成了CloseAI。
一個(gè)月后,OpenAI又改變了“非盈利”的性質(zhì),成立了一個(gè)營(yíng)利部門(mén),并接受了微軟10億美金的投資。
突然的180度大轉(zhuǎn)向,使得OpenAI內(nèi)部開(kāi)始分裂成兩個(gè)對(duì)立的派別:
以達(dá)里奧·阿莫迪、伊利亞為代表的安全主義,認(rèn)為必須先確保AI不會(huì)威脅人類,再公開(kāi)發(fā)布產(chǎn)品;
而以?shī)W特曼、布羅克曼為代表的加速主義,則希望加速AI的普及,從而讓更多人使用AI造福世界。
從中可以看出,兩個(gè)派別的行事方式完全相反:
安全主義主張先驗(yàn)證安全,再發(fā)布;而加速主義主張先擴(kuò)大市場(chǎng),再根據(jù)測(cè)試結(jié)果與反饋進(jìn)行調(diào)整。
前些日子發(fā)布的GPT-4o,就是典型的加速主義做派。發(fā)布會(huì)之前,OpenAI匿名發(fā)布了性能強(qiáng)大的模型“im-also-a-good-gpt2-chatbot”,引起了開(kāi)發(fā)者社區(qū)的廣泛猜測(cè)與討論。
事后證明,這模型就是GPT-4o的前身;而奧特曼故弄玄虛的目的,正是想讓吃瓜群眾幫他做測(cè)試。
隨著分歧加劇,2021年,安全主義者、曾想一起做點(diǎn)好事的達(dá)里奧·阿莫迪,引發(fā)了OpenAI的第一次分裂。他認(rèn)為,OpenAI正從“勇者”變成“惡龍”,越來(lái)越商業(yè)化,忽視了安全主義。
于是,他帶領(lǐng)著一批核心員工出走,成立了另一家AI公司Anthropic。
阿莫迪將Anthropic定位成一家公益公司,這將使他們能夠同時(shí)追求商業(yè)利潤(rùn)和社會(huì)責(zé)任。如今,Anthropic已成為OpenAI最大的競(jìng)爭(zhēng)對(duì)手。
達(dá)里奧·阿莫迪的離職,在OpenAI內(nèi)部造成了巨大動(dòng)蕩,但奧特曼仍試著努力維持兩個(gè)派別的平衡。
直到ChatGPT的發(fā)布。
一種理想主義的失敗
ChatGPT是個(gè)臨時(shí)項(xiàng)目。
當(dāng)時(shí),OpenAI正全力開(kāi)發(fā)GPT-4。然而,有傳聞稱,阿莫迪的Anthropic正在開(kāi)發(fā)聊天機(jī)器人。于是,奧特曼臨時(shí)指派員工,給現(xiàn)有的GPT-3.5也打造一個(gè)聊天界面。
奧特曼將ChatGPT稱為“低調(diào)的研究預(yù)覽”,可以幫助OpenAI收集人類與AI交互的數(shù)據(jù)。
當(dāng)時(shí),OpenAI內(nèi)部員工搞了個(gè)賭注池,猜1周內(nèi)能獲得多少用戶,最大膽的賭注是10萬(wàn)人[11]。
最終成績(jī)是100萬(wàn)。
2個(gè)月后,這個(gè)“低調(diào)的研究預(yù)覽”,成為了歷史上最快突破1億用戶的應(yīng)用程序。
兩個(gè)派別的平衡被徹底打破了。
一位內(nèi)部員工對(duì)媒體說(shuō)道,“ChatGPT誕生后,OpenAI有了獲取收入的明確途徑。你不能再用‘理想主義的實(shí)驗(yàn)室’標(biāo)榜自己了,現(xiàn)在就有顧客希望得到服務(wù)。[12]”
從學(xué)生時(shí)代開(kāi)始,伊利亞就相信超級(jí)智能并不遙遠(yuǎn)。隨著ChatGPT引發(fā)行業(yè)追逐,他對(duì)安全的焦慮變重了,與其他加速主義管理層的矛盾也日趨嚴(yán)重。
有人覺(jué)得他越來(lái)越神神叨叨,也有人覺(jué)得他開(kāi)始更像一位精神領(lǐng)袖了。
2022年OpenAI的節(jié)日派對(duì)上,伊利亞開(kāi)始帶著所有員工高喊,“feel the AGI(感受AGI)”。在其他許多不同場(chǎng)合,他也反復(fù)說(shuō)過(guò)這句話——仿佛超級(jí)智能已經(jīng)近在咫尺。
去年宮斗之前,伊利亞曾告訴一位記者,ChatGPT可能是有意識(shí)的,世界需要認(rèn)識(shí)到這項(xiàng)技術(shù)真正的力量。
這位媒體同志不止見(jiàn)過(guò)伊利亞一次,對(duì)他的印象并不算好:每次見(jiàn)面,他都會(huì)說(shuō)很多極其瘋狂的話[13]。
2023年7月,伊利亞啟動(dòng)了“超級(jí)對(duì)齊”項(xiàng)目,發(fā)起了對(duì)加速主義的最后反抗。
在AI語(yǔ)境中,對(duì)齊(Alignment)并非某種黑話,而是一個(gè)專業(yè)術(shù)語(yǔ),指讓前沿的AI系統(tǒng)與人類的意圖、價(jià)值觀對(duì)齊。然而,伊利亞認(rèn)為,超級(jí)智能的智慧程度將遠(yuǎn)超人類,人類智慧已經(jīng)不足以拿來(lái)當(dāng)衡量的標(biāo)準(zhǔn)。
他提到,當(dāng)年的AlphaGo是個(gè)典型的例子。
它與李世石第二盤(pán)棋的第37手,下在了一個(gè)所有人都沒(méi)想到的位置。當(dāng)時(shí),連中國(guó)圍棋國(guó)手羋昱廷都在解說(shuō)臺(tái)上驚呼,“這是什么鬼,沒(méi)擺錯(cuò)嗎?”事后看來(lái),這手棋恰恰是奠定AlphaGo勝局的關(guān)鍵。
連AlphaGo都如此捉摸不透,更遑論即將到來(lái)的超級(jí)智能。
因此,伊利亞拉上同事簡(jiǎn)·雷克,成立了“超級(jí)對(duì)齊”團(tuán)隊(duì)。工作內(nèi)容很簡(jiǎn)單:在4年之內(nèi)打造一個(gè)強(qiáng)大的AI系統(tǒng),讓它代替人類智慧負(fù)責(zé)對(duì)齊工作,而OpenAI將為這個(gè)項(xiàng)目提供20%的算力。
只可惜,奧特曼并沒(méi)有給安全主義反抗的機(jī)會(huì),沒(méi)有兌現(xiàn)20%算力的承諾。
去年年底,伊利亞射出的最后一顆子彈,也未能擊中要害。當(dāng)伊利亞未能成功“刺殺國(guó)王”,他與OpenAI的結(jié)局就已經(jīng)注定了。
尾聲
GPT-4o發(fā)布之后,奧特曼重申了修改后的公司愿景:
OpenAI使命的一部分,是將非常強(qiáng)大的AI工具免費(fèi)(或以優(yōu)惠的價(jià)格)提供給人們。他在博客中寫(xiě)道,“我們是一家企業(yè),很多東西需要收費(fèi),這將有助于我們向數(shù)十億人(希望如此)提供免費(fèi)、出色的AI服務(wù)。[15]”
2016年時(shí),《紐約客》曾發(fā)布了一篇關(guān)于奧特曼的特稿。
當(dāng)時(shí),奧特曼最主要的身份,還是YC的掌門(mén)人。實(shí)際采訪時(shí),《紐約客》記者在奧特曼身上感受到了一種侵略性。
“他正在硅谷內(nèi)迅速建立起一種新的經(jīng)濟(jì),這種經(jīng)濟(jì)似乎旨在取代原本的硅谷。[9]”
如今,隨著OpenAI徹底告別伊利亞時(shí)代,奧特曼將繼續(xù)完成當(dāng)年未竟的野心。
參考資料
[1] “I lost trust”: Why the OpenAI team in charge of safeguarding humanity imploded,Vox[2] Geoffrey Hinton | On working with Ilya, choosing problems, and the power of intuition,Sana[3] 深度學(xué)習(xí)革命,凱德·梅茨[4] NIPS: Oral Session 4 - Ilya Sutskever,Microsoft Research[5] Ego, Fear and Money: How the A.I. Fuse Was Lit,New York Times[6] Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free,Wired[7] The messy, secretive reality behind OpenAI’s bid to save the world,MIT Technology Review[8] The secret history of Elon Musk, Sam Altman, and OpenAI,Semafor[9] Sam Altman’s Manifest Destiny,The New Yorker[10] AI researchers debate the ethics of sharing potentially harmful programs,The Verge[11] Inside the White-Hot Center of A.I. Doomerism,New York Times[12] Inside the Chaos at OpenAI,The Atlantic[13] Rogue superintelligence and merging with machines: Inside the mind of OpenAI’s chief scientist,MIT Technology Review[14] OpenAI Wants to Harness AI. It Should Pause Instead,The Information[15] GPT-4o,Sam Altman
編輯:李墨天
視覺(jué)設(shè)計(jì):疏睿
責(zé)任編輯:李墨天