加入星計(jì)劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴(kuò)散
  • 作品版權(quán)保護(hù)
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長(zhǎng)期合作伙伴
立即加入
  • 正文
    • 22字聲明,350人簽名
    • 馬斯克公開信的加強(qiáng)版
    • 反對(duì)者的聲音
  • 相關(guān)推薦
  • 電子產(chǎn)業(yè)圖譜
申請(qǐng)入駐 產(chǎn)業(yè)圖譜

三大巨頭聯(lián)合署名!又一封“警惕AI、保衛(wèi)人類”的公開信發(fā)出

2023/05/31
1198
閱讀需 9 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點(diǎn)資訊討論

文|?VickyXiao?Juny?編輯| VickyXiao

自從生成式AI以勢(shì)如破竹的速度席卷幾乎每一個(gè)領(lǐng)域,AI挑戰(zhàn)人類的擔(dān)憂也越來(lái)越真實(shí)。

上次,馬斯克就人工智能研究界和產(chǎn)業(yè)界的大佬們一起發(fā)布了一篇呼吁暫停半年AI大模型訓(xùn)練、加強(qiáng)AI技術(shù)監(jiān)管的公開信,呼吁全球所有實(shí)驗(yàn)室暫停比更強(qiáng)的AI模型研發(fā),暫停時(shí)間至少為6個(gè)月。但結(jié)果被人扒出其實(shí)他為Twitter購(gòu)買了1萬(wàn)個(gè)GPU用于推進(jìn)一個(gè)全新的AI項(xiàng)目,極有可能正在開發(fā)自家的大語(yǔ)言模型。

但這一次,又一封呼吁人們要重視AI帶來(lái)威脅的公開信又發(fā)出。比上一次更引人注目的是,目前生成式AI領(lǐng)域鼎立的三大巨頭:?OpenAI?、DeepMind(隸屬于Google)、Anthropic都加入其中。

22字聲明,350人簽名

這份聲明由總部位于舊金山的非營(yíng)利組織AI安全中心發(fā)布,就他們認(rèn)為AI對(duì)人類構(gòu)成的生存威脅發(fā)出了新的警告。整份聲明才22個(gè)字——對(duì),你沒(méi)看錯(cuò),才22個(gè)字,全部?jī)?nèi)容如下:

減輕 AI 滅絕的風(fēng)險(xiǎn),應(yīng)該與管控流行病和核戰(zhàn)爭(zhēng)等其他社會(huì)級(jí)規(guī)模的風(fēng)險(xiǎn)一樣,成為一項(xiàng)全球優(yōu)先事項(xiàng)。

盡管AI威脅論并不新鮮,但如此直白地把它和“核戰(zhàn)爭(zhēng)”、“大流行病”等危害全體人類的危機(jī)因素列在一起公開作比較,還是屬于首次。

聲明的署名部分比聲明的內(nèi)容長(zhǎng)得多。

除去OpenAI首席執(zhí)行官Sam Altman、DeepMind首席執(zhí)行官Demis Hassabis和Anthropic首席執(zhí)行官Dario Amode以外,超過(guò)350名頂級(jí)AI研究人員、工程師和創(chuàng)業(yè)者也加入其中,包括曾經(jīng)獲得圖靈獎(jiǎng)的“AI三巨頭”之二Geoffrey Hinton和 Yoshua Bengio,但另一位和他們一起獲獎(jiǎng)的、現(xiàn)任Facebook母公司Meta首席 AI 科學(xué)家的Yann LeCun尚未簽名。

此外,名單里還出現(xiàn)了中國(guó)學(xué)者的身影,包括中國(guó)科學(xué)院的自動(dòng)化研究所人工智能倫理與治理研究中心主任曾毅,清華大學(xué)副教授詹仙園等。

完整簽名名單,可以在這里進(jìn)行查看:https://www.safe.ai/statement-on-ai-risk#open-letter

聲明發(fā)布者AI安全中心的執(zhí)行主任Hendrycks表示,這一份聲明很簡(jiǎn)潔,特意沒(méi)有提出任何減輕人工智能威脅的潛在方法,就是為了避免分歧。“我們不想推動(dòng)包含30種潛在干預(yù)措施的龐大措施組合,”Hendrycks說(shuō)?!爱?dāng)這種情況發(fā)生時(shí),它會(huì)淡化信息。”

馬斯克公開信的加強(qiáng)版

這封公開信可以看做是今年早些時(shí)候馬斯克公開信的加強(qiáng)版和“清白版”。

此前,馬斯克聯(lián)合超過(guò)千名產(chǎn)業(yè)界和學(xué)術(shù)界的大佬們?cè)凇吧磥?lái)研究所(Future of Life Institute)”網(wǎng)站上發(fā)布聯(lián)名公告。公開信中主要傳達(dá)了兩個(gè)方面的信息:一是警告人工智能存在對(duì)人類社會(huì)的潛在威脅,要求立刻暫停任何比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,時(shí)間跨度至少6個(gè)月。二是呼吁整個(gè)人工智能領(lǐng)域以及政策制定者們,要共同設(shè)計(jì)一套全面的人工智能治理系統(tǒng),對(duì)人工智能技術(shù)的發(fā)展進(jìn)行監(jiān)督和審查。

這封信當(dāng)時(shí)在多個(gè)層面受到批評(píng)。不僅因?yàn)轳R斯克被爆出“不講武德”,一邊公開呼吁暫停AI研究,一邊偷偷推進(jìn)一個(gè)全新的AI項(xiàng)目,并挖走了一些Google和OpenAI的技術(shù)人才,還因?yàn)椤皶和i_發(fā)”的建議并不可行,而且也并不能解決問(wèn)題。

比如當(dāng)年跟Yoshua Bengio一起獲得圖靈獎(jiǎng),人工智能“三巨頭”之一的Yann LeCun當(dāng)時(shí)就明確表示他并不同意這封信的觀點(diǎn),也沒(méi)有簽名。

不過(guò),此次這封全新的更為含糊的公開信,Yann LeCun同樣沒(méi)有簽名。人工智能領(lǐng)域的著名學(xué)者、Landing AI的創(chuàng)始人吳恩達(dá)當(dāng)時(shí)也在LinkedIn上發(fā)文表示,認(rèn)為全面暫停AI訓(xùn)練6個(gè)月的想法是一個(gè)糟糕、不切實(shí)際的想法。

他表示能夠真正讓整個(gè)行業(yè)都暫停研究AI訓(xùn)練的唯一辦法是政府的介入,但讓政府暫停他們不了解的新興技術(shù)是反競(jìng)爭(zhēng)的,顯然也不是一個(gè)很好的解決辦法。他承認(rèn)負(fù)責(zé)任的AI很重要、AI確實(shí)也有風(fēng)險(xiǎn),但一刀切的方式不可取。當(dāng)前更重要的是各方要在發(fā)展AI技術(shù)的同時(shí)更多的投資于人工智能的安全領(lǐng)域,并且配合制定圍繞透明度和審計(jì)的法規(guī)。

Sam Altman更是在接受美國(guó)國(guó)會(huì)質(zhì)詢的時(shí)候就直接表示,馬斯克這個(gè)呼吁的框架是錯(cuò)誤的,日期上的暫停毫無(wú)意義。“我們暫停6個(gè)月,然后呢?我們?cè)贂和?個(gè)月?”他說(shuō)。

但和吳恩達(dá)一樣,Sam Altman一直也是要求政府加強(qiáng)對(duì)AI監(jiān)管的最積極的呼吁者。

他甚至在聽(tīng)證會(huì)上向美國(guó)政府提出了監(jiān)管建議,要求政府組建一個(gè)新的政府機(jī)構(gòu),負(fù)責(zé)為大型AI模型頒發(fā)許可,如果有公司模型不符合政府標(biāo)準(zhǔn),該機(jī)構(gòu)可以撤銷該公司的許可證。

上周,他還聯(lián)合了另外幾位OpenAI的高管,呼吁建立類似國(guó)際原子能機(jī)構(gòu)的國(guó)際組織來(lái)監(jiān)管AI,號(hào)召國(guó)際間領(lǐng)先的人工智能開發(fā)商展開合作。

反對(duì)者的聲音

和馬斯克的公開信一樣,這封最新的公開信同樣基于AI系統(tǒng)能力會(huì)迅速提高、但人類沒(méi)法完全控制其安全運(yùn)行的假設(shè)。

許多專家指出,大型語(yǔ)言模型等系統(tǒng)的迅速改進(jìn)是可以預(yù)見(jiàn)的。一旦人工智能系統(tǒng)達(dá)到一定的復(fù)雜程度,人類就可能無(wú)法控制它們的行為。來(lái)自牛津大學(xué)的學(xué)者Toby Ord就表示,正如人們希望大煙草公司能夠早一點(diǎn)承認(rèn)他們的產(chǎn)品會(huì)帶來(lái)嚴(yán)重的健康危害、并開始討論怎么限制這些危害一樣,現(xiàn)在AI的領(lǐng)袖們正在這么做。

但也有不少人人懷疑這些預(yù)測(cè)。他們指出人工智能系統(tǒng)甚至無(wú)法處理相對(duì)平凡的任務(wù),例如駕駛汽車等。盡管在這一研究領(lǐng)域付出了多年的努力并投入了數(shù)百億美元,但全自動(dòng)駕駛汽車仍遠(yuǎn)未成為現(xiàn)實(shí)。懷疑論者說(shuō),如果人工智能連這一挑戰(zhàn)都無(wú)法應(yīng)對(duì),那么在未來(lái)幾年,這項(xiàng)技術(shù)有什么機(jī)會(huì)造成威脅?

Yann LeCun就在Twitter上表達(dá)了對(duì)這一擔(dān)憂的反對(duì),他表示,超人AI完全不在人類滅絕危機(jī)的名單前面——主要因?yàn)樗F(xiàn)在還不存在。“在我們可以設(shè)計(jì)出狗這個(gè)級(jí)別的AI(更不用說(shuō)人類級(jí)別的AI了)之前,討論如何讓它更安全完全為時(shí)過(guò)早?!?/p>

而吳恩達(dá)對(duì)于AI持有更加樂(lè)觀的態(tài)度。他稱他眼里會(huì)對(duì)大部分人類造成生存危機(jī)的因素,包括流行病、氣候變化、小行星等,AI反而會(huì)是這些危機(jī)的關(guān)鍵解決辦法。如果人類想要在未來(lái)1000年生存并發(fā)展,那就需要讓AI更快發(fā)展,而不是更慢。

你怎么看?歡迎在評(píng)論區(qū)告訴我們。

 

 

相關(guān)推薦

電子產(chǎn)業(yè)圖譜