隨著ChatGPT熱潮,當全社會都在為AI的進化而歡呼雀躍之時,很多科技界和學術(shù)界部分人卻認為 AI 技術(shù)風險越來越高。
鈦媒體App 3月29日消息,未來生命研究所(Future of Life Institute)今天公布了一封《暫停大型人工智能研究》的公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的人工智能(AI)系統(tǒng)至少6個月,呼吁共同開發(fā)和實施用于高級AI開發(fā)的共享安全協(xié)議,并接受獨立外部監(jiān)督,以避免可能導*端風險的大規(guī)模技術(shù)變革。
該機構(gòu)以“引導變革性技術(shù)造福生活,遠離極端的大規(guī)模風險”為使命。信中稱,只有當確保強大的 AI 系統(tǒng)的效果是積極的,其風險是可控的才能繼續(xù)開發(fā)。AI 實驗室和獨立專家應在暫停期間,共同制定和實施一套先進的 AI 設(shè)計和開發(fā)的共享安全協(xié)議,由獨立的外部專家進行嚴格的審查和監(jiān)督。

截止目前,世界首富、特斯拉CEO馬斯克,蘋果聯(lián)合創(chuàng)始人Steve Wozniak,“AI教父”Geoffrey Hinton,Stability AI 創(chuàng)始人Emad Mostaque等1000多名科技大咖和 AI 技術(shù)專家均簽署了這封公開信。
值得一提的是,此前有推特網(wǎng)友發(fā)現(xiàn)OpenAI CEO Sam Altman曾出現(xiàn)在呼吁暫停大型 AI 訓練公開信簽名處,推特研發(fā)工程師Rahul Ligma也在列,現(xiàn)在二人名字均已消失。
實際上,隨著ChatGPT和GPT-4風靡全球、全球熱議,一時與ChatGPT相關(guān)的各種信息遍布網(wǎng)絡(luò)。但隨著討論熱度轉(zhuǎn)向通用 AI 技術(shù)帶來的風險話題,OpenAI公司CEO奧特曼(Sam Altman)自身也加入其中。
3月27日公布的麻省理工學院研究科學家Lex Fridman節(jié)目中,奧特曼提到,強大的 AI 殺死人類有一定可能性?!昂芏嚓P(guān)于 AI 安全和挑戰(zhàn)的預測被證明是錯誤的,我們必須正視這一點,并盡早嘗試找到解決問題的方法?!?/p>
在奧特曼看來,GPT-4已經(jīng)讓大家看到,AI“殺死”人類不再是空談。他坦言,“客服”將會是受到大規(guī)模沖擊的工作類型。
今天的這封公開信中,核心是呼吁所有 AI 實驗室立即暫停比GPT-4更強大的 AI 系統(tǒng)的訓練,時間至少持續(xù)6個月,并稱政府應該介入并制定暫停令。但信中指出,這并不意味著暫停一般的 AI 開發(fā),只是從危險的競賽中退后一步,限制不可預測的研究和開發(fā)。
公開信中強調(diào),AI 的研究和開發(fā)應該重新聚焦于,使目前*進和強大的系統(tǒng)更加準確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠。
鈦媒體App根據(jù)現(xiàn)有公開信息整理,目前ChatGPT相關(guān)技術(shù)依然存在無法進行事實核查容易提供詐騙信息、個人數(shù)據(jù)與商業(yè)秘密泄露、輸出虛假信息、語料庫與生成文本的侵權(quán)問題等問題,存在一定的法律漏洞。如果沒有監(jiān)督和解決,AI 技術(shù)可能會威脅人類日常生活。
據(jù)報道,數(shù)據(jù)安全服務(wù)Cyberhaven檢測到并阻止了其客戶公司160萬名員工中4.2%的人將數(shù)據(jù)輸入ChatGPT的請求,因為存在泄露機密信息、客戶數(shù)據(jù)、源代碼或監(jiān)管信息的風險。目前,摩根大通已經(jīng)限制員工使用 ChatGPT,亞馬遜、微軟和沃爾瑪也已向員工發(fā)出警告,要求員工謹慎使用生成式 AI 服務(wù)。
截至目前,多位科技大咖和學術(shù)界人士對于 AI 技術(shù)帶來的風險挑戰(zhàn)表達諸多看法,對AI發(fā)展的潛在威脅表示關(guān)切,強調(diào)在推動技術(shù)進步的同時確保人類的安全和福祉:
特斯拉CEO馬斯克(Elon Musk):他認為 AI 是人類面臨的*威脅之一。他警告說,如果沒有適當?shù)谋O(jiān)管和控制,AI可能導致意想不到的后果,甚至危及人類生存;
已故著名物理學家霍金 (Stephen Hawking):在生前,霍金表示 AI 的發(fā)展可能是人類最偉大的成就,也可能是最終的災難。他認為,如果AI發(fā)展得當,將為人類帶來巨大利益;但如果失控,可能導致人類的毀滅;
微軟創(chuàng)始人比爾·蓋茨(Bill Gates):他認為在某些方面,AI可能會取代人類工作,導致失業(yè)率上升。此外,他還擔憂AI在未來可能會成為一種強大且不受控制的力量;
哲學家,牛津大學未來人類研究所所長Nick Bostrom:在他的著作中,他認為,如果AI發(fā)展超過人類智能,可能會導致無法預測和控制的后果;
哲學家,神經(jīng)科學家Sam Harris:AI的發(fā)展可能會導致人類失去對未來的控制。他強調(diào),隨著AI技術(shù)的進步,人類必須思考如何在保持創(chuàng)新的同時確保安全與穩(wěn)定。
在科學界希望暫停強大 AI 技術(shù)研究的消息公布之后,國內(nèi)很多商業(yè)大咖也表達相關(guān)看法。
其中,自動駕駛芯片公司地平線創(chuàng)始人兼CEO余凱在其微信朋友圈稱,通用人工智能(AGI)正在失控的發(fā)展,會給人類帶來巨大的風險,呼吁推動 AI 計算的平權(quán)。保護自己的隱私,透明干預各種AGI模型的行為,控制AGI帶來的風險。
3月29日,360公司創(chuàng)始人、董事長周鴻祎表示,GPT是一個改變世界的東西,它開啟了 AI 技術(shù)新時代。而如今,GPT-4已經(jīng)是世界上最聰明的“人”?!拔覀儾灰迷瓉淼难酃饪创裉斓?GPT,所以很多人對 AI 有焦慮?!?/p>
腦機接口公司腦虎科技聯(lián)合創(chuàng)始人、CEO彭雷表示,照這個發(fā)展速度,他預測未來兩年內(nèi)會出來一個類似“核不擴散條約”的“AGI不擴散條約”,限定超過一定量級的大模型被部署和訓練,甚至安理會成員國來締約簽署,并搞個類似“國際原子能機構(gòu)”來監(jiān)督模型的參數(shù)和運行狀態(tài),類似管理離心機一樣。
事實上,奧特曼先前對外媒表示,他擔心 AI 取代人類工作的變化很快到來。“人類已經(jīng)證明自己可以適應重大技術(shù)變革,但如果這種情況發(fā)生在個位數(shù)的幾年內(nèi)便是我擔心的部分。人類擁有無限創(chuàng)造力,我們找到新工作、找到新的事情去做?!?/p>
早前,微軟研究院團隊發(fā)布長達154頁的論文《通用 AI的火花:GPT-4早期實驗》。結(jié)果表明,微軟認為,GPT-4是一種非常強大的 AI 系統(tǒng),它在許多任務(wù)和領(lǐng)域中表現(xiàn)出了驚人的能力,并且在某些方面甚至可以與人類相媲美。然而,GPT-4仍然存在一些局限性和挑戰(zhàn),需要進一步研究和發(fā)展才能實現(xiàn)更深入、更全面的AGI系統(tǒng)。
OpenAI 的官方研究顯示,美國80%的工作職業(yè)中,都將因GPT-4而取代人類工作。該研究發(fā)現(xiàn),除會計師外,數(shù)學專家、口譯員、作家以及近20%的美國勞動人口,也深受AI影響。最不受影響的工作包括快餐廚師、摩托車技師和石油和天然氣雜工。
“GPT-4可被視作 AGI 的早期版本?!蔽④浹芯繄F隊表示,GPT-4標志著計算機科學領(lǐng)域及其他領(lǐng)域真正的范式轉(zhuǎn)變?!?/p>
高盛3月27日發(fā)布報告指出,全球預計將有3億個工作崗位最終被 AI 取代。假設(shè)生成式 AI 實現(xiàn)了各企業(yè)承諾的能力,勞動力市場將面臨挑戰(zhàn),AI 可以接手美國和歐洲高達四分之一的工作。報告預計,隨著勞動生產(chǎn)力提高,AI 應用有望使全球在下一個10年內(nèi),推動全球GDP(國內(nèi)生產(chǎn)總值)年復合增長率將達到7%。
那么,ChatGPT是如何看待公開信中 AI 對人類社會的影響?
ChatGPT回應稱:這表示隨著 AI 技術(shù)的不斷發(fā)展和普及,AI 可能對社會和人類造成的影響將越來越大。這封公開信提出的呼吁和建議,應該被視為引起更廣泛和深入討論的起點和參考,而不是一個終點或解決方案。


239003/30








