空想AGI”鬧劇何時休?Science專欄:對AI前景預測過于樂觀

之槐看科技 2024-04-24 05:11:08

編輯:LRS

【新智元導讀】在把AGI作爲終極目標之前,應當先對AGI的概念定義達到共識,曆史上對通用AI發展的預測,都太過樂觀了!

最近幾年,AI技術的發展遠遠超出普通大衆和研究者的預期,「通用人工智能(AGI)」的概念也從科幻小說中走進了日常生活的討論中,成爲了許多科技公司和研究機構所追求的最終目標。

AI行業的領頭羊OpenAI表示,其使命是「確保通用人工智能造福全人類」;

DeepMind在公司願景聲明中也指出,「人工通用智能有可能推動曆史上最偉大的變革之一」;

AGI概念在英國政府的國家人工智能戰略和美國政府的人工智能文件中也被著重提及;

微軟的研究人員聲稱在大型語言模型GPT-4中發現了「AGI火花」(sparks of AGI)存在的證據;

論文鏈接:https://arxiv.org/pdf/2303.12712.pdf

現任和前任谷歌高管宣稱「AGI已經到了」(AGI is already here);

「GPT-4能否算作是一種AGI算法」的問題也是Elon Musk對OpenAI提起訴訟的核心... ...

雖然術語AGI已經在商業、政府和媒體中被廣泛使用,但不同群體的用戶對AGI概念的含義並沒有達成共識。

「AGI的含義到底是什麽?」在AI社區內引起了激烈的爭論,這以問題不僅是一場關于「術語」定義的學術爭論,也將影響著科技公司、政府部門等關于AGI做出的重要決策。

最近,聖菲研究所的教授Melanie Mitchell在Science上發表了一篇letter,討論了大衆對通用人工智能概念的爭論。

深入研究AGI後可以發現,人工智能從業者對智能本質(the nature of intelligence)的看法與研究人類和動物認知的人截然不同,這種差異對于「理解當下、預測機器智能的未來前景」等至關重要。

人工智能概念

人工智能領域的最初目標是創造出具有與人類相當、具有通用智能的機器。

早期的人工智能先驅們對此持樂觀態度:1965年,赫伯特·西蒙(Herbert Simon)在著作《人類和管理的自動化形態》中預測「20年後,機器可以承擔所有人類能做的工作」;

在1970年出版的《生活》雜志上,馬文·明斯基(Marvin Minsky)宣稱:在三到八年後,我們就能擁有一台具有普通人智力水平的機器,一台能夠閱讀莎士比亞、潤滑汽車、玩弄辦公室政治、講笑話和打架的機器。

遺憾的是,這些樂觀的預測並沒有實現。

在接下來的幾十年裏,唯一成功的人工智能系統只能算是專用,而非通用:只能執行單一任務或有限範圍的任務,例如手機上的語音識別軟件可以轉錄口述內容,但不能理解具體內容並生成回複。

通用人工智能(AGI)一詞是在21世紀初創造的,以重新追尋人工智能先驅最初的崇高願望,尋求重新關注「試圖以獨立于領域的方式研究和複制智能」。

但直到最近,這種崇高的追求在人工智能領域內仍然相當模糊,領先的人工智能公司將實現AGI作爲其主要目標,但AGI的存在性(existential threat from AGI)仍然是他們最害怕的事。

許多人工智能從業者都在預測AGI的實現時間軸,例如,有人預測「到2028年,有50%的機會擁有AGI」;但也有人質疑AGI的前提,稱其定義模糊不清,甚至有研究人員在推特上表示:AGI的概念是不科學的,人們應該對使用這個詞感到尴尬。

雖然早期的AGI支持者認爲機器很快就會承擔所有人類活動,但研究人員已經意識到,打造一個「國際象棋機器人」或是「回答搜索查詢的AI系統」要比開發一個機器人來「疊衣服」或「修水管」容易得多。

AGI的定義也相應地進行了調整,包含了所謂的「認知任務」(cognitive tasks)。

DeepMind聯合創始人Demis Hassabis將AGI定義爲「應該能夠完成幾乎任何人類可以完成的認知任務」的系統,OpenAI將其描述爲「高度自主的系統,在最有經濟價值的工作中優于人類」(most economically valuable work),其定義大多忽視了需要物理智能(physical intelligence)的任務。

人工智能中的「智能」概念,即認知或其他方面,通常是以個體智能體爲獎勵或目標進行優化的方式來構建的。

一篇有影響力的論文將通用智能定義爲「智能體在各種環境中實現目標的能力」。

論文鏈接:https://link.springer.com/article/10.1007/s11023-007-9079-x

也有論文指出,「智力及其相關能力可以被理解爲促進獎勵最大化」。

論文鏈接:

https://www.sciencedirect.com/science/article/pii/S0004370221000862

事實上,這也是當下人工智能系統的運行方式,例如,計算機程序AlphaGo被訓練來優化「贏得比賽」的獎勵函數,而GPT-4被訓練來優化「預測短語中的下一個單詞」的獎勵函數。

一些人工智能研究人員猜測:一旦人工智能系統實現了AGI,就會將其優化能力應用于自身軟件來快速實現超越人類的智能水平,叠代地推進自己的智能;在極端預測下,AGI系統會「比我們聰明數千倍或數百萬倍」。

這種對優化的關注導致人工智能社區的一些人擔心「沒有與人類標准對齊」(unaligned)的AGI會給人類帶來生存風險,可能會偏離其創造者的目標。

在2014年出版的《超級智能》一書中,哲學家尼克·博斯特羅姆(Nick Bostrom)提出了一個著名的思想實驗:假設人類給一個超級智能人工智能系統一個「優化回形針生産」的目標,人工智能系統會利用它的智能來控制地球上所有的資源,並將地球上所有的東西都變成回形針。

當然,人類並不是爲了制造更多的回形針而毀滅地球和人類,只是他們在說明書中沒有提到這一點。

人工智能研究員Yoshua Bengio也提供了一個思想實驗:我們可能會要求人工智能解決氣候變化問題,但AGI可能會設計一種病毒來毀滅人類,因爲我們給出的指令對「傷害的含義」解釋得不夠清楚,人類實際上是解決氣候危機的主要障礙。

這種對AGI(或超級智能)的推測性觀點與研究生物智能,特別是人類認知的人所持的觀點不同。

雖然認知科學並沒有嚴格地定義「通用智能」,但大多數認知科學家認可,智力水平不是一個可以量化的指標,可以簡單地向上或向下調整,而是一個複雜的綜合通用和專項能力,在大多數情況下,可以適應特定的進化生態位(specific evolutionary niche)。

許多研究生物智能的人也懷疑智能的所謂「認知」方面可以從其他模式中分離出來,並在一個無實體的機器中捕獲:心理學家已經表明,人類智力的重要方面是建立在一個人的身體和情感體驗的基礎上的。

證據還表明,個人的智力深深依賴于一個人對社會和文化環境的參與,理解、協調和向他人學習的能力,可能比個人的「優化能力」更重要。

此外,與之前提到的回形針人工智能(paper clip–maximizing AI)不同,人類智能並不以固定目標的優化爲中心,一個人的目標是通過先天需求和支持其智能的社會和文化環境的複雜整合形成的。

與超級智能體不同的是,智力的提高恰恰使人類能夠更好地洞察他人的意圖以及自身行爲的可能影響,並相應地修正行爲。

正如哲學家卡佳·格雷斯(Katja Grace)所說,把「接管宇宙」作爲目標對于任何人來說都是可笑的,所以爲什麽我們會認爲實現人工智能的目標是不同的呢?

一台機器改進自己的軟件以提高其智能水平也偏離了生物學的觀點,即智能是一個高度複雜的系統,不只是需要大腦的參與。

如果人類水平的智能需要不同認知能力的複雜整合以及社會和文化的加持,那麽系統的「智能」水平很可能無法提升自身的「軟件」能力,就像人類無法設計大腦(或基因)使自己更聰明一樣。

然而,人類可以作爲一個集體,通過外部技術工具(如計算機)和建立文化機構(如學校、圖書館和互聯網)來提高有效智力水平。

對AGI的含義,以及AGI是否是一個連貫的概念仍在爭論中,對于AGI機器能夠做什麽的猜測主要是基于直覺,而不是科學證據。

但這種直覺能有多少可信度呢?人工智能的曆史一再證明我們對智能的直覺是錯誤的。

許多早期的人工智能先驅認爲,用邏輯編程的機器將捕捉人類智能的全部;其他學者預測,讓機器在國際象棋中擊敗人類,或在語言之間進行翻譯,或進行對話,將需要它具有一般人類水平的智能,但結果被證明是錯誤的。

在人工智能進化的每一步,人類水平的智能都比研究人員預期的要複雜。

目前關于機器智能的猜測是否也會被證明是錯誤的?我們能否發展出一種更嚴謹、更通用的智能科學來回答這些問題?

目前還人工智能科學是否更像人類智能科學,還是更像天體生物學(預測其他星球上的生命可能是什麽樣的)。

對從未見過甚至可能不存在的東西做出預測,無論是外星生命還是超級智能機器,都需要基于通用原理的理論。

最終,所謂AGI的含義和後果不會通過媒體的辯論、訴訟或直覺和猜測來達到共識,而是通過對這些原理的長期科學調研。

參考資料:

https://www.science.org/doi/10.1126/science.ado7069

0 阅读:0

之槐看科技

簡介:感謝大家的關注