人工智能可以解釋,爲什麽我們沒有遇到任何外星人

知新了了 2024-04-09 15:49:06

人工智能正以數千種不同的方式讓人們感受到它的存在。它幫助科學家理解大量的數據;它有助于發現金融欺詐;它驅動我們的汽車;它爲我們提供音樂建議;它的聊天機器人讓我們抓狂。而這才剛剛開始。

我們是否能夠理解,人工智能將以多快的速度繼續發展?如果答案是否定的,這是否構成了“大過濾器”?

“費米悖論”指的是先進文明存在的明顯高可能性,與它們確實存在的完全缺乏證據之間的差異。對于這種差異存在的原因,人們提出了許多解決方案。其中一個想法是“大過濾器”。

大過濾器是一種假設的事件或情況,它阻止智慧生命成爲行星間和星際物種,甚至導致其滅亡。想想氣候變化、核戰爭、小行星撞擊、超新星爆炸、瘟疫,或者任何其他的災難事件。

或者,人工智能的快速發展又將如何?

《宇航學報》(Acta Astronautica)上的一篇新論文探討了人工智能成爲人工超級智能(ASI)的想法,以及ASI是大過濾器。這篇論文的標題是《人工智能是讓先進技術文明在宇宙中變得稀有的大過濾器嗎?》。作者是曼徹斯特大學物理和天文學系的邁克爾·加勒特(Michael Garrett)。

“如果沒有實際的監管,我們有充分的理由相信,人工智能不僅會對我們的技術文明,而且會對所有技術文明的未來進程構成重大威脅。”

Michael Garrett,曼徹斯特大學

一些人認爲,大過濾器阻止了像我們這樣的科技物種成爲多行星物種。這很糟糕,因爲只有一個家的物種,面臨著更大的滅絕或停滯風險。根據加勒特的說法,一個物種正在與時間賽跑,而沒有備用行星。

加勒特寫道:“有人提出,在這些文明能夠發展出穩定的多行星生存之前,這樣一個過濾器就出現了,這表明一個技術文明的典型壽命(L)不到200年。”

如果這是真的,那就可以解釋,爲什麽我們沒有探測到外星智能生物的技術特征或其他證據。關于我們自己的技術發展軌迹,這告訴了我們什麽?如果我們面臨200年的限制,如果是因爲ASI,那我們該怎麽辦?

加勒特強調,“迫切需要爲地球上的人工智能發展和多行星社會的進步迅速建立監管框架,以減輕這種生存威脅。”

許多科學家和其他思想家說,我們正處于巨大變革的風口浪尖。人工智能剛剛開始改變我們做事的方式;很多轉變都是在幕後進行的。人工智能似乎即將取代數百萬人的工作,而與機器人結合起來,這種轉變似乎幾乎是無限的。這是一個相當明顯的問題。

但還有更深層、更系統性的擔憂。算法是誰寫的?人工智能會以某種方式歧視嗎?幾乎可以肯定。競爭算法會破壞強大的民主社會嗎?開放的社會會保持開放嗎?ASI會開始爲我們做決定嗎?如果它這樣做了,誰將負責?

這是一個不斷擴展的分支問題樹,沒有明確的終點。

斯蒂芬·霍金(Stephen Hawking)曾發出著名警告:如果人工智能開始獨立進化,它可能會終結人類。

“我擔心人工智能可能會完全取代人類。如果有人設計電腦病毒,就會有人設計出能夠自我改進和複制的人工智能。這將是一種超越人類的新生命形式,”他在2017年接受《連線》雜志采訪時表示。一旦人工智能超越了人類,它就成爲了ASI。

霍金可能是對人工智能發出警告的最知名的聲音之一,但他絕不是唯一一個。媒體上充滿了討論和警告,以及關于人工智能爲我們所做的工作的文章。最令人擔憂的警告是,ASI可能會失控。有些人認爲這是科幻小說,但加勒特不這麽認爲。

加勒特寫道:“對人工超級智能(ASI)最終失控的擔憂被認爲是一個主要問題 —— 在未來幾年裏,與這種可能性作鬥爭是該領域領導者越來越多的研究追求。”

如果人工智能不提供任何好處,這個問題就會容易得多。但它提供了各種各樣的好處,從改進的醫療成像和診斷到更安全的交通系統。政府的訣竅是在限制損害的同時,讓利益蓬勃發展。

加勒特寫道:“在國家安全和國防等領域尤其如此,在這些領域,負責任和合乎道德的發展應該是最重要的。”

問題是我們和我們的政府都沒有做好准備。從來沒有像人工智能這樣的東西,無論我們如何嘗試概念化它並理解它的軌迹,我們都沒有得到。

如果我們處于這種境地,那麽任何其他發展出人工智能的生物物種也會如此。人工智能和ASI的出現可能是普遍的,使其成爲大過濾器的候選者。

具體來說,這就是ASI帶來的風險:它可能不再需要創造它的生物生命。

加勒特解釋說:“一旦達到技術奇點,人工智能系統將迅速超越生物智能,並以完全超過傳統監督機制的速度進化,導致不可預見的和意想不到的後果,這些後果不太可能與生物利益或倫理一致。”

ASI怎樣才能擺脫束縛它的討厭的生物生命呢?它可以制造一種致命的病毒,它可以抑制農業食品的生産和分配,它可以迫使核電站融化,它可以引發戰爭。

我們真的不知道,因爲這都是未知的領域。幾百年前,制圖師會在世界上未開發的地區畫怪物,這就是我們現在所做的。

如果這一切聽起來令人絕望,不可避免,加勒特說事實並非如此。

到目前爲止,他的分析是基于ASI和人類占據相同的空間。但如果我們能達到多行星的地位,前景就會改變。

加勒特寫道:“例如,一個多行星生物物種可以利用在不同行星上的獨立經曆,使它們的生存策略多樣化,並可能避免一個被行星束縛的文明面臨的單點故障。”

如果我們能將風險分散到多個恒星周圍的多個行星上,我們就能緩沖ASI可能出現的最壞結果。

他寫道:“這種分布式的生存模式通過創造冗余,增強了生物文明對人工智能引發的災難的適應能力。”

如果未來人類占領的其中一個星球或前哨站未能在ASI技術奇點中幸存下來,其他星球或前哨站可能會幸存下來。他們會從中吸取教訓。

多行星地位甚至可能不僅僅是在ASI中幸存下來。它可以幫助我們掌握它。加勒特設想了這樣一種情況:我們可以在控制人工智能的同時,更徹底地試驗它。想象一下,人工智能在一個孤立的小行星或矮行星上,在沒有獲得逃離監獄所需資源的情況下,執行我們的命令。

加勒特寫道:“它允許在孤立的環境中研究先進人工智能的影響,而不會立即面臨全球滅絕的風險。”

但這裏有個難題。人工智能的發展正在加速,而我們試圖成爲多行星的努力卻沒有。

加勒特寫道:“人工智能的快速發展與空間技術的緩慢發展之間的差距是明顯的。”

不同之處在于,人工智能是計算和信息的,但太空旅行包含許多我們還不知道如何克服的物理障礙。我們自己的生物本性限制了太空旅行,但沒有這樣的障礙會限制人工智能。

“雖然從理論上講,人工智能幾乎可以在沒有物理限制的情況下提高自己的能力,”加勒特寫道,“但太空旅行必須應對能源限制、材料科學界限和太空環境的嚴酷現實。”

目前,人工智能在我們設定的限制下運行。但情況可能並非總是如此。我們不知道人工智能什麽時候會變成ASI,甚至不知道它能不能變成ASI。但我們不能忽視這種可能性。這導致了兩個相互交織的結論。

如果加勒特是正確的,那麽人類必須更加努力地進行太空旅行。這似乎有些牽強,但有知識的人都知道這是真的:地球不會永遠適合居住。如果我們不向太空擴張,人類將在這裏被我們自己的手或大自然的手毀滅。加勒特估計的200年只是在上面加了個感歎號。重新強調登陸月球和火星帶來了一些希望。

第二個結論與人工智能的立法和管理有關,在一個精神變態者可以控制整個國家並一心想發動戰爭的世界裏,這是一項艱巨的任務。

加勒特寫道:“雖然行業利益相關者、政策制定者、個別專家及其政府已經警告說,監管是必要的,但建立一個全球可接受的監管框架將是一項挑戰。”

很難用挑戰來形容它。人類自相殘殺的爭吵使這一切變得更加難以控制。此外,無論我們制定指導方針的速度有多快,ASI的變化可能會更快。

加勒特寫道:“如果沒有切實可行的監管,我們有充分的理由相信,人工智能不僅會對我們的技術文明,而且會對所有技術文明的未來進程構成重大威脅。”

如果我們這樣做,可能會歸結爲看似無聊和日常的事情:在立法上爭吵。

加勒特寫道:“宇宙中智慧和有意識生命的持續存在,可能取決于及時有效地實施這些國際監管措施和技術努力。”

如果朋友們喜歡,敬請關注“知新了了”!

1 阅读:21
评论列表
  • 2024-04-09 19:30

    有些細菌只有一天生命,但對它們來說也是過了出生,壯大,衰老,死亡的一生,該幹的事業也幹了。

知新了了

簡介:專注于新知、科普及趣聞的傳播,日耕不辍,天天新鮮。