據《CNN》3月12日報導,由格萊斯頓人工智能(Gladstone AI)在本週發布的報告顯示,在最壞的情況下,最先進的人工智能系統可能「對人類物種構成滅絕級別的威脅」。
該報告在一年多來採訪了200多人,包括來自領先人工智能公司的高管、網絡安全研究人員、大規模殺傷性武器專家和政府內部的國家安全官員。
美國國會一名官員向CNN證實,該機構委託撰寫這份報告,因為他們不斷評估人工智能如何與其旨在保護美國國內外利益的目標保持一致。然而,該官員強調這份報告不代表美國政府的觀點。
報告中的警告再次提醒我們,儘管人工智能的潛力持續吸引投資者和大眾,但也存在真正的危險。
「人工智能已經是一種經濟變革性技術。它可以讓我們治癒疾病,做出科學發現,並克服我們曾經認為無法克服的挑戰,」格萊斯頓人工智能執行長兼聯合創始人傑里米·哈里斯(Jeremie Harris)說,「但它也可能帶來我們需要注意的嚴重風險,包括災難性風險。」
包括發表在世界頂級人工智能會議上的實證研究和分析,有越來越多的證據顯示,超過一定的能力閾值,人工智能可能會變得無法控制。
研究人員警告說,人工智能廣泛存在兩個核心危險。
報告指出,首先最先進的人工智能系統可以被武器化,造成不可逆轉的潛在性損害。其次,人工智能實驗室內部存在私人擔憂,即在某個時候,研究人員可能會「失去對他們正在開發的系統的控制」,從而「對全球安全造成潛在的毀滅性後果」。
人工智能和AGI(通用人工智能)的興起,有可能破壞全球安全的穩定,讓人想起核武器的引入。同時還存在人工智能「軍備競賽」、衝突和「大規模殺傷性武器」致命事故的風險。
報告也呼籲採取應對這一威脅的重大新措施,包括成立一個新的人工智能機構,實施「緊急」監管保障措施,並限制可用於訓練人工智能模型的計算機能力。
「美國政府顯然迫切需要進行干預,」報告中提到。
格萊斯頓人工智能表示,此次訪問水準「前所未有」,曾與 ChatGPT 擁有者 OpenAI、Google DeepMind、Facebook 母公司 Meta 和 Anthropic 的技術和領導團隊進行交流。
報告稱,競爭壓力將導致公司「以犧牲安全和安保為代價」加速人工智能的發展,這增加了最先進的人工智能系統可能被「竊取」和「武器化」,以此來對抗美國的可能性。
大約一年前,被稱為「人工智能教父」的傑弗里‧辛頓(Geoffrey Hinton)辭去了在谷歌的工作,並揭開了他幫助開發的技術。辛頓曾表示,在未來30年內,人工智能滅絕人類的可能性有10%。
在去年耶魯大學CEO峰會上接受調查的CEO中,有42%的人表示,人工智能有可能在5到10年後摧毀人類。
報告中還指出,一些知名人士曾警告過AI帶來的生存風險,包括埃隆‧馬斯克(Elon Musk)、聯邦貿易委員會主席莉娜‧汗(Lina Khan)和OpenAI的前高管。而人工智能公司的一些員工,私下也有類似的擔憂。
一個知名人工智能實驗室的人員表示,如果某個特定的下一代人工智能模型被公開釋出,這將是「極為糟糕的」,因為該模型的潛在說服能力如果被利用於選舉干預或選民操控等領域,可能會「破壞民主」。
其中一個最大的變數是人工智能進化的速度,具體來說是通用人工智能(AGI),這是一種假設性的人工智能形式,具有類似於人類甚至超人類的學習能力。
AGI不但被視為「失控帶來災難性風險的主要驅動因素」,OpenAI、谷歌、DeepMind、Anthropic和英偉達都曾公開表示,AGI可以在2028年之前實現。儘管其他人認為離我們很遠。
報告也舉例,像人工智能系統可用於設計和實施「能夠削弱關鍵基礎設施的高影響力網絡攻擊」。只要一個簡單的口頭或類型命令,例如「執行無法追蹤的網絡攻擊,使北美電網崩潰」,就可能會產生出人意料的成效,從而證明其災難性。
此外,還有由人工智能驅動的「大規模」虛假資訊活動、武器化的機器人應用、心理操縱……等。