2025年12月22日

洞察全球大事|挖掘中南海內幕|紅朝真相|川普2.0|深度觀察|獨家分析|追蹤AI前沿|娛樂|時尚|奇聞異事|養生熱話|真實信息小棧

探索北歐 定制專屬行程 - Wendy北歐深度旅遊
HomeAI科技前沿AI已成「新時代核彈」?專家警告失控風險威脅人類生存

AI已成「新時代核彈」?專家警告失控風險威脅人類生存

從《黃仁勳傳》作者到諾獎得主集體發聲:技術突破背後的存在性危機與治理挑戰

【觀view AI前沿】人工智慧正以前所未有的速度重塑人類文明,但這場技術革命也帶來了令人深思的問題:我們是否正在創造一個可能威脅自身存在的技術怪物?隨著AI能力的指數級增長,從學術界到政策制定者,越來越多的聲音開始警告這項技術可能帶來的存在性風險。

《黃仁勳傳》作者AI或已成新時代核彈 若失控恐毀滅人類

《黃仁勳傳》作者史蒂芬·維特10月10日在《紐約時報》發表的深度分析文章,將當前AI發展比作1939年核分裂技術的重大突破。這個類比並非聳人聽聞,而是基於對AI能力演進軌跡的深刻洞察。

維特指出,我們已經跨越了一個關鍵門檻——問題不再是AI是否具備毀滅人類的能力,而是它確實「可以」做到這一點。

維特10月10日以「可能終結世界的AI指令」(The A.I. Prompt That Could End the World)為題撰文,文章引述圖靈獎(Turing Award)得主、被譽為「AI教父」之一的著名電腦科學家本吉奧(Yoshua Bengio)指出,他因為思考AI未來發展而失眠,擔心AI有可能被用來設計致命病原體,像是超級版的新冠病毒,足以毀滅人類。

「他擔心的不是科幻小說中的場景,而是基於現實技術能力的合理推演——一種比新冠病毒更危險的「超級病毒」,足以對人類生存構成根本威脅。

這種擔憂得到了實證研究的支持。史丹佛大學科學家在2025年9月的報告顯示,研究人員已經「首次利用AI設計出一種病毒」。雖然這項研究在科學領域具有重要意義,但也揭示了AI技術被濫用的巨大潛在風險。維特強調,數據已經超越了理論爭論,清楚表明AI能力強大且正在加速提升,這些能力帶來的風險真實存在。

AI技術能力的爆發式增長

近年來AI模型展現的能力範圍令人震驚。據報導,最新一代的大型語言模型不僅能編寫複雜程式碼,還能從零開始建立小型AI系統,甚至具備設計新型生命體和入侵伺服器的潛在能力。這些能力的組合創造了前所未有的風險矩陣:一個足夠智能的AI系統,如果配備了實驗室資源和錯誤的安全準則,確實具備造成大規模破壞的潛力。

維特在分析中強調,從這個意義上說,「像核彈一樣具有破壞力的AI如今已化為現實,問題在於:是否有人會魯莽到製造這樣的AI?」這個問題觸及了技術發展與人類責任的核心矛盾。

樂觀主義的反駁聲音

然而,AI領域內部對這項技術的未來影響存在截然不同的觀點。Meta首席人工智慧科學家楊立昆代表了相對樂觀的一派。他認為關於AI將毀滅人類的說法過於荒謬,在他的視角中,AI並非威脅,而是人類智慧的「放大器」。

楊立昆將AI比作歷史上的重大技術突破,如電力或印刷術,認為它們都極大推動了人類文明進步,而非取而代之。他堅信,通過負責任的開發和應用,AI完全可以成為人類社會進步的強大盟友。這種觀點提醒我們,在關注潛在風險的同時,也不應忽視AI蘊含的巨大積極潛力。

AI革命的規模和速度 諾貝爾經濟學獎得主「我真希望我有明確的答案,可惜我沒有」

除了存在性風險,AI發展對經濟社會的影響同樣深遠。2025年諾貝爾經濟學獎得主彼得·郝伊特發出警告,認為雖然AI帶來驚人機遇,但也可能摧毀大量工作機會,甚至取代高度專業化人力,亟需規範。

郝伊特指出了一個關鍵矛盾:AI既是進步的引擎,也可能是失業的催化劑。他強調,在缺乏有效規範的市場環境中,私營部門的獎勵機制往往不會以對社會最有利的方式化解這種矛盾。企業在追求效率和利潤最大化過程中,可能優先選擇用AI取代人力,而不會主動考慮對社會的長期影響。

79歲的郝伊特將當前AI發展比作「人類史上重大時刻」,與1990年代電信業興起、電力與蒸汽動力問世的年代相提並論。然而他坦言,面對AI革命的規模和速度,「我真希望我有明確的答案,可惜我沒有」。

多維度風險分析

當前AI發展的風險可以從多個維度進行分析:

生物安全領域: AI可能降低設計致病因子的門檻,幫助惡意行為者更快搜羅文獻、規劃流程或優化病毒序列。雖然主流研究機構實施了層層防護措施,但這些軟性防線能否抵禦變通繞過仍存疑問。

網路安全威脅: AI已能自動化部分社會工程攻擊、釣魚內容生成與滲透測試,對關鍵基礎設施構成潛在威脅。

資訊操控風險: 多模態生成技術使深度偽造成本大幅下降,在選舉年等敏感時期尤其危險,可能嚴重影響民主程序和社會穩定。

經濟不平等加劇: AI可能創造新的數位鴻溝,讓掌握先進技術的少數人獲得巨大優勢,而大多數人面臨失業或技能過時的風險。

政策回應與治理挑戰

面對這些挑戰,政策制定者開始採取行動。加州州長加文·紐森最近簽署了規範AI聊天機器人互動的法案,創下全美先河,儘管這與白宮主張AI應自由發展的立場相悖。這一舉措反映了地方政府對AI風險的深度關切。

然而,AI治理面臨巨大挑戰。技術發展速度遠超政策制定步伐,而AI的全球性特徵使得單一國家或地區的監管措施效果有限。如何在促進創新和防範風險之間找到平衡點,成為極其複雜的問題。

有效的AI治理需要建立多層次的監管框架:

技術層面: 建立AI系統的安全評測標準,要求高風險應用接受第三方審核,並建立事故報告和責任追溯機制。

產業層面: 制定行業自律準則,建立同行監督機制,確保企業在追求商業利益的同時承擔社會責任。

國際層面: 建立類似核不擴散條約的國際協議,在AI研發和部署方面建立共同標準和監督機制。

「人類史上重大時刻」

面對AI發展的雙重性,人類社會需要採取謹慎樂觀的態度。一方面,我們不能因為恐懼而放棄AI帶來的巨大機遇——從氣候變化到疾病治療,從教育普及到科學發現,AI都可能發揮重要作用。另一方面,我們也不能忽視其潛在風險,必須建立有效的防範機制。

維特提出的核彈隱喻提醒我們,技術本身不是命運,制度設計才是關鍵。核技術的歷史告訴我們,通過適當的國際合作、監管框架和責任機制,人類可以管理極其危險的技術。AI治理需要借鑒這些經驗,同時針對其獨特性質制定新的解決方案。

關鍵在於建立一套能夠平衡「安全、責任、效率、開放」四個向量的治理框架。這需要政府、企業、學術界和公民社會的共同努力,確保AI發展始終服務於人類福祉,而不是成為威脅人類生存的工具。

正如郝伊特所言,這是「人類史上重大時刻」。我們今天做出的決策,將深遠地影響人類文明的未來軌跡。與其問AI會不會終結世界,不如問:我們是否有決心、智慧與耐心,在AI仍可塑造之時,為它裝上剎車、方向盤與安全帶。只有這樣,當它提速時,才能把全人類帶向更遠的地方,而不是更深的深淵。

人工智慧的發展已經到達了一個關鍵的十字路口。我們面臨的選擇將決定這項技術是成為人類智慧的放大器,還是變成新時代的核彈。答案掌握在我們手中,但時間窗口正在快速縮小。現在就是行動的時候。

版權聲明

© 觀view版權聲明:本文原創內容(文字、觀點、分析、製圖等)均受著作權法保護。未經觀view事先書面授權,不得以任何形式轉載、改寫、節錄、翻譯、散布或作商業利用。允許在合理範圍內引用並註明出處,但不得影響原作完整性。違反上述規定者,觀view將依法追究民事與刑事責任。授權申請請洽:[email protected]

獨家重磅