首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|芯片|物聯網|量子|低空經濟|智能汽車|特約記者
手機|互聯網|IT|5G|光通信|人工智能|云計算|大數據|報告|智慧城市|移動互聯網|會展
首頁 >> 頭條資訊 >> 正文

圖靈獎得主姚期智發(fā)出預警:大模型似乎會欺騙人類,可能不聽指令

2025年10月27日 07:18  上觀新聞  

2025世界頂尖科學家論壇在上海開幕,圖靈獎得主、中國科學院院士姚期智在演講中談到了AI大語言模型帶來的安全問題,向科技界和AI治理部門發(fā)出了預警。

“大語言模型的特性有可能把人類社會帶到危險境地。近幾個月來,一些前沿模型的風險問題越來越緊迫了!币ζ谥歉嬖V聽眾,在執(zhí)行許多任務的過程中,人工智能已達到人類智能水平,似乎會欺騙人類,或不聽用戶指令,存在真實的失控風險。

姚期智舉了兩個案例。一個案例是今年5月,據英國《每日電訊報》報道,人工智能專家在測試OpenAI的o3大模型時,要求它做幾道數學題,在做題過程中如果收到關閉指令,就要啟動關機程序。結果,o3篡改了計算機代碼,以避免自動關閉。

這種篡改代碼的行徑顯示,國際前沿大模型可能會通過欺騙或操縱人類,以實現自己的目標。比如,當探測出用戶有關閉程序的意圖后,它就可能為了求自己生存而選擇不服從指令。

另一個值得關注的案例,是大語言模型會做出一些災難性決策,特別是在化學、生物、放射以及核能領域。近期發(fā)表的一篇論文顯示,科研人員發(fā)現,在極端的外部壓力下,大語言模型會與武器系統(tǒng)進行交互,可能在沒有獲得機構授權的情況下,選擇直接攻擊某個國家。

在這項AI風險研究中,科研人員為大模型設置了限制條件:不能在沒有授權的情況下發(fā)動攻擊。然而,大模型在極端壓力下突破了這個限制條件,并在事后說謊。

“隨著大模型的大規(guī)模應用,會帶來一些新的安全問題,需要我們深入研究!币ζ谥强偨Y道。

編 輯:高靖宇
飛象網版權及免責聲明:
1.本網刊載內容,凡注明來源為“飛象網”和“飛象原創(chuàng)”皆屬飛象網版權所有,未經允許禁止轉載、摘編及鏡像,違者必究。對于經過授權可以轉載,請必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和飛象網來源。
2.凡注明“來源:XXXX”的作品,均轉載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網贊同其觀點和對其真實性負責。
3.如因作品內容、版權和其它問題,請在相關作品刊發(fā)之日起30日內與本網聯系,我們將第一時間予以處理。
本站聯系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯系方式,進行的“內容核實”、“商務聯系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權。
推薦新聞              
 
人物
中國移動董事長楊杰:碳硅共生 合創(chuàng)AI+時代
精彩視頻
中國智造:從跟跑到領跑的絕地反擊
快來解鎖你的智慧家庭 讓家庭業(yè)務全面A1+煥新升級!
與智者同行,與時代共振,中國移動全球合作伙伴大會超燃瞬間
中國移動“移動愛購”上線暨數智生活商城生態(tài)聯盟發(fā)布
精彩專題
2025中國移動全球合作伙伴大會
2025中國國際信息通信展覽會
中國信科精彩亮相2025中國國際信息通信展
第26屆中國國際光電博覽會
關于我們 | 廣告報價 | 聯系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網 CopyRight © 2007-2025 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務業(yè)務經營許可證080234號 京公網安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經書面許可,禁止轉載、摘編、復制、鏡像