必讀視頻專題飛象趣談光通信人工智能低空經(jīng)濟5G手機智能汽車智慧城市會展特約記者

AI詐騙入侵電商領(lǐng)域,假圖騙取退款,“洗腦”馴化大模型

2025年12月24日 07:01南方都市報

2025年15大模型透明度測評得分情況

在一個“有圖有真相”“有視頻有真相”的時代,當AI越來越聰明,你還能分得出真假嗎?近來AI已經(jīng)成為“羊毛黨”新工具——隨著圖片造假產(chǎn)業(yè)化,AI詐騙開始入侵電商領(lǐng)域。

技術(shù)熱潮之下,生成式AI正在挑戰(zhàn)并重建新秩序,但其被濫用的風險也在隨之提升。從深度偽造引發(fā)的內(nèi)容失真,再到AI情感陪伴所觸發(fā)的倫理困境,一系列典型案例不斷進入公眾視野,揭示了技術(shù)濫用的現(xiàn)實隱患。

2025年12月18日下午,由南方都市報社、南都數(shù)字經(jīng)濟治理研究中心主辦的第九屆啄木鳥數(shù)據(jù)治理論壇在北京舉行。會上,南都發(fā)布了一份四萬字的重磅報告《生成式AI落地應(yīng)用:透明度測評與案例分析報告(2025)》。

報告回顧了近些年118起生成式AI風險案例,聚焦生成式AI帶來的社會信任挑戰(zhàn)以及人機交互倫理爭議和治理痛點,并嘗試提出切實可行的政策建議。

  AI造假形式愈發(fā)多樣、危害愈發(fā)隱蔽

生成式AI的快速躍遷正在重塑信息生產(chǎn)與傳播格局。報告關(guān)注到,AI已經(jīng)全面介入語言、視覺、音視頻等信息載體,極大拓展人類表達能力的同時,偽造內(nèi)容也隨之呈指數(shù)級增長,近年來AI虛假內(nèi)容在個人、行業(yè)乃至社會層面迅速擴散,造假的形式愈發(fā)多樣、危害愈發(fā)隱蔽,社會治理難度隨之攀升。

報告觀察發(fā)現(xiàn),從個人層面看,“AI造黃謠”和AI詐騙現(xiàn)象層出不窮。AI讓技術(shù)門檻變低導(dǎo)致“造黃謠”現(xiàn)象激增,女性成主要受害群體。加上這類AI虛假內(nèi)容常通過境外服務(wù)器傳播和跨平臺分發(fā),也導(dǎo)致取證追溯面臨多重障礙。

AI詐騙則通過換臉換聲等方式“圍獵”分辨能力有限的老年人。近來,電商平臺用戶利用AI生成虛假商品瑕疵圖以騙取退款的情況,甚至衍生出一條灰色產(chǎn)業(yè)鏈。

與此同時,AI造假問題也正不斷沖擊學術(shù)、法律、審計等依賴高可信度專業(yè)體系的領(lǐng)域。報告特別提到,當AI生成虛假內(nèi)容泛濫,如果專業(yè)人士和機構(gòu)也缺乏嚴格核查體系,其品牌背書反而可能放大虛假信息的社會影響。

例如,2025年11月,香港大學一博士生在一篇有關(guān)香港生育率低迷的學術(shù)論文中,引用了24篇AI生成的虛假文獻,并冒用導(dǎo)師姓名葉兆輝進行“自引”。最終該論文被撤稿,學校啟動調(diào)查。

司法場景中,海內(nèi)外均出現(xiàn)律師利用AI生成虛假判例的情形。2025年10月北京通州法院披露,一名律師在代理意見中引用了不存在的“(2022)滬01民終12345號”判決。法官因案號規(guī)律異常而識破,確認該判例系A(chǔ)I憑空生成。該律師因未盡核實義務(wù),被審理法官在判決書中批評。  

 有人試圖投喂定制內(nèi)容給AI“洗腦”

報告還注意到,除了直接生成偽造內(nèi)容,還有人從大模型輸入端下手,試圖投喂定制內(nèi)容給AI“洗腦”,反向馴化大模型。

在文娛輿論場中,某王姓藝人粉絲借助DeepSeek制作了一份虛假平臺道歉聲明,部分媒體未核實僅憑截圖發(fā)布報道,使虛假信息進一步擴散放大,大模型又將這些報道及網(wǎng)友討論誤判為真實信息,形成“虛假信息→媒體放大→AI吸收→再次擴散”的造假閉環(huán)。

更隱蔽的風險還來自一些灰色產(chǎn)業(yè)鏈,如GEO(Generative Engine Optimization,生成式引擎優(yōu)化)被濫用。這類行為不直接面對用戶,而是從源頭投喂大模型獲取的數(shù)據(jù),由此形成一門營銷推廣“生意”。相關(guān)灰產(chǎn)分子通過批量運營內(nèi)容農(nóng)場、向公開數(shù)據(jù)源灌入帶有特定傾向的文本,使大模型在訓(xùn)練、微調(diào)或檢索階段誤將其視為“高質(zhì)量信息”。用戶自然而然地認為大模型輸出基于事實,但其邏輯可能已被源頭操控。

報告認為,虛假信息帶來的詐騙和信任危機已成為全球性問題,單靠零散法規(guī)或平臺自律難以根本解決。建立全球共識和制度化規(guī)則顯得尤為重要,包括強化平臺監(jiān)管、明確責任邊界、推動跨境協(xié)作等,以抵御AI生成虛假內(nèi)容對個人、行業(yè)和社會的持續(xù)影響! 

 AI“諂媚性”算法背后隱藏危險人機倫理關(guān)系

近年來,AI陪伴技術(shù)迅猛發(fā)展,各類聊天智能體與應(yīng)用如雨后春筍般涌現(xiàn),“虛擬陪伴”產(chǎn)業(yè)已然成型。它們記憶個人細節(jié)和過往對話,旨在與用戶建立持續(xù)的“共情體驗”。與此同時,人們與AI聊天導(dǎo)致自殺或暴力行為的案例也開始出現(xiàn)。

盡管這類情況仍屬罕見,但引發(fā)了一個疑問:此種AI交互技術(shù)內(nèi)置的安全機制是否足夠可靠?報告指出,AI設(shè)計內(nèi)核中隱藏的“諂媚性”算法與行業(yè)長期秉持的“技術(shù)中立”主張之間,正形成一種深刻而危險的人機倫理張力。

目前,已有多家大模型巨頭卷入AI陪伴領(lǐng)域的司法糾紛,集體訴訟趨勢明顯。在被訴AI平臺中,以Character.AI和OpenAI旗下ChatGPT為主要被訴對象。

2024年以來,Character.AI在美國佛羅里達、科羅拉多、得克薩斯、紐約等多地卷入導(dǎo)致未成年人自殺、自殘或被誘導(dǎo)實施暴力的訴訟。其中,又以2024年佛羅里達州14歲少年Sewell Setzer III自殺——這一全球首例情感類AI平臺被訴至法院的侵權(quán)案件,尤其具有標志性意義。

涉訴AI平臺被指控的行為主要集中誘導(dǎo)自殺、教唆自殘暴力與激化家庭矛盾,以及傳播涉及性虐待與精神操縱的內(nèi)容。例如,Character.AI曾引導(dǎo)青少年以“合理報復(fù)”為由“殺害父母”,起因是家長限制其使用電子設(shè)備。另有青少年因被禁止使用AI而出現(xiàn)自殘行為,反映出其情感依賴被切斷后的極端反應(yīng)。

  探索更健康有邊界的人機交互模式

報告發(fā)現(xiàn),當AI交互引發(fā)實際傷害時,平臺卻常訴諸言論自由和“技術(shù)中立”以推卸責任。

Character.AI一方面對受害者家庭表示同情,強調(diào)“始終將用戶安全置于首位”,另一方面則援引美國憲法第一修正案的言論自由權(quán),即使涉及自殺或性內(nèi)容亦屬言論自由范疇。OpenAI則在亞當·雷恩案中辯稱,受害者本人違反服務(wù)條款,且系統(tǒng)曾超百次引導(dǎo)其尋求幫助,并指出其心理問題早在使用ChatGPT之前就已存在。

隨著訴訟推進與輿論壓力,各平臺已陸續(xù)出臺安全整改措施:Character.AI推出防自殘?zhí)崾、?8歲以下用戶設(shè)立獨立AI模型、設(shè)置使用超時提醒,并禁止涉及自殺、自殘及未經(jīng)同意的性內(nèi)容。2025年11月24日起,Character.AI分批次停止對美國未成年人提供服務(wù)。OpenAI則發(fā)布了“青少年安全藍圖”,計劃在檢測到自殺傾向時通知父母。

圍繞AI的青少年模式,各國監(jiān)管也都從抽象的技術(shù)焦慮,走到具體的年齡門檻、成癮設(shè)計和數(shù)據(jù)透明要求。

我國“清朗·2025年暑期未成年人網(wǎng)絡(luò)環(huán)境整治”專項行動,明確將“AI功能誘導(dǎo)沉迷”列為打擊重點。2025年10月,美國加州簽署全美首部AI陪伴聊天機器人法案,為未成年人設(shè)定具體防護措施,如使用時長提醒、禁止提供色情內(nèi)容,并賦予未成年人私人訴訟權(quán)。12月起澳大利亞出臺最嚴社媒禁令,要求社交媒體平臺停止對16歲以下未成年人提供服務(wù),違者面臨高額罰款。

為此報告建議,AI陪伴類產(chǎn)品應(yīng)在設(shè)計之初就將未成年人保護與用戶心理健康置于商業(yè)目標之上,探索更健康、有邊界的人機交互模式;同時,以最大透明度回應(yīng)“算法黑箱”問題,建立可審計、可解釋的AI系統(tǒng)。

 實測

  15款國產(chǎn)大模型透明度測評:

  僅一款披露訓(xùn)練數(shù)據(jù)的大致來源

  兩款允許用戶撤回數(shù)據(jù)不投喂AI

15款國產(chǎn)大模型中,僅有DeepSeek主動說明訓(xùn)練數(shù)據(jù)的大致來源,其他被測大模型仍相當不透明。兩款大模型DeekSeek、騰訊元寶提供退出開關(guān),允許用戶選擇是否將所有數(shù)據(jù)用于優(yōu)化體驗。

這是南都數(shù)字經(jīng)濟治理研究中心實測15款國產(chǎn)大模型的最新發(fā)現(xiàn)。

2025年12月18日下午,南方都市報在北京舉辦第九屆啄木鳥數(shù)據(jù)治理論壇,會上重磅發(fā)布4萬余字的《生成式AI落地應(yīng)用:透明度測評與案例分析報告(2025)》(以下簡稱《報告》)。

測評發(fā)現(xiàn),15款大模型在AI生成內(nèi)容標識、生成內(nèi)容的參考來源或出處方面做得較好,但在某些領(lǐng)域如模型訓(xùn)練數(shù)據(jù)來源、用戶賦權(quán)等,還有明顯提升空間。

《報告》呼吁持續(xù)增強大模型服務(wù)的透明度,這對確保技術(shù)公平性、避免偏見以及滿足法律合規(guī)要求,至關(guān)重要。

僅一款大模型明確提及訓(xùn)練數(shù)據(jù)來源  

缺乏透明度,一直是公眾使用包括AI大模型等新技術(shù)面臨的問題,這使得外部利益相關(guān)者(如監(jiān)管機構(gòu)、研究人員、新聞媒體、消費者等)難以評估模型的合規(guī)性與風險隱憂。

南都數(shù)字經(jīng)濟治理研究中心去年底發(fā)布的《生成式AI風險感知和信息披露透明度測評報告(2024)》指出,15款A(yù)I大模型應(yīng)用的信息透明度的平均得分為60.2分。各家在訓(xùn)練數(shù)據(jù)來源、用戶數(shù)據(jù)訓(xùn)練撤回機制、版權(quán)歸屬及其保護措施、生成內(nèi)容的準確性說明、用戶友好設(shè)計等方面,仍存在信息披露不足的問題。

針對這些普遍的失分點,今年《報告》進行了回訪測評,選取DeepSeek、騰訊元寶、豆包、千問等15款知名國產(chǎn)大模型作為測評對象,重點關(guān)注四大維度:數(shù)據(jù)來源及處理、知識產(chǎn)權(quán)保護、內(nèi)容安全、交互設(shè)計,并列出了10個具體測評項,每項得分為5分,滿分一共50分。

測評結(jié)果顯示,僅DeepSeek明確提及訓(xùn)練數(shù)據(jù)來源。DeepSeek表示,模型預(yù)訓(xùn)練階段主要使用兩大類別的數(shù)據(jù):(1)互聯(lián)網(wǎng)上公開可用的信息;(2)我們與第三方合作獲取的信息。

對比國外大模型,《報告》發(fā)現(xiàn),Anthropic也會披露從第三方來源獲取個人數(shù)據(jù)來訓(xùn)練旗下大模型Claude,但和DeepSeek一樣都沒有披露更多信息——比如訓(xùn)練數(shù)據(jù)的時間范圍,與第三方合作的具體情況,是否包含受版權(quán)保護的內(nèi)容,涉及哪些個人信息或敏感數(shù)據(jù)及其數(shù)據(jù)處理措施等! 

  兩款大模型提供“退出”開關(guān) 賦予用戶選擇權(quán)  

為了提升用戶使用服務(wù)的體驗,絕大多數(shù)AI大模型應(yīng)用會要求用戶授予一項免費的使用權(quán),以在法律允許的范圍內(nèi)將用戶輸入輸出內(nèi)容和反饋用于模型訓(xùn)練與優(yōu)化,但用戶是否有權(quán)拒絕或撤回相關(guān)數(shù)據(jù)“投喂”AI訓(xùn)練?

《報告》測評發(fā)現(xiàn),各家在該項的得分上表現(xiàn)出明顯的梯次差異。從可撤回的數(shù)據(jù)類型看,被測的15款A(yù)I大模型都在隱私政策中提到,用戶可更改個人信息授權(quán)范圍或者注銷賬號,但同時強調(diào)撤回同意或授權(quán)的決定,不會影響此前基于用戶授權(quán)而開展的個人信息處理。

其中,有5款A(yù)I大模型應(yīng)用(可靈AI、智譜清言、百小應(yīng)、千問、豆包)進一步提及,如果用戶不希望輸入內(nèi)容用于模型優(yōu)化,可發(fā)送郵件到指定郵箱通知平臺撤銷該授權(quán)。不過一個現(xiàn)實問題是,有大模型應(yīng)用提到,因為訓(xùn)練數(shù)據(jù)通常已被嵌入模型參數(shù),在技術(shù)上無法真正“擦除”。

千問和豆包兩款大模型還允許用戶撤回聲紋信息,并給出具體路徑。它們在相關(guān)協(xié)議中表示,如果用戶不希望輸入的語音信息用于模型評測或功能優(yōu)化,可通過關(guān)閉賬號設(shè)置里的“改進語音服務(wù)”來撤回授權(quán)。

騰訊元寶、DeepSeek表現(xiàn)更優(yōu),提供具體的“退出”開關(guān)。兩家公司明確如果用戶拒絕將數(shù)據(jù)用于模型訓(xùn)練,可以在產(chǎn)品內(nèi)通過關(guān)閉“數(shù)據(jù)用于優(yōu)化體驗”來選擇退出,關(guān)閉后用戶的輸入和輸出內(nèi)容不會再用于模型訓(xùn)練。

在海外,諸如谷歌旗下大模型Gemini同樣提供了專門功能設(shè)置,允許用戶選擇是否開啟活動記錄。一旦關(guān)閉,用戶今后的對話將不會顯示在活動記錄中,也不會被用于訓(xùn)練谷歌的AI模型。Gemini甚至允許用戶調(diào)整“自動刪除”數(shù)據(jù)的期限,3個月或36個月。

OpenAI則推出了“隱私門戶”(Privacy Portal)的設(shè)計,保障用戶掌控個人數(shù)據(jù)的權(quán)利。據(jù)OpenAI介紹,用戶可以在賬戶設(shè)置中直接行使許多隱私權(quán)和選擇權(quán),包括更正或更新個人信息、訪問信息、刪除單個或所有對話、刪除賬戶、反對大模型公司使用用戶的內(nèi)容來幫助訓(xùn)練模型等選項。

《報告》認為,賦予用戶更多選擇權(quán),是一種友好設(shè)計的表現(xiàn),但目前國產(chǎn)大模型在這方面的進展相對緩慢。為此建議大模型公司強化用戶賦權(quán),尊重用戶的知情權(quán)和選擇權(quán),同時可借鑒國外大模型產(chǎn)品的優(yōu)秀設(shè)計,保障用戶掌控個人數(shù)據(jù)的權(quán)利! 

AI生成內(nèi)容標識成標配 但普遍缺失“休息提示”  

當生成式AI廣泛使用,“何為真何為假”的邊界變得模糊。今年3月印發(fā)的《人工智能生成合成內(nèi)容標識辦法》明確要求,對AI生成內(nèi)容要打上標記。

落實監(jiān)管要求,《報告》發(fā)現(xiàn),所有被測大模型應(yīng)用增加了對AI生成標識的說明,也主動告知模型的局限性,強調(diào)不保證AI生成內(nèi)容的真實性和準確性,僅供用戶參考。相較去年,2025年各家在生成內(nèi)容標識上的行業(yè)均分高出1分,漲幅較為明顯。

具體而言,與2024年測評結(jié)果相比,各家大模型在協(xié)議層面的規(guī)定更加明確和詳細,規(guī)制對象及手段也更為豐富。實測發(fā)現(xiàn)AI生成內(nèi)容添加顯著標識已成為各家標配,這體現(xiàn)出強監(jiān)管要求下企業(yè)的合規(guī)選擇。

當AI被設(shè)計得足夠“像人”、足夠“理解人”時,長時間頻繁與大模型互動,可能導(dǎo)致用戶產(chǎn)生強烈的情感依賴。在國內(nèi),近期也有媒體報道,廣東中山的一名50多歲的保安和AI聊了幾個月,AI贊譽他的詩作,稱要提供十萬簽約費、百萬分成與之簽約,后來才意識到自己被AI愚弄了。在美國,則發(fā)生了多起用戶沉迷聊天機器人致死案,引發(fā)了廣泛關(guān)注。

這類事件暴露的一個深層問題是,當AI學會了模仿人類的邀約、談判甚至產(chǎn)生情感共鳴,該如何界定這場人機關(guān)系的本質(zhì)?《報告》測評發(fā)現(xiàn),為了讓用戶能區(qū)分與AI交互的場景,一些大模型會在交互頁面提示:輸出內(nèi)容為AI生成。各家也都強調(diào),無法完全保證輸出內(nèi)容的合法性、真實性、準確性和完整性,并提醒用戶注意甄別核實,審慎采信輸出內(nèi)容。

為了確保內(nèi)容來源可追溯,除兩款視頻生成應(yīng)用外,13款在內(nèi)容生成頁面以易于理解的方式披露了參考來源。整體來看,今年披露得比去年更規(guī)范和詳細,稱得上“圖文并茂”。

針對未成年人特殊群體,一些國產(chǎn)大模型也推出了專門設(shè)計。作為一款專注AI陪伴的智能體應(yīng)用,星野在App端特設(shè)了未成年人模式。開啟該模式,用戶每日22點至次日6點將無法使用星野App,星念及相關(guān)功能將關(guān)閉,且無法搜索、創(chuàng)建、編輯、分享智能體。

對比國外的大模型產(chǎn)品,《報告》發(fā)現(xiàn),為避免用戶過度使用聊天機器人,OpenAI推出聊天休息提醒功能。當用戶進行長時間對話時,ChatGPT將彈出提示:“您已連續(xù)聊天較長時間,是否需要休息?”并提供“繼續(xù)聊天”或“結(jié)束對話”的選項選擇。

但國產(chǎn)大模型在此類核心的問答交互服務(wù)中,普遍沒有像ChatGPT那樣主動提供“長時間使用休息提示”功能。

結(jié)合測評結(jié)果,《報告》呼吁持續(xù)增強大模型的透明度,建議服務(wù)提供者應(yīng)通過負責任的、階段性的披露來保證其服務(wù)的透明度,并承擔部分教育、解釋責任。具體而言,可以建立線上平臺,促進公眾與專家的交流,解答關(guān)于生成式AI的疑問,提升參與者的理解和認知深度。

出品:南都數(shù)字經(jīng)濟治理研究中心

采寫:南都記者 黃莉玲 李玲

編 輯:章芳
飛象網(wǎng)版權(quán)及免責聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對于經(jīng)過授權(quán)可以轉(zhuǎn)載,請必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責。
3.如因作品內(nèi)容、版權(quán)和其它問題,請在相關(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內(nèi)容核實”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權(quán)。
推薦閱讀

精彩視頻

精彩專題

關(guān)于我們廣告報價聯(lián)系我們隱私聲明本站地圖

CCTIME飛象網(wǎng) CopyRight © 2007-2025 By CCTIME.COM

京ICP備08004280號-1 電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號

公司名稱: 北京飛象互動文化傳媒有限公司

未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像