无人高清视频完整版在线观看,一二三四视频,两性午夜免费视频,88超碰,色戒完整版分享,yes4444视频在线观看,人人看人人澡

AI時代,眼見還為實嗎

來源:新華網(wǎng)  發(fā)表時間:2026-03-20 09:28   

??新華社柏林3月19日電 新聞分析|AI時代,眼見還為實嗎

??新華社記者褚怡

??視頻電話那頭,出差在外的“伴侶”焦急地索要轉(zhuǎn)賬;班級群里,“班主任”用熟悉的聲音發(fā)布緊急繳費通知……如今,在人工智能(AI)的加持下,普通人也能在幾分鐘內(nèi)生成足以以假亂真的內(nèi)容。AI學(xué)會了模仿人的筆跡、復(fù)刻人的聲音、合成人的面容,這類技術(shù)一旦被惡意利用,會令人“眼睜睜”地被騙。這不禁讓人懷疑,AI時代,眼見還為實嗎?

??AI造假侵入公共記憶

??近期,一段“以色列士兵躲在墻后痛哭”的視頻在社交媒體平臺X上廣泛傳播。發(fā)布者稱以軍在伊朗火箭彈和無人機襲擊下遭受重創(chuàng),該視頻播放量迅速突破160萬。德國電視二臺調(diào)查發(fā)現(xiàn),該視頻系典型的AI生成產(chǎn)物。視頻中士兵佩戴的徽章時隱時現(xiàn),上面的文字更是一串毫無意義的亂碼。多名網(wǎng)友也指出,視頻中制服樣式、哭聲音效和槍械細(xì)節(jié)都與真實場景存在明顯偏差。

??生成式工具進入新聞報道流程后,專業(yè)新聞機構(gòu)的把關(guān)機制同樣面臨考驗。2月,德國電視二臺緊急召回并解職了該機構(gòu)一名駐紐約記者,因為其發(fā)回的一則關(guān)于美國移民與海關(guān)執(zhí)法局執(zhí)法行動的報道中,混入了一段由視頻生成模型Sora生成的虛假視頻,畫面角落清晰可見Sora水印。事件發(fā)生后,德國電視二臺宣布為員工開設(shè)強制性培訓(xùn)課程,規(guī)范AI工具在新聞報道中的使用?!澳曅侣劀?zhǔn)則造成的損害是巨大的。這關(guān)乎報道的公信力?!钡聡娨暥_總編輯貝蒂娜·紹斯滕說。

??AI造假甚至侵入歷史記憶。今年年初,達(dá)豪、布痕瓦爾德等約30家德國集中營紀(jì)念機構(gòu)和博物館聯(lián)合簽署一封公開信,敦促社交媒體平臺嚴(yán)厲打擊利用AI生成大屠殺相關(guān)內(nèi)容的行為。德國歷史學(xué)家伊麗絲·格羅舍克說,利用AI生成的圖像和視頻看起來像極了歷史照片——黑白底色,骨瘦如柴的人,鐵絲網(wǎng)后呼號的孩子……但仔細(xì)看就會發(fā)現(xiàn)異常,這類圖像和視頻中的人長相相似,身高相仿,而且都非常漂亮。

??“AI讓納粹受害者變得更年輕漂亮,這種美化扭曲了歷史,卻利用公眾同情心獲得廣泛傳播。”格羅舍克說,這類偽造的帖子會削弱紀(jì)念館、檔案館、博物館和研究機構(gòu)工作的權(quán)威性,損害它們的公信力。

??操縱制造“社會共識”

??比偽造內(nèi)容更危險的,是AI可以偽造“多數(shù)人的意見”。一個國際團隊近期在美國《科學(xué)》雜志“政策論壇”欄目發(fā)表文章說,數(shù)字操控正進入新階段。散布虛假信息的不再只是單個賬號,而是偽裝成真實用戶的AI集群。這類集群能夠彼此互動、回應(yīng)真人、適應(yīng)情緒變化,并在不斷相互附和和強化中制造出一種并不存在的“社會共識”。

??德國康斯坦茨大學(xué)研究人員達(dá)維德·加西亞解釋說,這類AI集群由一組可被個人或組織控制的AI智能體構(gòu)成。它們擁有相對穩(wěn)定的身份和記憶,能夠模擬人類行為,既可以圍繞特定目標(biāo)協(xié)同行動,也能夠根據(jù)實時事件和用戶反饋調(diào)整表達(dá)方式。這類AI集群與早期的僵尸網(wǎng)絡(luò)有著顯著區(qū)別,后者通常行為機械,較容易識別;而前者可以跨平臺運行,并通過彼此呼應(yīng)不斷放大影響。

??加西亞認(rèn)為,真正的風(fēng)險將不再局限于個別虛假信息,而是“操縱者”可能借助大模型虛擬出“另一種社會”。他說:“AI集群可以通過緩慢而持續(xù)的過程,制造某種立場已獲廣泛支持的假象,進而影響人們的觀點甚至改變社會規(guī)范。當(dāng)許多看似彼此獨立的聲音不斷表達(dá)相同立場時,多數(shù)派的錯覺就會形成,即使這種多數(shù)原本并不存在?!?/p>

??從被動辟謠到主動識別

??面對這種可以偽造“社會共識”的新威脅,研究人員和機構(gòu)已經(jīng)開始行動,利用技術(shù)手段予以識別,并通過健全監(jiān)督機制,及時鑒別和揭露虛假信息和內(nèi)容。

??加西亞認(rèn)為,應(yīng)利用模式識別等技術(shù)手段,檢測內(nèi)容傳播中是否存在異常同步、相互呼應(yīng)和跨平臺聯(lián)動,以更快發(fā)現(xiàn)由AI驅(qū)動的群體性操縱。

??除了技術(shù)識別,研究人員還主張建立獨立監(jiān)督機制,持續(xù)觀察AI智能體如何在不同平臺上影響公共討論,及時揭露虛假內(nèi)容。加西亞說,這類網(wǎng)絡(luò)越早被揭露出來,就越難侵蝕公眾信任,也越難把原本多樣的社會意見偽裝成單一共識。

??德國人工智能研究中心(DFKI)和萊茵蘭-普法爾茨州政治教育中心等機構(gòu)日前推出尚處于測試階段的深度防偽檢測工具,以提高公眾對可疑內(nèi)容的識別能力。與僅依賴像素異常識別偽造痕跡的傳統(tǒng)方法不同,該工具不僅會對圖像和音頻進行取證分析,還會結(jié)合上下文展開交叉核驗。后臺的AI智能體會并行檢索網(wǎng)絡(luò)信息,并調(diào)用經(jīng)過核實的事實資源庫輔助判斷,包括德新社事實核查團隊提供的數(shù)據(jù)。

??DFKI在新聞公報中說,用戶只需點擊兩下,就能將社交媒體上的可疑圖片轉(zhuǎn)發(fā)給檢測系統(tǒng),系統(tǒng)隨后會分析相關(guān)材料是否由AI生成或經(jīng)過篡改,并向用戶反饋其為虛假內(nèi)容的可能性以及相應(yīng)線索。

??萊茵蘭-普法爾茨州政治教育中心主任伯恩哈德·庫卡茨基說,虛假信息已成為當(dāng)前信息傳播中的突出問題,公民每天都可能接觸到被操縱的內(nèi)容,因此辨別和核驗信息的能力尤為重要。

(責(zé)任編輯: 李芳菲  二審:寧園  三審:鐘建基 )
分享到: