隨著巴以沖突的發(fā)展,社交媒體平臺上出現(xiàn)了大量反映當(dāng)?shù)噩F(xiàn)場畫面的視頻,但這些內(nèi)容真實性到底幾何,恐怕不容樂觀。
在推特上, 自巴以沖突以來便產(chǎn)生了相關(guān)大量虛假內(nèi)容,比如有看起來效果逼真的游戲視頻被篡改成哈馬斯發(fā)動襲擊的錄像、阿爾及利亞人放煙花慶祝的照片被充作以色列打擊哈馬斯的圖片、足球巨星C羅揮舞巴勒斯坦國旗的假照片,甚至一段3年前敘利亞內(nèi)戰(zhàn)的視頻也被重新編輯,冒充成最近拍攝的新視頻。
而這些內(nèi)容的虛假程度,甚至都蒙騙了推特的CEO埃隆·馬斯克。他發(fā)推寫道:“如果想實時關(guān)注巴以沖突,推薦關(guān)注@WarMonitors和@sentdefender。”然而真相卻是,這兩個賬戶竟都是臭名昭著的虛假信息傳播者。
為何虛假信息能夠在網(wǎng)絡(luò)大行其道,甚至收獲不少流量,除了蹭熱點帶來的流量加持,數(shù)字平臺在傳播速度與規(guī)模上的優(yōu)勢也給虛假信息的病毒式擴(kuò)散提供了“溫床”。此外,在如今各種算法的加持下,不同信仰、認(rèn)知的群體所帶來的信息繭房效應(yīng)被進(jìn)一步加劇,以至于“造謠一張嘴,辟謠跑斷腿”的局面逐漸成為常態(tài),辟謠的傳播力度遠(yuǎn)不及謠言來得快、傳得廣。
隨著今年以ChatGPT為代表的內(nèi)容生成式AI模型集中爆發(fā),虛假內(nèi)容已經(jīng)突破了傳統(tǒng)的張冠李戴、捕風(fēng)捉影,無中生有式內(nèi)容開始大量出現(xiàn),真實信息在網(wǎng)絡(luò)空間的傳遞聲浪正變得狹窄。
本文將結(jié)合信息繭房效應(yīng),探究以深度偽造為代表的AI技術(shù)加持下,虛假內(nèi)容如何影響受眾,以及背后有哪些更加深層次的運維操作。
被信息繭房割裂的受眾
所謂信息繭房,是指受眾更傾向于關(guān)注自己原本就感興趣的領(lǐng)域,更樂于與志同道合的人開展交流,久而久之就如同蠶蛹一般被“繭房”束縛,不愿面對外部的世界和生活,甚至在接觸到不同聲音時產(chǎn)生強(qiáng)烈反彈。
換言之,如果受眾長期受片面或者虛假信息的浸泡,久而久之便會與“唱反調(diào)”的真相產(chǎn)生抵觸,心甘情愿落入其所營造的“繭房”中,并成為此類信息的分享者與傳播者。
在國內(nèi),眾多互聯(lián)網(wǎng)平臺會根據(jù)用戶喜好推送特定內(nèi)容,其形式已從用戶首次使用時手動勾選感興趣的領(lǐng)域,逐步演化為通過用戶行為構(gòu)建大數(shù)據(jù),進(jìn)而勾勒出更精準(zhǔn)的用戶畫像,使得推送內(nèi)容更加符合不同受眾群體的胃口。從商業(yè)角度出發(fā),這無疑能夠增加受眾及粘性,但由此帶來的信息繭房效應(yīng)已讓不同群體在認(rèn)知上愈發(fā)割裂,進(jìn)而造成輿論的分化、沖突。
不久前,國內(nèi)知名短視頻平臺被曝出同一視頻的評論區(qū)內(nèi)容會因不同用戶而大相徑庭。在一則在男女吵架的視頻中,男生看到的是支持男方,而女生看到的則是支持女方。如此一來,不同群體很難根據(jù)視頻及評論內(nèi)容獲得更加客觀、全面且理性的判斷,反倒是單一群體及認(rèn)知偏見被放大。一些網(wǎng)友為此感到擔(dān)憂,未來的視頻可能會以此呈現(xiàn)出更符合不同用戶心理的內(nèi)容,從而進(jìn)一步加劇信息繭房效應(yīng)。
國內(nèi)某短視頻平臺上男(左)女(右)用戶群體呈現(xiàn)出截然不同的評論
在促進(jìn)社會秩序發(fā)展的事件中,信息繭房效應(yīng)的危害得到進(jìn)一步暴露,比如最近鬧得沸沸揚揚的成都惡犬傷人事件,養(yǎng)犬人士、動物保護(hù)人士與厭犬人士的矛盾再度被點燃,而信息繭房效應(yīng)無疑只會加劇這些群體的對立,對如何規(guī)范養(yǎng)犬、保證各方權(quán)益,起不到任何建設(shè)性作用,反而容易促成一些地方?jīng)Q策層對養(yǎng)犬要么散漫不管,要么直接一刀切的極端局面。
可以預(yù)見,在AI時代,各類大模型無疑會更加精準(zhǔn)地細(xì)分受眾,處在繭房中的群體將越發(fā)割裂,更加難以接受其他各類信息及觀點。自然,一旦繭房中的信息成分虛假,也更加難以通過其他信息進(jìn)行佐證,導(dǎo)致虛假信息泛濫。
割裂的后續(xù):AI深度偽造成為虛假內(nèi)容生產(chǎn)池
深度偽造能夠利用AI的深度學(xué)習(xí)特性來捏造看似現(xiàn)實的虛假圖像。隨著今年Midjourney等AI繪圖工具大火,以特朗普被逮捕為代表的AI生成式圖片在社交媒體廣泛傳播,若不是背景人物出現(xiàn)如有六根手指頭等翻車情況,其逼真程度已非過去任何一款自動化圖像生成工具所能比擬。
由Midjourney生成的特朗普被捕畫面
而一位推特用戶則分享了用Midjourney虛構(gòu)的歷史事件畫面:2001年4月,美國西雅圖發(fā)生了毀滅性的里氏9.1級地震,城市被徹底摧毀,救援人員在廢墟中拯救幸存者。
試想一下,除了贊嘆逼真?zhèn)卧旒夹g(shù)的吃瓜群眾,會有人僅因為這些畫面信以為真嗎?由于信息繭房導(dǎo)致不同群體拒絕或者接收不到其他外部信息,對虛假信息的辨別力也隨之大打折扣,此類基于生成式AI的深度偽造技術(shù)無疑正成為大量虛假信息的制造機(jī)。
由AI虛構(gòu)的2001年美國西雅圖大地震
在仍然持續(xù)的俄烏沖突中,深度偽造技術(shù)就已開始“大顯其手”。2022年3月,澤連斯基和普京分別宣布投降的兩段虛假視頻在推特等社交平臺上瘋傳,雖然視頻本身的偽造技術(shù)還顯得有些拙劣,但對這場沖突持對立立場的受眾而言,無疑都是喜聞樂見的結(jié)果,從而在一定程度上促成了這些虛假視頻的傳播。
2023年5月,一張由AI生成的美國五角大樓爆炸的圖片又在全球社交平臺上病毒式傳播,甚至導(dǎo)致美國股市應(yīng)聲下跌。雖然這張照片同樣存在一些肉眼可見的破綻,但對于全世界許多不滿美國的人而言,任何關(guān)于美國負(fù)面的信息往往會在第一時間對其深信不疑。
AI虛構(gòu)的五角大樓附近發(fā)生爆炸畫面
AI的信息操縱
由于生成式AI能制造虛假信息,誤導(dǎo)受眾認(rèn)知,并在信息繭房效應(yīng)下加劇不同群體間的割裂與對立,進(jìn)而顯示出AI具有能夠操縱信息的能力,在國際形勢越發(fā)復(fù)雜、地緣政治問題頻出的當(dāng)下,利用AI生成的虛假信息已經(jīng)成為現(xiàn)代認(rèn)知戰(zhàn)的重要利器,不僅關(guān)乎世界和平穩(wěn)定,對國家政治安全也構(gòu)成挑戰(zhàn)。
被AI操控的選舉
過去,以美國為首的西方國家在舉行總統(tǒng)選舉等重大政治活動時都會曝出大量作弊甚至是涉嫌操縱選舉的消息。到了現(xiàn)在,AI技術(shù)也恐將在這一系列“見不得光“的操作中發(fā)揮重要作用。
2024年,美國將舉行新一輪總統(tǒng)選舉,多家媒體預(yù)測,這將成為美國第一場廣泛使用AI工具的選舉,民主黨與共和黨都會將AI技術(shù)用于宣傳、籌款等活動。比如《紐約時報》6月25日報道,一些政治競選活動開始使用AI,這種現(xiàn)象幾個月前還只是緩慢滲透,而現(xiàn)在已經(jīng)匯聚成巨大洪流,開始改寫全球民主選舉的游戲規(guī)則。技術(shù)專家警告稱,由于美國陷入政治極化,加上美國前總統(tǒng)特朗普輸?shù)?020年大選后抨擊選舉被“操縱”,許多選民對政壇和主流媒體的信任度大打折扣。有人可能利用這一點,用AI技術(shù)制造混亂。
正如同前文所述,利用AI繪圖工具已經(jīng)能夠生成逼真的特朗普被捕畫面,如此一來,生成性AI工具能迅速產(chǎn)出競選電郵、視頻等宣傳材料,冒充候選人、誤導(dǎo)選民。美聯(lián)社為此設(shè)想了一些在競選期間炮制的“AI陷阱”:用總統(tǒng)候選人的聲音制作假音頻,指示選民在錯誤的日期投票;冒充候選人承認(rèn)“犯罪”,或發(fā)布種族主義言論;散布和新聞報道截圖相似的圖片。
沖突和戰(zhàn)爭的催化劑
在國際關(guān)系中,戰(zhàn)略互信是國際安全與國際形勢穩(wěn)定的核心支柱,可以為全球合作和多邊合作體制建設(shè)奠定堅實的基礎(chǔ)。但基于AI的深度偽造與其他顛覆性數(shù)字技術(shù)相結(jié)合,將極大地降低全球和區(qū)域多邊機(jī)構(gòu)以及國際關(guān)系行為體彼此間的信任。
2019年,印度和巴基斯坦之間的緊張局勢升級期間,路透社發(fā)現(xiàn)了30起關(guān)于該事件的深度偽造視頻。視頻大部分是2017年印巴沖突期間,發(fā)生在印巴兩國一些城市的民眾向?qū)Ψ娇棺h示威的場景。但卻被AI技術(shù)對這些視頻作了處理,并有意錯誤描述為正在印度和巴基斯坦發(fā)生的視頻片段。這些視頻極大地刺激了印巴兩國的民族主義者,導(dǎo)致事態(tài)升級。由于擔(dān)心事態(tài)失控,印度和巴基斯坦官方被迫暫時關(guān)閉了一些社交平臺。
對國家政治安全的危害
當(dāng)前,中國的迅速崛起正給西方霸權(quán)主義帶來挑戰(zhàn),以美國為首的一些國家除了在技術(shù)上遏制中國,在輿論上也對中國進(jìn)行抹黑,并試圖分裂中國,給中國國家政治安全帶來風(fēng)險,其中AI技術(shù)正起到推波助瀾的作用。
2021年4月29日,中國駐比利時王國大使館專門發(fā)布了揭露以美國為首的西方國家制作包括深度偽造在內(nèi)的關(guān)于涉疆問題的虛假信息的文章,揭露在美國反華勢力的操縱下,一些歪曲事實的“學(xué)術(shù)機(jī)構(gòu)”、造謠的“專家學(xué)者”和不顧道德的“業(yè)余演員”,是如何制造謊言、包括利用現(xiàn)代人工智能技術(shù)制造更加逼真的謊言,以通過誹謗中國的治疆政策誤導(dǎo)國際公共話語。
如英國廣播公司BBC關(guān)于所謂“強(qiáng)迫勞動”的專題報道,視頻中將央視在安徽省報道對口幫扶的新疆和田地區(qū)皮山縣招聘工人的鏡頭,通過剪輯、扭曲,搖身一變?yōu)?ldquo;強(qiáng)迫”新疆的維族青年到內(nèi)地工作。還有一些深度偽造視頻污蔑中國政府通過計劃生育政策在新疆實施所謂的“種族滅絕”政策等。這些深度偽造內(nèi)容給中國政府的新疆政策抹黑,將涉疆問題建構(gòu)成為所謂的“人權(quán)”問題和中國政府的“種族滅絕政策”,不僅誤導(dǎo)了外部世界的民眾,讓中國外交面臨更為惡劣的國際環(huán)境,也影響了新疆的和平安定和民族團(tuán)結(jié)局面以及未來的發(fā)展。
雖說虛假信息問題已非一日之談,但AI技術(shù)無疑讓虛假信息更加難以辨別,同時也更能揣測受眾心理,并能按照特定意志顛倒黑白、煽風(fēng)點火,裹挾進(jìn)紛繁復(fù)雜的國家競爭與沖突當(dāng)中。如果說信息繭房的雛形是因認(rèn)知偏差和群體分化所致,那么AI技術(shù)則在不同繭房之間再加上了一層具有硝煙味的迷霧,讓對立加劇,讓真相消失。網(wǎng)絡(luò)時代,由AI技術(shù)帶來的虛假信息需引起我們充分警惕。