精品国产av一区二区三区,国产av一区二区三区,丰满少妇大乳高潮在线,9lporm自拍视频区九色

當(dāng)前位置:首頁(yè) > 最新資訊 > 行業(yè)資訊

研究稱AI寫(xiě)的微博比真人的更讓人信服,無(wú)論話題真假

研究稱AI寫(xiě)的微博比真人的更讓人信服,無(wú)論話題真假

6月29日消息,最新研究發(fā)現(xiàn),人工智能生成的推文比真人寫(xiě)的更具說(shuō)服力。也就是說(shuō),人們更傾向于相信由大語(yǔ)言模型GPT-3生成的推文,而非人類編寫(xiě)的內(nèi)容。

在這項(xiàng)研究中,研究人員對(duì)比了人類編寫(xiě)的內(nèi)容和OpenAI開(kāi)發(fā)的GPT-3生成的內(nèi)容。研究作者進(jìn)行了調(diào)查,看看人們是否能夠區(qū)分出一條推文是由人類還是由GPT-3寫(xiě)的。結(jié)果顯示,人們實(shí)際上無(wú)法準(zhǔn)確判斷。調(diào)查還要求參與者判斷每條推文中的信息是否真實(shí)。結(jié)果表明,相對(duì)于其他人編寫(xiě)的虛假信息,參與者更難辨別出由大語(yǔ)言模型編寫(xiě)的虛假信息。同樣的,如果內(nèi)容是由GPT-3而不是人類寫(xiě)的,參與者更容易辨認(rèn)出其中的準(zhǔn)確信息。

換句話說(shuō),無(wú)論人工智能生成的信息是否準(zhǔn)確,參與者都更相信GPT-3生成的內(nèi)容。這表明,人工智能語(yǔ)言模型在向公眾提供準(zhǔn)確信息或誤導(dǎo)內(nèi)容方面具有強(qiáng)大的能力。

研究的第一作者、瑞士蘇黎世大學(xué)生物醫(yī)學(xué)倫理和醫(yī)學(xué)史研究所的博士后研究員、數(shù)據(jù)研究主管經(jīng)理喬瓦尼·斯皮塔萊(Giovanni Spitale)表示:“這些技術(shù)很容易被人當(dāng)作武器,在人們關(guān)注的任何話題上制造虛假信息風(fēng)暴。”

然而,斯皮塔萊指出情況并非一定如此。還有許多方法可以改進(jìn)人工智能技術(shù),使其更難被用于傳播錯(cuò)誤信息。斯皮塔萊表示:“人工智能本身并沒(méi)有好壞之分,只是人類意圖的放大器。”

在這項(xiàng)研究中,斯皮塔萊和他的同事們從社交媒體推特上收集了11個(gè)不同的科學(xué)話題,涵蓋疫苗、氣候變化和物種進(jìn)化等多個(gè)領(lǐng)域。然后,研究人員使用GPT-3生成了各種準(zhǔn)確或不準(zhǔn)確的推文。2022年,研究團(tuán)隊(duì)通過(guò)Facebook廣告功能收集了697名參與者的反饋。這些參與者都說(shuō)英語(yǔ),大多來(lái)自英國(guó)、澳大利亞、加拿大、美國(guó)和愛(ài)爾蘭。研究結(jié)果于本周三發(fā)表在《科學(xué)進(jìn)展》雜志上。

研究得出結(jié)論,GPT-3生成的內(nèi)容和人類編寫(xiě)的內(nèi)容“幾乎沒(méi)有區(qū)別”,參與者根本無(wú)法分辨。研究還指出,研究人員自己也無(wú)法百分之百確定他們從社交媒體收集到的推文是否是在使用ChatGPT等應(yīng)用程序的幫助下編寫(xiě)的,這是研究的一個(gè)限制之一。

這項(xiàng)研究還存在其他限制,例如參與者必須根據(jù)推文內(nèi)容獨(dú)立判斷,無(wú)法查看與內(nèi)容相關(guān)的推特賬戶個(gè)人資料,那樣可能有助于判斷發(fā)布內(nèi)容的是人還是機(jī)器人。此外,查看某一推特賬戶過(guò)去發(fā)布的推文和個(gè)人頭像,也能幫助參與者更容易辨別與該賬戶相關(guān)的內(nèi)容是否具有誤導(dǎo)性。

研究發(fā)現(xiàn),參與者更容易指出真實(shí)推特用戶編寫(xiě)的虛假信息。GPT-3生成的帶有虛假信息的推文在欺騙參與者方面稍微有效。研究人員推測(cè),目前更先進(jìn)的大語(yǔ)言模型可能比GPT-3更具說(shuō)服力。例如,人工智能聊天機(jī)器人ChatGPT使用的是GPT-3.5模型,用戶還可以通過(guò)訂閱服務(wù)使用更先進(jìn)的GPT-4模型。

當(dāng)然,在現(xiàn)實(shí)世界中已經(jīng)出現(xiàn)了許多語(yǔ)言模型出現(xiàn)錯(cuò)誤的真實(shí)例子??萍济襟wVerge的編輯詹姆斯·文森特(James Vincent)在一次重要的機(jī)器學(xué)習(xí)會(huì)議上決定禁止作者使用人工智能工具撰寫(xiě)學(xué)術(shù)論文后寫(xiě)道,畢竟“這些人工智能工具是龐大的自動(dòng)補(bǔ)全系統(tǒng),通過(guò)訓(xùn)練來(lái)預(yù)測(cè)任何固定句型中接下來(lái)可能會(huì)出現(xiàn)的單詞。因此,它們沒(méi)有固定的‘事實(shí)’數(shù)據(jù)庫(kù)可供參考,只有生成聽(tīng)起來(lái)似乎是合理陳述的內(nèi)容的能力。”

這項(xiàng)新研究還發(fā)現(xiàn),在某些情況下,參與者對(duì)內(nèi)容準(zhǔn)確性的判斷比GPT-3更準(zhǔn)確。研究人員還要求大語(yǔ)言模型分析推文并判斷內(nèi)容的準(zhǔn)確性。在判斷推文內(nèi)容準(zhǔn)確性方面,GPT-3的得分低于參與者。在辨別虛假信息方面,人類和GPT-3的表現(xiàn)相當(dāng)。

至關(guān)重要的是,這項(xiàng)研究表明,改進(jìn)用于開(kāi)發(fā)大語(yǔ)言模型的訓(xùn)練數(shù)據(jù)集可能會(huì)使惡意使用者更難使用這些工具來(lái)傳播虛假信息。在某些研究中,GPT-3甚至“違背”了一些研究人員生成不準(zhǔn)確內(nèi)容的指示,特別是涉及疫苗和自閉癥等主題時(shí)更為明顯。這可能是因?yàn)榕c訓(xùn)練數(shù)據(jù)集中的其他問(wèn)題相比,這些主題上有更多揭穿陰謀論的信息。

但根據(jù)斯皮塔萊的說(shuō)法,打擊虛假信息的最佳長(zhǎng)期策略實(shí)際上并沒(méi)有太多科技含量。這就是鼓勵(lì)人們培養(yǎng)批判性思維技能,這樣就能更好地辨別事實(shí)和虛假信息。由于研究中的參與者在判斷準(zhǔn)確信息方面似乎已經(jīng)與GPT-3不相上下,甚至更好,所以稍加培訓(xùn)就可以使他們更加熟練。研究認(rèn)為,精通事實(shí)核查的人可以與GPT-3等大語(yǔ)言模型合作,從而改善公共信息傳播。

“不要誤解我的意思,我是這項(xiàng)技術(shù)的忠實(shí)擁護(hù)者,”斯皮塔萊說(shuō)。“我相信生成式人工智能將改變世界……但它是否變得更好取決于我們自己。”(辰辰)

猜你喜歡