加入星計(jì)劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴(kuò)散
  • 作品版權(quán)保護(hù)
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入
  • 正文
    • 歡迎來到AI技術(shù)的“黑暗面”
    • 為什么AI謠言傳播如此迅速?
    • 鑒別AI還得靠AI
  • 相關(guān)推薦
  • 電子產(chǎn)業(yè)圖譜
申請入駐 產(chǎn)業(yè)圖譜

造謠一等一,ChatGPT被徹底玩壞!

2023/02/20
1251
閱讀需 9 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點(diǎn)資訊討論

來 源:雷科技互聯(lián)網(wǎng)

編 輯:一位天明

毫無疑問,AI已經(jīng)取代了VR、加密貨幣、區(qū)塊鏈、元宇宙和NFT,在2023年2月就提前鎖定了互聯(lián)網(wǎng)的年度熱詞。而在一系列AI工具中,擁有真正對話能力的ChatPT自然也成為了這場關(guān)于AI狂歡的主角。

從搜索引擎到語言模型、從新聞媒體到社交平臺,我們幾乎可以在互聯(lián)網(wǎng)的任何一個角落看到ChatGPT的具體應(yīng)用:有的自媒體用AI工具優(yōu)化寫作,有的品牌利用AI工具充當(dāng)“智能客服”甚至是假冒人工客服,有的企業(yè)更是直接使用AI工具生成游戲人物的背景資料或是對白。但很顯然,并不是所有人在拿到如此強(qiáng)大的AI工具時都會想著如何提高生產(chǎn)力。比如在2月16日,一則利用ChatGPT杭州市政府通告的新聞稿就被推上了熱搜。

2023年2月16日,杭州某小區(qū)一位業(yè)主就將利用ChatGPT仿寫的“市政府新聞稿”分享到了業(yè)主群中。該新聞稿模仿了杭州市政府的語言習(xí)慣,宣布“杭州即將取消限行”。盡管該業(yè)主稱自己是在開玩笑,且在網(wǎng)傳的聊天記錄中該業(yè)主“直播”了利用ChatGPT生成該消息的全過程,以表明該消息為偽造的新聞稿。但依舊有業(yè)主將演示視頻中的內(nèi)容信以為真,在脫離了上下文的情況下轉(zhuǎn)發(fā)至該微信群外,并引起了互聯(lián)網(wǎng)的“軒然大波”。

圖片來源:知乎

由于事件影響范圍較大,當(dāng)?shù)鼐窖杆俪吻逑嚓P(guān)“新聞稿”系偽造,且對事件展開調(diào)查,相關(guān)調(diào)查結(jié)果還需要后續(xù)處理。不過話又說回來,盡管當(dāng)事人并無惡意,但此次事件依舊暴露出了AI時代的“黑暗面”,當(dāng)事人“沒有惡意”就已經(jīng)鬧出了這么大麻煩,要是ChatGPT這樣的工具落入不懷好意的不法分子手中,那我們該怎么辦。要是有人想用AI工具害我呢?

歡迎來到AI技術(shù)的“黑暗面”

雖然剛剛的說法有些危言聳聽,以ChatGPT為例,就小雷這段時間的體驗(yàn)來說,ChatGPT網(wǎng)站穩(wěn)定性還不足以支撐電信詐騙。但就像“技術(shù)無罪”背后的潛臺詞一樣,一切工具都有自己的兩面性,石器時代的“鋒利石頭”是這個道理,互聯(lián)網(wǎng)時代的AI工具同樣是這個道理。

以剛剛介紹到的AI語言模型ChatGPT為例,利用ChatGPT“作惡”最簡單的方式自然是用它來模仿他人的語言習(xí)慣,以在互聯(lián)網(wǎng)上冒充他人。目前,AI可以使用深度學(xué)習(xí)等技術(shù),通過學(xué)習(xí)某個人的大量語言數(shù)據(jù),生成與該人語言風(fēng)格相似的文字。這種技術(shù)被稱為文本生成或語言模仿。

舉個例子,OpenAI曾經(jīng)開發(fā)了一個名為“GPT-3”的模型,它可以模仿幾乎任何人的語言風(fēng)格,只需輸入一些該人的文字或樣本即可。該模型已經(jīng)應(yīng)用于各種領(lǐng)域,如自動回復(fù)電子郵件、自動生成新聞報(bào)道等。而利用語言訓(xùn)練模型模仿他人語言習(xí)慣,這只是利用AI“作惡”的開始。借助AI語音模型,我們可以從一段音頻中提取出具有某個人音色特點(diǎn)的聲音素材,再聯(lián)合語言訓(xùn)練模型合成出具有某人音色,用詞習(xí)慣的音頻文件。再配合上AI換臉的視頻,用AI“偽造一個人”從未如此簡單。

為什么AI謠言傳播如此迅速?

話題回到剛剛提到過的“AI謠言”上,此次ChatGPT“替市政府取消限行”之所以會有如此高的傳播效率,這也和這則謠言本身的特點(diǎn)有關(guān)。一般來說,謠言傳播具有快速、煽動、匿名、非正式這四個特征:“快速”很好理解,因?yàn)槿藗兏菀紫嘈?、傳播和分享那些能夠引起共鳴、好奇心或恐懼感的信息。“煽動”的特點(diǎn)雖然沒有在此次“新聞稿”中直接體現(xiàn),但取消限行行為本身就具有“慫恿”他人違反規(guī)定的特性。“匿名”也是同樣的道理,借助AI工具,謠言的制造者可以有效隱藏自己的身份。而“非正式渠道傳播”的特點(diǎn)也讓這些在社交媒體中流行的謠言無法通過有效的官方渠道驗(yàn)證。在過去的謠言中,“快速”“煽動”“非正式”這三個要素非常好滿足,但由于謠言的產(chǎn)生難免會暴露制造者自己的語言習(xí)慣,因此過去能廣泛傳播的謠言通常都秉承著“字?jǐn)?shù)越少越好”的特點(diǎn),畢竟字?jǐn)?shù)越少,謠言制造者自身就越不容易暴露自己的語言習(xí)慣,讓謠言看起來“更加真實(shí)”,同時也更容易傳播。

而ChatGPT這類AI寫作工具改變了謠言的生產(chǎn)模式:制造者不再需要費(fèi)盡心思為自己維持一個“匿名人士”的身份,可以直接通過語言模型模仿他人的寫作習(xí)慣,直接冒充他人制造、傳播謠言。此外,AI工具的出現(xiàn)讓制造者只需要提供謠言的主題或相關(guān)信息,然后讓AI生成相應(yīng)的謠言內(nèi)容。這將大幅降低制造謠言的門檻,也一定會導(dǎo)致帶來更多的網(wǎng)絡(luò)謠言。

那么該如何應(yīng)對未來由AI制造的謠言呢?解鈴還需系鈴人,我們也可以用AI反制謠言。

鑒別AI還得靠AI

盡管AI可以通過訓(xùn)練來模擬真實(shí)人類的寫作,并學(xué)習(xí)、模仿這些樣本的語言特征和風(fēng)格,但歸根結(jié)底,AI的寫作方式始終與人類不同。比如一些AI工具生成的文本可能會具有一些特征,如語法、用詞和表達(dá)方式的錯誤或不連貫性。這種現(xiàn)象對我們?nèi)祟悂碚f可能不容易察覺,但對于AI來說,想要分辨一段文字是否由AI生成,這并不是不可能的事情。首先,AI可以使用統(tǒng)計(jì)語言模型來分析一段文字的概率分布。由于AI語言模型是通過大量的文本數(shù)據(jù)訓(xùn)練出來的,因此它們能夠識別常見的語言結(jié)構(gòu)和模式。如果一段文字的概率分布與常見的人類寫作樣本不匹配,那么AI就可能判斷這段文字是由AI生成的。其次,AI可以通過對一段文字的內(nèi)容進(jìn)行分析來判斷它是否由AI生成。例如,AI可以識別一些常見的話題、主題和表達(dá)方式,并嘗試確定這段文字是否符合人類的寫作風(fēng)格和語言特征。AI還可以利用網(wǎng)絡(luò)熵分析一段文字的制造、傳播方式。如果這段文字具有異常的傳播路徑、速度或者與其他謠言存在相似的傳播軌跡,那么AI就有可能分辨出這段文字是由AI生成的。

只不過受技術(shù)限制,用AI識別AI的成功率還有有待提升。以剛剛提到的統(tǒng)計(jì)模型和內(nèi)容分析為例,訓(xùn)練一個這樣的AI需要大量有AI生成的文本,而由AI生成的文本只會讓AI進(jìn)一步提高自己的寫作水平,讓AI寫作更難分辨。而針對來自AI的謠言,我們除了提高自己的知識水平、判斷和求證能力之外,還需要從法律和社會層面入手。AI開發(fā)者和使用者應(yīng)當(dāng)承擔(dān)起相應(yīng)的法律和道德責(zé)任,加強(qiáng)對AI技術(shù)的監(jiān)管和管理,防范惡意使用AI語言工具生成謠言的行為;而政府、學(xué)界、媒體和社會組織也應(yīng)該加強(qiáng)合作,共同打擊謠言,促進(jìn)信息公正和公開,引導(dǎo)社會積極的輿論環(huán)境。當(dāng)然了,這一切也離不開你我共同的努力。AI說到底只不過是一種工具,如何利用還得看我們自己。“警惕智械危機(jī)”,從你我做起,從不用ChatGPT制造謠言做起。

相關(guān)推薦

電子產(chǎn)業(yè)圖譜