黄色不卡一区_成人综合婷婷国产精品久久免费_午夜精品久久久久久99热_99热精品在线

AI不可淪為謠言“擴音器”

2025-07-08 13:14:35 作者:維辰

20250708102643205-28-4a6c8.jpeg

這兩天,有個非常“魔性”的事——

先是一則題為《演員王一博案,判了》的新聞發酵,文章提到,人工智能公司DeepSeek就AI模型違規將王一博與腐敗案進行不當關聯一事正式道歉,還援引了刑事判決書,隨后,“DeepSeek向王一博道歉”沖上微博熱搜。然而,多家媒體查閱DeepSeek國內外所有官方渠道,卻發現無此“聲明”,裁判文書網上也無法找到“聲明”提及的判決書。此外,網上流傳的“聲明”是一張AI生成內容頁面的截圖,截圖下方可以看見標明“給DeepSeek發送消息”的對話框。據《南方都市報》,雖說DeepSeek并未作任何表態,但“經多方核查發現,這則聲明系使用AI生成”。

如今,不少人用AI寫東西,若只是生成個道歉聲明,沒什么大不了。問題的關鍵在于,AI生成的聲明被個別媒體當成事實報道了出來,有了媒體“背書”,虛假信息就此“洗白”,再經大量轉載與討論,其他AI大模型也出現了被“污染”的情況,在回答問題時稱DeepSeek已道歉。“虛假信息—媒體傳播—AI學習—二次擴散”的完整閉環就此形成,也揭示出AI大模型在信息海洋中被“污染”的一角。

疏于事實核查的媒體,被批評不冤。因即使不能判定“聲明系使用AI生成”,只要去檢索所謂聲明、判決書,就能發現疑點,真假不明同樣不適合發表。好在不管DeepSeek有沒有道歉,都沒有多大影響。而若語料污染發生在金融、醫療、法律等領域,大模型“食用”虛假信息的后果就會更為顯化。比如,有股市“黑嘴”炮制假消息后,通過高頻率、大規模地傳播,污染AI語料庫,誤導大模型給出虛假內容,再雇傭“水軍”擴散AI對話截圖,人為制造概念股假象誘導散戶接盤,制造“AI殺豬盤”。

造成AI語料污染的,不管是媒體不實報道及其引發的轉載和討論,還是別有用心之人造謠后借AI傳謠,都會顯著增加AI生成虛假甚至有害內容的概率。此次“烏龍”事件中,其他AI大模型也被“污染”,印證了業內人士所說的,AI生成內容還會造成遞歸污染——大模型生成的虛假內容被再次上傳至互聯網,成為后續模型訓練的數據源,形成“污染遺留效應”。這種遞歸循環會導致錯誤信息逐代累積,最終扭曲模型的認知能力。故而,除了個別媒體沒有把好關外,值得討論的還有,如何加強虛假語料治理,以避免“純凈水中滴入墨水”。

針對“AI殺豬盤”等通過“自媒體”造謠誘導AI傳謠的,引入權威信源“白名單”,優先抓取政府機構、學術期刊等可信數據,可謂釜底抽薪。至于媒體為虛假信息“背書”,則需要通過多層次多源交叉驗證和權威數據庫比對,過濾可疑內容。總之,警惕語料污染甚至數據投毒,避免AI淪為謠言“擴音器”。

(來源:南方日報)

責任編輯:陳平

掃一掃分享本頁