研究人員警告:AI「群聚」可能加劇線上錯誤資訊與操控

簡要說明

  • 研究人員警告,AI 群體可能在有限的人類監督下協調“影響活動”。
  • 與傳統的殭屍網路不同,群體能夠調整訊息傳遞並變化行為。
  • 文章指出,現有平台的安全措施可能難以偵測並遏止這些群體。

根據週四在 Science 發表的一份新報告,容易被偵測的殭屍網路時代即將結束。在研究中,研究人員警告,錯誤資訊活動正轉向自主的 AI 群體,這些群體能模仿人類行為、即時調整,且幾乎不需人類監督,這使得偵測與阻止變得更加困難。 這份由牛津、劍橋、加州大學柏克萊分校、紐約大學以及馬克斯·普朗克研究所的研究團隊撰寫的論文描述了一個數位環境,在這個環境中,操控變得更難辨識。這些 AI 活動不再只是與選舉或政治相關的短暫行動,而是能持續維持一個長期的敘事。 “在政府手中,這些工具可能用來壓制異議或放大既得利益者的聲音,”研究人員寫道。“因此,只有在由嚴格、透明且民主負責的框架所治理時,部署防禦性 AI 才有可能。”

群體是由自主 AI 代理組成的團隊,能協同工作以更有效率地解決問題或完成目標。研究人員表示,AI 群體建立在社交媒體平台現有的弱點之上,這些平台上的用戶常常被隔離在不同觀點之外。 “假新聞已被證明比真實新聞傳播得更快、更廣,進一步加深碎片化的現實並侵蝕共同的事實基準,”他們寫道。“近期證據顯示,為了提升參與度而優化的內容策展與極化有關,平台算法放大了分裂性內容,即使以犧牲用戶滿意度為代價,也進一步破壞公共領域。” 根據南加州大學計算機科學教授兼 Sahara AI 執行長 Ren 的說法,這種轉變已在主要平台上顯現,他表示,AI 驅動的帳號越來越難與普通用戶區分。 “我認為更嚴格的 KYC(認識你的客戶)或帳號身份驗證會有很大幫助,”Ren 在接受 Decrypt 採訪時說。“如果建立新帳號更困難,監控垃圾郵件者也更容易,這將使得代理人使用大量帳號進行協調操控變得更加困難。”

早期的影響活動主要依賴規模而非微妙性,數千個帳號同時發佈相同訊息,這使得偵測相對容易。相較之下,研究指出,AI 群體展現出“前所未有的自主性、協調性與規模”。 Ren 表示,僅靠內容審查不太可能阻止這些系統。他指出,問題在於平台如何管理大規模的身份認證。更嚴格的身份驗證和帳號創建限制,可能使協調行為更容易被偵測,即使個別貼文看起來像人類。 “如果代理人只能用少數帳號來發佈內容,那麼偵測可疑使用並封鎖這些帳號就容易得多,”他說。

沒有簡單的解決方案
研究人員總結指出,沒有單一的解決方案可以解決這個問題,潛在的選項包括改進對統計異常協調的偵測以及提高自動化活動的透明度,但僅靠技術措施可能不足夠。 根據 Ren 的說法,即使平台引入新的技術安全措施,財務激勵仍然是協調操控攻擊的持續驅動力。 “這些代理群通常由團隊或供應商控制,他們從外部團體或公司獲得金錢激勵來進行協調操控,”他說。“平台應該強化 KYC 和垃圾郵件偵測機制,以識別並篩除代理操控的帳號。”

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)