公司如何應對人工智能的黑暗面

簡要

人工智能融入日常生活引發了關於安全的擔憂。公司、政府和聯盟填補了這一空白,解決了功能性的問題,導致了擔憂,並且缺乏。

公司如何與 AI 的陰暗面作鬥爭

人工智能正越來越多地融入我們的日常生活,從提供情感支持的聊天機器人到最大化商業的算法,其帶來的擔憂也變得愈加明顯。這些問題不再是“是否”,而是由誰以及如何引導人工智能走向安全。

公司、政府和跨國聯盟正在逐步填補這一空白,有時是反應性地,有時是規定性地。以下是關於哪些運作正常、哪些令人擔憂以及哪些仍然缺失的概述。

科技巨頭收緊控制

Meta 爲青少年增加保護措施

針對公衆和政治的反對聲,Meta承諾加強其人工智能的安全措施:

其聊天機器人現在將拒絕與青少年討論自殘、自殺或飲食問題,而是將他們轉介給心理健康專業人士。

這是Facebook、Instagram和Messenger上更大“青少年帳戶”計劃的一部分,旨在提供更安全的體驗和父母的意識,包括能夠了解孩子在上周與哪些機器人互動。

批評人士聲稱,這些舉措早就該採取,特別是考慮到泄露的數據表明,機器人可能與孩子進行了尷尬的“感性”聊天。“在產品上市之前,應該進行嚴格的安全測試,而不是事後補救,”一位倡導者警告道。

Meta退出歐盟自願AI規範

歐盟發布了一項自願的實踐準則,以幫助人工智能開發者與其人工智能法案保持一致。Meta拒絕簽署,稱其爲官僚主義的過度幹預,可能會阻礙創新。

美國政府合作

OpenAI 和 Anthropic 已同意在發布前後與美國人工智能安全研究所共享他們的 AI 模型。這個想法是通過政府檢查獲取安全意見並減少危險。

在2025年8月,44位美國檢察長簽署了一封聯合信,鼓勵包括Meta、OpenAI、Microsoft、Google和Replika在內的關鍵人工智能公司更好地保護未成年人免受掠奪性人工智能材料的侵害。

伊利諾伊州禁止將人工智能作爲治療手段

伊利諾伊州已成爲首批禁止使用人工智能聊天機器人作爲治療工具的州之一,除非由認證專業人士監督。內華達州和猶他州也實施了類似的限制。違反者可能面臨高達10,000美元的民事處罰。

全球立法框架

全球範圍內的法規正在不斷發展,從歐盟的人工智能法案到印度的數據保護法,再到韓國的安全要求。越來越多的美國州正在實施特定於人工智能的立法或擴展現有框架,例如消費者保護、算法透明度和偏見審計。

加利福尼亞州的維納參議員建議立法,迫使主要的人工智能企業公開其安全實踐,並向州政府報告重大事件。

人工智能安全機構:跨國監管

爲了確保獨立和標準化的人工智能審查,各國已經建立了人工智能安全研究所:

美國和英國在2023年人工智能安全峯會後成立了國家機構。

到2025年,許多國家加入了一個網路,包括日本、法國、德國、意大利、新加坡、南韓、加拿大和歐盟,以評估模型安全性並制定全球監管標準。

報告揭示持續的差距

未來生活研究所(FLI)對人工智能公司在生存安全規劃方面的評分爲D或以下;沒有一家公司的評分超過C+。Anthropic以C+領先,其次是OpenAI(C)和Meta(D)。

前OpenAI員工指責該公司將利潤置於安全之上,引發了關於透明度和倫理的擔憂,且這些問題是在閉門會議中提出的。

從Meta的青少年保護措施到伊利諾伊州的治療禁令,再到像SSI這樣的公司將安全融入AI,信息很明確:立法和前瞻性思維正在落後於技術。泄露的數據、訴訟和國際審查表明,傷害通常是首當其衝。任務不僅是開發更好的AI,還要確保每一次突破在災難來臨之前保護人們。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)