💥 Gate 广场活动: #发帖赢代币PORTALS# 💥
在 Gate广场发布与 PORTALS、Alpha交易赛、空投活动或Launchpool 相关的原创内容,即有机会瓜分 1,300 枚 PORTALS 奖励!
📅 活动时间:2025年9月18日 18:00 – 9月25日 24:00 (UTC+8)
📌 相关详情:
Alpha交易赛:参与即有机会赢奖励
👉 https://www.gate.com/zh/announcements/article/47181
空投活动:领取 #PORTALS# 空投
👉 https://www.gate.com/zh/announcements/article/47168
Launchpool:抵押 GT 获取 PORTALS
👉 https://www.gate.com/zh/announcements/article/47148
📌 参与方式:
发布原创内容,主题需与 PORTALS 或相关活动(Alpha交易赛 / 空投 / Launchpool) 相关
内容不少于 80 字
帖子添加话题: #发帖赢代币PORTALS#
附上任意活动参与截图
🏆 奖励设置:
🥇 一等奖(1名):300 PORTALS
🥈 二等奖(4名):150 PORTALS/人
🥉 三等奖(4名):100 PORTALS/人
📄 注意事项:
公司如何应对人工智能的黑暗面
简要
人工智能融入日常生活引发了关于安全的担忧。公司、政府和联盟填补了这一空白,解决了功能性的问题,导致了担忧,并且缺乏。
人工智能正越来越多地融入我们的日常生活,从提供情感支持的聊天机器人到最大化商业的算法,其带来的担忧也变得愈加明显。这些问题不再是“是否”,而是由谁以及如何引导人工智能走向安全。
公司、政府和跨国联盟正在逐步填补这一空白,有时是反应性地,有时是规定性地。以下是关于哪些运作正常、哪些令人担忧以及哪些仍然缺失的概述。
科技巨头收紧控制
Meta 为青少年增加保护措施
针对公众和政治的反对声,Meta承诺加强其人工智能的安全措施:
其聊天机器人现在将拒绝与青少年讨论自残、自杀或饮食问题,而是将他们转介给心理健康专业人士。
这是Facebook、Instagram和Messenger上更大“青少年账户”计划的一部分,旨在提供更安全的体验和父母的意识,包括能够了解孩子在上周与哪些机器人互动。
批评人士声称,这些举措早就该采取,特别是考虑到泄露的数据表明,机器人可能与孩子进行了尴尬的“感性”聊天。“在产品上市之前,应该进行严格的安全测试,而不是事后补救,”一位倡导者警告道。
Meta退出欧盟自愿AI规范
欧盟发布了一项自愿的实践准则,以帮助人工智能开发者与其人工智能法案保持一致。Meta拒绝签署,称其为官僚主义的过度干预,可能会阻碍创新。
美国政府合作
OpenAI 和 Anthropic 已同意在发布前后与美国人工智能安全研究所共享他们的 AI 模型。这个想法是通过政府检查获取安全意见并减少危险。
在2025年8月,44位美国检察长签署了一封联合信,鼓励包括Meta、OpenAI、Microsoft、Google和Replika在内的关键人工智能公司更好地保护未成年人免受掠夺性人工智能材料的侵害。
伊利诺伊州禁止将人工智能作为治疗手段
伊利诺伊州已成为首批禁止使用人工智能聊天机器人作为治疗工具的州之一,除非由认证专业人士监督。内华达州和犹他州也实施了类似的限制。违反者可能面临高达10,000美元的民事处罚。
全球立法框架
全球范围内的法规正在不断发展,从欧盟的人工智能法案到印度的数据保护法,再到韩国的安全要求。越来越多的美国州正在实施特定于人工智能的立法或扩展现有框架,例如消费者保护、算法透明度和偏见审计。
加利福尼亚州的维纳参议员建议立法,迫使主要的人工智能企业公开其安全实践,并向州政府报告重大事件。
人工智能安全机构:跨国监管
为了确保独立和标准化的人工智能审查,各国已经建立了人工智能安全研究所:
美国和英国在2023年人工智能安全峰会后成立了国家机构。
到2025年,许多国家加入了一个网络,包括日本、法国、德国、意大利、新加坡、南韩、加拿大和欧盟,以评估模型安全性并制定全球监管标准。
报告揭示持续的差距
未来生活研究所(FLI)对人工智能公司在生存安全规划方面的评分为D或以下;没有一家公司的评分超过C+。Anthropic以C+领先,其次是OpenAI(C)和Meta(D)。
前OpenAI员工指责该公司将利润置于安全之上,引发了关于透明度和伦理的担忧,且这些问题是在闭门会议中提出的。
从Meta的青少年保护措施到伊利诺伊州的治疗禁令,再到像SSI这样的公司将安全融入AI,信息很明确:立法和前瞻性思维正在落后于技术。泄露的数据、诉讼和国际审查表明,伤害通常是首当其冲。任务不仅是开发更好的AI,还要确保每一次突破在灾难来临之前保护人们。