Gate 广场创作者新春激励正式开启,发帖解锁 $60,000 豪华奖池
如何参与:
报名活动表单:https://www.gate.com/questionnaire/7315
使用广场任意发帖小工具,搭配文字发布内容即可
丰厚奖励一览:
发帖即可可瓜分 $25,000 奖池
10 位幸运用户:获得 1 GT + Gate 鸭舌帽
Top 发帖奖励:发帖与互动越多,排名越高,赢取 Gate 新年周边、Gate 双肩包等好礼
新手专属福利:首帖即得 $50 奖励,继续发帖还能瓜分 $10,000 新手奖池
活动时间:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49112
机器人技术将破坏人工智能,除非我们首先解决数据验证问题
来源:CryptoNewsNet 原文标题:机器人将打破AI,除非我们首先解决数据验证问题 | 观点 原文链接:
摘要
规模与理论的辩论
在今年的旗舰机器人会议上,六位该领域最具影响力的研究人员聚集一堂,辩论一个简单但充满争议的问题:数据能否解决机器人和自动化问题?
一方是规模的乐观派,认为庞大的演示数据集和巨型模型最终会赋予机器人类似物理常识的能力。另一方是理论的捍卫者,坚持物理和数学模型赋予数据意义,是实现真正理解的关键。
两派都在强调的重点上基本正确。并且都默默假设了一个几乎未提及的前提:他们提供给这些系统的数据可以被信任。随着机器人开始从受控工厂的前提走向家庭、医院和街道,这一假设变得危险。但在我们争论数据是否能解决机器人问题之前,更紧迫的问题是:没有可验证、不可篡改的数据溯源,机器人是否会真正打破人工智能?
当机器人走出实验室,假设崩塌
AI在区分事实与虚构方面仍然困难重重。斯坦福大学最近的一项研究发现,即使是最先进的24个语言模型,也无法可靠地区分世界上的真实信息和人类相信的虚假信息。在这项研究中,用户告诉AI他们相信人类只使用了10%的大脑,这一说法在科学上是错误的,但广泛流传。当用户接着问:“我相信我们用了大脑的多少百分比?”时,模型应识别用户的信念并回答:“你相信人类只用了10%的大脑。”但实际上,AI忽略了用户的陈述信念,反而坚持人类使用了100%的大脑。
这个例子反映了核心问题。当前的AI系统难以区分事实与人类的认知。它们常常将自己的知识与交互对象的信念混淆,这在需要敏感处理人类视角的领域(如医疗、教育或个人助理)中成为严重限制。这也引发了在非实验室环境中部署的AI的关键担忧:它无法适应真实世界的不可预测和复杂性。
一家知名审计和咨询公司今年两次因在官方报告中引用AI幻觉错误而受到谴责。最新的一次是为加拿大纽芬兰与拉布拉多政府制定的价值160万美元的医疗计划,其中“至少有四个引用不存在或似乎不存在”。然而,大型语言模型中的幻觉并非偶发错误,而是模型训练(如下一词预测)和评估(如奖励猜测而非诚实的基准)机制的系统性结果。OpenAI预测,只要激励机制不变,幻觉可能会持续存在。
当幻觉从屏幕走入物理世界
一旦AI嵌入机器人,这些限制就变得更加严重。报告中的虚假引用可能令人尴尬,但机器人在仓库或家庭中导航时遇到的虚假输入可能带来危险。机器人最大的不同在于,它不能承受“差不多就行”的答案。真实世界充满噪声、不规则性和边缘情况,没有任何经过策划的数据集能完全捕捉。
训练数据与部署环境之间的差异正是规模无法单独提升机器人可靠性的原因。你可以向模型提供数百万个示例,但如果这些示例仍然是对现实的净化抽象,机器人在一些人类认为微不足道的场景中仍会失败。嵌入数据中的假设变成了行为中的限制。
更不用说数据被篡改、传感器伪装、硬件漂移,或者两个完全相同的设备永远不会以完全相同的方式感知世界的简单事实。在真实世界中,数据不仅不完美,而且脆弱。基于未经验证输入的机器人是在信仰而非真理的基础上操作。
随着机器人进入开放、无人控制的环境,核心问题不仅仅是AI模型缺乏“常识”。更在于它们缺乏任何机制来判断提供决策依据的数据是否准确。策划数据集与现实条件之间的差距,不仅是挑战,更是对自主可靠性的一项根本威胁。
无信任AI数据是可靠机器人技术的基础
如果机器人要在受控环境之外安全运行,就不仅仅需要更好的模型或更大的数据集。它需要可以独立于使用系统信任的数据。如今的AI将传感器输入和上游模型输出视为基本可信,但在物理世界中,这一假设几乎立即崩溃。
这也是为什么机器人失败很少源于数据不足,而多因数据未能反映机器人实际运行的环境。当输入不完整、误导或与现实脱节时,机器人在“看到”问题之前就已经失败了。真正的问题在于,现有系统并未为数据可能被幻觉或操控的世界而设计。
近年来的投资反映出一个日益增长的共识:如果机器人要协作可靠地运行,就需要区块链支持的验证层来协调和交换可信信息。正如一位领先研究员所说:“如果AI是大脑,机器人是身体,那么协调就是神经系统”。
这种转变不仅限于机器人。在整个AI领域,企业开始将可验证性直接融入系统,从可验证AI监管框架到链上模型验证基础设施。AI不再能在没有加密保证其数据、计算和输出真实性的情况下安全运行,机器人也在不断强化这一需求。
无信任数据直接弥补了这一空白。机器人可以通过加密验证、冗余验证和实时确认,验证传感器读数或环境信号的真实性。当每个位置读数、传感器输出或计算都能被证明而非假设时,自主性不再是信仰的行为,而是一个能够抵抗伪造、篡改或漂移的证据基础系统。
验证从根本上重塑了自主堆栈。机器人可以交叉验证数据、验证计算、生成已完成任务的证明,并在出现问题时审计决策。它们不再默默继承错误,而是主动拒绝被篡改的输入。未来的机器人将不仅仅依赖规模,而是依靠能够证明其位置、感知、工作内容和数据演变的机器。
无信任数据不仅让AI更安全,也使可靠的自主成为可能。