Palmer Luckey:应允许AI在战场上决定谁生谁死

站长云网 2025-12-08 5iter.com 站长云网

美国虚拟现实设备公司 Oculus 创始人、军工科技企业 Anduril 创办人 Palmer Luckey 近日在电视访谈中表示,人工智能应被允许在战争中参与生死决策,再次点燃关于“杀手机器人”的伦理争议。

Luckey 在福克斯新闻频道的节目中表示,在涉及生死抉择的问题上,“道德负担过于沉重、风险过于关键”,因此各国应当不惜一切代价采用最先进的技术,不论是人工智能、量子技术还是其他工具。 在他看来,如果战争的目标是尽可能减少平民伤亡和附带损害,那么在打击决策中使用精度更高的系统,反而比坚持“人类掌控一切”的立场更具“道德优越性”。

他指出,关键不是人为给武器系统划定“机器人不能决定谁生谁死”的红线,而是尽可能提升效率和准确性,以减少误伤和错误决策。 Luckey 直言,选择性能更差的技术,只是为了维护一种“我们从不让机器下杀人命令”的道德姿态,并不能真正带来更高的人道标准。

这一表态与 Anduril 的业务方向高度一致,该公司自 2017 年成立以来,一直专注于为军方研发无人机、地面车辆、监视塔台和各类传感器,并通过名为 Lattice 的人工智能指挥与控制平台将这些硬件整合到统一系统中。 公司此前已经展示过包括“自杀式无人机”在内的多种 AI 军事装备,引发外界对战场“高度自动化”的更多担忧。

2024 年底,Anduril 宣布与 OpenAI 建立战略合作伙伴关系,计划在国家安全领域“负责任地部署”先进人工智能技术,首先聚焦反无人机系统等防御性用途,以提升美军在实时探测、评估和应对空中威胁方面的能力。 与此同时,科技企业在是否参与军用 AI 研发上的立场正在悄然松动,例如Google在今年年初悄然删除了此前承诺“不将 AI 应用于武器等有害用途”的关键表述,促使业界再度讨论科技公司在战争中的角色边界。

在 AI 装备不断演进的背景下,外界也更加关注这类技术是否会被引入核武控制体系。 2024 年 5 月,美国曾公开承诺,核武器的控制权必须始终由人类掌握,并呼吁中俄做出同样保证,但不久之后五角大楼又表示,希望利用 AI 来“增强”核指挥、控制和通信系统的能力,这种微妙的表态变化引发了观察人士的警惕。

学界与业界对于让 AI 接近“核按钮”的设想尤为不安。 去年有研究团队使用 GPT-4、GPT-3.5、Claude 2.0、Llama-2-Chat 和 GPT-4-Base 等多种大模型进行国际冲突情景模拟,结果显示,这些系统在博弈过程中存在明显的升级倾向,有时会在缺乏充分理由和预警的情况下主动选择动用核武,甚至出现类似“既然有这种武器,那就用吧”的激进表述,凸显出将生死决策外包给机器的巨大风险。

随着 AI 战机、无人集群和自动化防御系统的快速发展,围绕“应否让机器决定人类生死”的讨论正在成为科技伦理与国际安全领域的核心议题之一。 Palmer Luckey 的表态,既反映出军工科技企业推动自动化战场的强烈意愿,也进一步暴露各国在追逐技术优势与坚守人道底线之间的尖锐矛盾。

责任编辑:站长云网