中国人民解放军(PLA)正积极探索人工智能(AI)在军事领域的应用,尤其是在人形机器人方面。近年来,中国民用机器人产业的快速发展为战场提供了新的可能性,将战术灵活性与战略威慑相结合。然而,伴随着技术进步,解放军内部也对潜在的伦理和战略风险发出了警告。
近年来,随着人工智能技术的突飞猛进,特别是大型语言模型类技术在机器人运动和任务控制方面的应用,人形机器人在“智能战争”中扮演的角色日益重要。这种技术进步,类似于“机器人领域的ChatGPT”,预示着人形机器人可能很快就会出现在战场上。有报道称,中国自主研发的“杀人机器人”预计将在两年内进入中国军队服役,这标志着人工智能驱动的新时代即将到来。然而,这种快速发展也引发了对潜在伦理问题的担忧,使得整个事件蒙上了一层挥之不去的阴影。
解放军机关报《PLA Daily》最近发表文章警告称,使用作战机器人可能导致“无差别杀戮”和事故,并呼吁进行相关的伦理和法律研究。这样的呼吁并非空穴来风,而是反映了对人工智能在军事领域应用的深刻反思。即使是解放军自身也承认,过度依赖人工智能驱动的指挥结构可能在动态的作战环境中遇到困难,人类的直觉和适应性仍然至关重要。这种对伦理风险的警惕,以及对人类角色的强调,构成了中国在军事人工智能领域发展策略的重要组成部分。
解放军对人工智能的整合采取了一种谨慎的态度,这种态度在战略决策中尤为明显。他们强调人类指挥官不可替代的作用,主张“人类计划,人工智能执行”的模式。虽然人工智能被认为可以提高作战效率,但解放军也同时警告了人工智能的局限性,强调在决策过程中需要人类的监督。这种观点源于对人工智能“黑盒”本质的担忧,即人工智能的决策过程缺乏透明度,可能导致难以预测的错误,也为决策的可靠性带来了不确定性。
这种谨慎态度体现了对人工智能在战争中的潜在风险的深刻理解。解放军倾向于一种结构,即机器分析数据、提供见解和建议潜在行动,但最终的决定权仍然掌握在人类指挥官手中。这种模式旨在防止人工智能可能产生的错误,同时也反映了对人工智能缺乏“自我意识”的认知,认为人工智能无法完全理解战争的复杂性和道德含义。这种对人类决策的坚持,也反映了对人工智能在复杂环境下,例如战略评估和地缘政治分析方面的潜在不足的担忧。机器可以快速处理大量数据,但其缺乏人类的经验、直觉和道德判断能力,这些都是在瞬息万变的战场上做出正确决策的关键。
除了伦理和战略风险,中国的人形机器人技术发展也引起了国际社会的广泛关注。特别是,美国国会议员已经开始呼吁禁止这些先进的中国制造人形机器人进入美国市场,认为它们可能构成一种“隐形军队”。这种担忧并非毫无根据,因为这些人形机器人具有逼真的人类外观和能力,可能被用于各种目的,包括军事用途,从而加剧了地缘政治的紧张局势。这些担忧反映了国际社会对人工智能军事化潜在失控的恐惧,以及对未来战争形态的不确定性。
尽管如此,解放军内部也认识到人工智能的潜在弱点,例如对政治盲点的依赖。过分依赖人工智能驱动的指挥系统可能会导致战略判断失误,尤其是在复杂的国际关系和地缘政治环境中。人工智能虽然在战术层面具有优势,但在战略层面,其对历史、文化、政治的理解可能远不如人类指挥官。因此,解放军在拥抱人工智能的同时,也在努力保持战略上的清醒和警惕,以确保人工智能的应用能够真正提升中国的军事能力,而不是带来不必要的风险。这种双重策略反映了中国在人工智能军事化方面的复杂态度。他们既积极探索技术带来的可能性,同时也保持着高度的警惕,以应对潜在的伦理、战略和国际关系风险。这种平衡策略的核心在于,在技术进步与人类控制之间找到最佳的平衡点,以确保军事力量的现代化发展,同时维护国家安全和国际稳定。
发表回复