揭秘特朗普AI令:透明化要求揭示大型语言模型真相

随着人工智能(AI)技术的飞速发展,其监管方式也成为了全球关注的焦点。美国作为全球AI技术的领先国家,其政策调整对全球AI治理格局产生深远影响。特朗普政府于2025年1月23日发布的行政命令“消除人工智能领域美国领导力的障碍”(Trump EO),直接取代了拜登政府于2023年10月30日发布的“安全、可靠和值得信赖的人工智能开发和使用”行政命令(Biden EO)。这一举动标志着美国AI政策的重大转向。

特朗普政府认为,拜登政府的行政命令设置了“不必要的繁要求”,阻碍了私营部门的创新,并威胁了美国的技术领先地位。新的行政命令旨在减少监管负担,鼓励AI技术的快速发展。然而,透明度要求仍然被保留,甚至可能得到进一步的关注。政府机构已经根据特朗普在第一次任期内签署的行政命令,需要公布AI应用案例清单。新的行政命令中也包含了一些关于公司提供洞察力的条款,尤其是在大型语言模型(LLMs)方面。

这种对透明度的关注,一方面是为了应对潜在的风险,另一方面也是为了让公众了解AI技术的应用情况。值得注意的是,一些AI领域的关键参与者也公开呼吁特朗普政府继续发挥联邦政府在AI监管中的作用,避免各州制定过多新的监管要求,从而导致监管环境碎片化,增加合规成本。这种对监管的放松,也引发了关于版权问题的讨论。特朗普总统在一次峰会上表示,强制AI公司为每项受版权保护的作品付费“不可行”,呼吁采取“常识”的方法。他支持让大型语言模型开发者使用受版权保护的材料来训练他们的系统,认为这对于保持美国在全球AI竞争中的优势至关重要。

这一立场与一些版权所有者的诉求相悖,也预示着未来AI技术发展中,版权问题将成为一个重要的争议点。除了国内政策的调整,特朗普政府的AI策略也旨在塑造全球AI治理的基调。通过减少国内监管,美国希望鼓励更多的AI创新,并以此影响国际社会对AI监管的看法。然而,这种策略也可能与其他国家,例如欧盟的AI法案形成对比。欧盟的AI法案强调了对AI技术的严格监管,要求通用人工智能模型的提供者必须满足透明度义务。这种差异可能导致美国和欧盟在AI监管方面产生分歧,并对全球AI治理的协调造成挑战。

此外,AI技术本身也为信息透明度带来了新的可能性和风险。大型语言模型可以帮助进行敏感文件的编辑和解密,提高政府信息公开的效率。然而,与此同时,这些模型也可能被恶意利用,用于泄露敏感信息或进行欺诈活动。因此,如何在利用AI技术提高透明度的同时,防范潜在的安全风险,成为了一个重要的课题。白宫管理和预算办公室(OMB)也发布了两份备忘录,为联邦机构提供了关于AI使用和采购的指导和要求,进一步落实了特朗普政府的AI政策。这些举措表明,特朗普政府正在积极推动AI技术在政府部门的应用,并试图通过减少监管来加速这一进程。

特朗普政府对AI政策的调整,代表着一种对创新和竞争力的优先考虑。通过放松管制、强调透明度以及对版权问题的灵活处理,美国试图在AI领域保持领先地位。然而,这种策略也面临着来自国内外的挑战,包括版权争议、监管碎片化以及与其他国家监管模式的差异。未来,美国AI政策的发展将继续受到技术进步、经济竞争和地缘政治等多种因素的影响。

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注