作为全球领先的人工智能(AI)大模型公司OpenAI近期悄悄修改了有关禁止其AI技术用于军事用途的禁令措辞,更宽泛的表述让外界加大了对于美国科技巨头加速与美军方深度合作的担忧。而这只是美国国防和军事领域与生成式AI紧密结合的冰山一角。五角大楼已成立了分析生成式AI如何用于国防领域的专门机构。
美国华盛顿特区,五角大楼。
OpenAI修改禁令打开“潘多拉盒子”?
据美国调查新闻网站The Intercept近日报道,OpenAI在未经公开宣布的情况下对其政策页面进行了重大修改。此前,OpenAI表示“禁止将其大型语言模型用于任何军事或战争相关的应用”。修改后,表述为“OpenAI的产品不可以用来伤害自己或他人,包括通过武器的研发造成的伤害”。OpenAI发言人尼克·菲利克斯通过邮件对The Intercept表示,此次修改旨在使文件“更清晰”和“更具可读性”,但他拒绝透露定义模糊的“伤害”禁令是否包括所有军事用途。
美国Semafor网站报道称,OpenAI近日透露,OpenAI公司正在与五角大楼合作开展软件项目,包括与网络安全相关的项目。
OpenAI资料图
据美国硅谷新兴科技媒体The Information报道,尽管OpenAI已经排除了直接开发武器的可能性,但其新政策可能会允许它向美国防部提供人工智能软件,用于帮助分析人员解读数据或编写代码等用途。但正如俄乌冲突所显示的那样,数据处理和战争之间的界限可能并不像OpenAI所希望的那样明确。乌克兰已开发并进口了用于分析大数据的软件,这使得其炮兵操作员能够迅速收到该地区俄方目标的通知,并大大加快他们的射击速度。
The Information警告称,政策的变化可能足以重新引发OpenAI关于人工智能安全的争论,正是这一争论导致了该公司首席执行官奥特曼被短暂解雇。