据美国调查新闻网站“拦截者”报道,开发了被全世界广泛使用的人工智能产品ChatGPT的美国知名AI公司OpenAI,于近日悄悄干了一件引人关注的事情:他们删除了一项涉及他们AI模型的使用禁令。
“拦截者”网站称,在今年1月10日之前,OpenAI公司在其AI模型的使用条款中曾明确表示,禁止将其模型用于很可能会造成人员伤亡的用途上,比如“研发武器”和“军事与战争”。然而,在1月10日对其使用条款进行一番大更新后,OpenAI公司虽然在禁止项中仍然提到禁止将其产品、模型和服务用于会导致人员伤亡的用途上,并提到了“武器开发和使用”,但先前同样被禁止的军事用途,如今却在文本中消失了。
对此,OpenAI公司的发言人在一封回复给“拦截者”网站的邮件中表示,1月10日这次对使用条款的大调整,是因为公司的产品和服务已经被全世界广泛使用,所以需要设立一套更加简洁和普适的规则,包括让规则中的文本变得更加清晰,更好被理解、记忆以及应用。
该发言人还强调,新的使用条款中提到的“不要去伤害他人”本身就是一个很宽泛同时也很好理解的概念,可以适用于很多语境之下,而且条款中还列举了武器作为一个明显的例子。
但该发言人并没有正面回应“禁止伤害”这个宽泛的表述,是否包括一切军事用途,仅称条款禁止其技术被包括军方的人用于研发和使用武器,伤害他人或摧毁他人财物,或是在未授权的情况下用于破坏任何服务或系统的安全。
有网络安全专家对“拦截者”网站表示,OpenAI删掉使用条款中禁止军事和战争用途的内容,是一个很大的变化,说明该公司新版使用条款关注的重点,是在确保法律合规之上提供更多的灵活性,但在很多国家,军事和战争都会被披上合法的外衣,所以OpenAI公司的这次调整潜在的影响将是巨大的。
其他专家亦对“拦截者”网站也表示,OpenAI的新使用条款反映出公司正在悄悄弱化其先前反对军事应用的立场。有专家还指出,OpenAI的重要合作伙伴微软公司就是美国军方主要的供应商之一。而且美军对于AI技术的需求也越来越强烈。
“拦截者”网站还特别提到,虽然OpenAI公司的产品、模型和服务如今还没有被用于操控武器去杀人,但实际上其技术已经开始被军方用于编写代码、处理武器采购以及情报分析等方面。换言之,尽管没有被直接用于杀人,该公司的技术都已经在被用于协助这样的工作了。
“在人工智能系统正被用于针对加沙地区的平民时,OpenAI决定将禁止军事和战争用途文字从其使用条款中移除,是值得关注的”,一位专家对“拦截者”网站这样说道。
(编辑:祝闻豪)
剑网行动举报电话:12318(市文化执法总队)、021-64334547(市版权局)
Copyright © 2016 Kankanews.com Inc. All Rights Reserved. 看东方(上海)传媒有限公司 版权所有
全部评论
暂无评论,快来发表你的评论吧