首页 > 资讯 > 科技 > 正文
2023-07-26 23:50

GitHub和其他机构呼吁在欧盟人工智能法律中提供更多开源支持



在提交给欧盟政策制定者的一份文件中,包括GitHub、hugs Face、Creative Commons等公司在内的一群公司,在考虑最终确定《人工智能法案》时,鼓励更多地支持不同人工智能模型的开源开发。EleutherAI、LAION和Open Future也共同签署了这篇论文。

在最终规则出台之前,他们向欧洲议会提出的建议清单包括更明确的人工智能组件定义,澄清从事开源模型的业余爱好者和研究人员不会从人工智能中获得商业利益,允许对人工智能项目进行有限的实际测试,并为不同的基础模型设定比例要求。

“《人工智能法案》有望在监管人工智能方面树立全球先例,在鼓励创新的同时解决其风险。”

Github高级政策经理Peter Cihon告诉The Verge,该论文的目标是为立法者提供支持人工智能发展的最佳方式的指导。他说,一旦其他国家的政府出台了自己版本的人工智能法律,企业希望自己的声音能被听到。“在政策制定者签署协议之际,我们希望他们能效仿欧盟。”

围绕人工智能的监管一直是许多政府的热门话题,欧盟是最早开始认真讨论相关提案的国家之一。但它对人工智能技术的定义过于宽泛,同时仍然过于狭隘地关注应用层。

这些公司在论文中写道:“《人工智能法案》有望在监管人工智能方面树立全球先例,在鼓励创新的同时解决其风险。”“通过支持蓬勃发展的开放式人工智能生态系统,监管机构有机会进一步实现这一目标。”

该法案旨在涵盖不同类型的人工智能的规则,尽管大多数注意力都集中在拟议的法规将如何管理生成式人工智能上。今年6月,欧洲议会通过了一项政策草案。

一些生成式人工智能模型的开发人员接受了共享模型访问权限的开源精神,并允许更大的人工智能社区使用它并建立信任。稳定AI,和元有点像发布了它。meta没有分享它从哪里获得训练数据,也限制了谁可以免费使用这个模型,所以从技术上讲,《羊驼2》并没有遵循开源标准。

开源倡导者认为,当人们不需要为模型付费时,人工智能的开发效果会更好,而且模型的训练方式也会更加透明。但它也给创建这些框架的公司带来了一些问题。很多围绕GPT的研究都是出于对竞争和安全的担忧。

发表这篇论文的公司表示,目前提出的一些被认为是高风险的影响模式,无论开发商是大是小,都可能对那些没有大量资金的公司有害。例如,涉及第三方审计员“是昂贵的,并且对于减轻与基础模型相关的风险是不必要的。”

该组织还坚持认为,在开源库上共享人工智能工具不属于商业活动,因此不应受到监管措施的约束。

这些公司表示,禁止在现实环境中测试人工智能模型的规定“将严重阻碍任何研究和开发”。他们说,公开测试为改进功能提供了经验。目前,人工智能应用程序不能在封闭实验之外进行测试,以防止未经测试的产品产生法律问题。

可以预见的是,人工智能公司对欧盟人工智能法案的内容直言不讳。欧盟政策制定者反对围绕生成式人工智能制定更严厉的规则,其中一些建议被纳入了该法案的最新版本。