随着生成式人工智能继续扰乱科技行业,世界各国政府开始考虑监管,以打击其助长犯罪和助长偏见的潜力。
尽管美国和中国是激烈的技术贸易竞争对手,但它们似乎有一些新的共同点:对人工智能的责任和可能的滥用的担忧。周二,两国政府发布了有关人工智能发展法规的公告。
美国商务部下属国家电信和信息管理局(NTIA)发布了一项正式公开请求就哪些政策应该塑造人工智能问责生态系统提供意见。
其中包括有关数据访问、衡量问责制以及人工智能方法在不同行业(例如就业或医疗保健)中可能有何不同的问题。
针对请求的书面评论必须在 2023 年 6 月 10 日(《联邦公报》发布之日起 60 天)之前提交给 NTIA。
该消息发布的同一天中国国家互联网信息办公室 (CAC)公布了一系列管理生成人工智能服务的措施草案,包括让提供商对用于训练的数据的有效性负责生成式人工智能工具。
CAC 表示,提供商应对用于训练人工智能工具的数据的有效性负责,并在设计算法和训练数据集时应采取措施防止歧视。路透社报道。公司还需要在向公众推出人工智能工具之前向政府提交安全评估。
根据草案规定,如果其平台产生不当内容,企业必须在三个月内更新技术,以防止再次产生类似内容。不遵守规则将导致提供商被罚款、暂停服务或面临刑事调查。
国家网信办表示,生成式人工智能生成的任何内容都必须符合国家社会主义核心价值观。
中国科技巨头的人工智能开发进展顺利。该公告于同日发布它将作为其所有业务应用程序的风格前端。上个月,另一家中国互联网服务和人工智能巨头百度宣布推出中文 ChatGPT 替代品 Ernie bot。
人工智能监管与创新
尽管中国政府制定了一套明确的监管准则,但世界其他国家政府却采取了不同的做法。
上个月,为了“避免可能扼杀创新的严厉立法”,它选择不将人工智能治理的责任交给新的单一监管机构,而是呼吁现有监管机构提出最适合人工智能在各自领域使用方式的方法。
然而,这种做法被受到一些人的批评行业专家认为,由于某些人工智能工具的复杂性和多层次性,现有框架可能无法有效监管人工智能,这意味着不同制度之间的合并将不可避免。
此外,英国数据监管机构发出警告向科技公司提供有关在开发和部署大型语言、生成式人工智能模型时保护个人信息的信息,同时意大利数据隐私监管机构禁止 ChatGPT涉嫌侵犯隐私。由 1,100 名技术领导者和科学家组成的团队还开发比系统更强大的系统。
Gartner 分析师 Frank Buytendijk 表示,在技术创新和监管方面,大多数政府或立法者通常都会遵循某种自然路径。
“当市场上出现新技术时,我们会通过犯错误来学习如何负责任地使用它,”他说。 “这就是我们目前人工智能所处的位置。”
Buytendijk 表示,此后,监管开始出现——允许开发商、用户和法律体系通过对法律和判例法的解释来了解负责任的使用——然后是最后阶段,内置负责任的使用技术。
“我们通过这些内置的最佳实践来了解负责任的使用,所以这是一个过程,”Buytendijk 说。
