随着生成式人工智能继续扰乱科技行业,世界各国政府开始考虑制定监管措施,以打击其帮助犯罪和助长偏见的潜在可能性。
尽管美国和中国是激烈的技术贸易竞争对手,但它们似乎有一个共同点:对人工智能问责制和滥用可能性的担忧。周二,两国政府都发布了与人工智能发展监管相关的公告。
美国商务部下属的国家电信和信息管理局 (NTIA) 发布了一份正式公开请求了解有关哪些政策应该塑造人工智能问责生态系统的意见。
这些问题包括数据访问、衡量责任以及人工智能方法在就业或医疗保健等不同行业领域有何不同。
响应该请求的书面意见必须于 2023 年 6 月 10 日之前(即《联邦公报》公布之日起 60 天后)提供给 NTIA。
这条消息发布于中国国家互联网信息办公室 (CAC)公布了一系列管理生成人工智能服务的措施草案,包括要求提供商对用于训练的数据的有效性负责生成式人工智能工具。
国家网信办表示,提供商应对用于训练人工智能工具的数据的有效性负责,并应采取措施防止在设计算法和训练数据集时出现歧视。路透社报道公司在向公众推出其人工智能工具之前还必须向政府提交安全评估。
根据草案规定,如果平台生成了不当内容,公司必须在三个月内更新技术,以防止再次生成类似内容。不遵守规定将导致提供商被罚款、暂停服务或面临刑事调查。
国家网信办表示,任何由生成式人工智能生成的内容都必须符合国家的社会主义核心价值观。
中国科技巨头的人工智能发展正在顺利进行。国家网信办的公告发布于它将作为式前端到其所有业务应用程序。上个月,另一家中国互联网服务和人工智能巨头百度宣布了一款中文 ChatGPT 替代品——Ernie bot。
人工智能监管与创新
虽然中国政府已经制定了明确的监管指南,但世界各国政府却采取了不同的做法。
上个月,为了“避免可能扼杀创新的严厉立法”,它选择不将人工智能治理的责任交给新的单一监管机构,而是呼吁现有监管机构提出最适合其领域人工智能使用方式的自己的方法。
然而,这种方法受到一些人的批评业内专家认为,由于某些人工智能工具的复杂性和多层次性,现有框架可能无法有效地监管人工智能,这意味着不同制度之间的混合将不可避免。
此外,英国数据监管机构发出警告向科技公司提供有关在开发和部署大型语言、生成式人工智能模型时保护个人信息的建议,同时意大利数据隐私监管机构禁止 ChatGPT涉嫌侵犯隐私。1100 名科技领袖和科学家组成的小组还开发比更强大的系统。
Gartner 分析师弗兰克·布伊滕戴克 (Frank Buytendijk) 表示,在技术创新和监管方面,大多数政府或立法者通常都会遵循一定的自然路径。
“当市场上出现新技术时,我们会通过犯错来学习如何负责任地使用它,”他说。“这就是我们现在在人工智能方面所处的状态。”
之后,Buytendijk 说,法规开始出现——允许开发者、用户和法律体系通过对法律和判例法的解释来了解负责任的使用——随后是最后阶段,技术内置了负责任的使用。
“我们通过这些内置的最佳实践了解负责任的使用,所以这是一个过程,”Buytendijk 说。