新西兰人工智能论坛提供建立公众对人工智能信任的指南

近年来,人工智能的使用已成为新西兰的一个争议话题

新西兰人工智能论坛——代表新西兰人工智能生态系统的各个组织——发布了一系列原则,旨在帮助建立公众对新西兰人工智能 (AI) 开发和使用的信任。

近年来,人工智能的使用已成为新西兰的一个有争议的话题。2018 年 4 月,奥塔哥大学呼吁政府对人工智能分析的使用进行监管。随后,2019 年 5 月,新西兰法律基金会警告反对政府对人工智能算法的不受监管的用户。作为回应,英国政府于 2019 年 11 月宣布将与世界经济论坛一起研究人工智能的监管。

人工智能论坛执行董事艾玛·纳吉 (Emma Naji) 表示,这些原则为参与设计或开发人工智能的任何人提供了总体高层指导,让他们思考如何努力实现人工智能的道德发展。

“我们希望提高人们的意识,尽早发现和解决道德和法律问题,”她说。“人工智能并不存在于法律空白之中。隐私、人权和责任等现有法律法规都适用,但人们在人工智能面前往往会忘记这一点。发布这些原则的根本目的是……一个简洁、有用的参考点,可以帮助为建立和指导良好实践奠定一些基础。”

新西兰值得信赖的人工智能 AI 原则文件(Aotearoa 是新西兰的本土毛利人名称)列出了五项原则,涵盖:

  • 公平正义
  • 可靠性、安全性和隐私性
  • 透明度
  • 人力监督和问责
  • 福利

作者表示,他们借鉴了越来越多已发表的人工智能伦理原则中出现的共同主题。“我们相信,按照这些原则设计、开发和使用人工智能系统的人工智能利益相关者将能够更好地管理人工智能的许多已知风险和意外后果。因此,公众将更有可能信任人工智能,最终提高所有新西兰人享受人工智能好处的能力。”

新西兰的这项倡议是继全球经济合作与发展组织 (OECD) 于 2 月 27 日发起的经合组织人工智能政策观察站旨在“帮助各国实现、培育和监督值得信赖的人工智能(AI)系统的负责任的发展,造福社会”。