美國和中國邁出監管生成人工智能的第一步

隨著生成式人工智能繼續擾亂科技行業,世界各國政府開始考慮監管,以打擊其助長犯罪和助長偏見的潛力。

儘管美國和中國是激烈的技術貿易競爭對手,但它們似乎有一些新的共同點:對人工智能的責任和可能的濫用的擔憂。週二,兩國政府發布了有關人工智能發展法規的公告。

美國商務部下屬國家電信和信息管理局(NTIA)發布了一項正式公開請求就哪些政策應該塑造人工智能問責生態系統提供意見。

其中包括有關數據訪問、衡量問責制以及人工智能方法在不同行業(例如就業或醫療保健)中可能有何不同的問題。

針對請求的書面評論必須在 2023 年 6 月 10 日(《聯邦公報》發布之日起 60 天)之前提交給 NTIA。

該消息發布的同一天中國國家互聯網信息辦公室 (CAC)公佈了一系列管理生成人工智能服務的措施草案,包括讓提供商對用於訓練的數據的有效性負責生成式人工智能工具。

CAC 表示,提供商應對用於訓練人工智能工具的數據的有效性負責,並在設計算法和訓練數據集時應採取措施防止歧視。路透社報導。公司還需要在向公眾推出人工智能工具之前向政府提交安全評估。

根據草案規定,如果其平台產生不當內容,企業必須在三個月內更新技術,以防止再次產生類似內容。不遵守規則將導致提供商被罰款、暫停服務或面臨刑事調查。

國家網信辦表示,生成式人工智能生成的任何內容都必須符合國家社會主義核心價值觀。

中國科技巨頭的人工智能開發進展順利。該公告於同日發布它將作為其所有業務應用程序的風格前端。上個月,另一家中國互聯網服務和人工智能巨頭百度宣布推出中文 ChatGPT 替代品 Ernie bot。

人工智能監管與創新

儘管中國政府制定了一套明確的監管準則,但世界其他國家政府卻採取了不同的做法。

上個月,為了“避免可能扼殺創新的嚴厲立法”,它選擇不將人工智能治理的責任交給新的單一監管機構,而是呼籲現有監管機構提出最適合人工智能在各自領域使用方式的方法。

然而,這種做法被受到一些人的批評行業專家認為,由於某些人工智能工具的複雜性和多層次性,現有框架可能無法有效監管人工智能,這意味著不同製度之間的合併將不可避免。

此外,英國數據監管機構發出警告向科技公司提供有關在開發和部署大型語言、生成式人工智能模型時保護個人信息的信息,同時意大利數據隱私監管機構禁止 ChatGPT涉嫌侵犯隱私。由 1,100 名技術領導者和科學家組成的團隊還開發比系統更強大的系統。

Gartner 分析師 Frank Buytendijk 表示,在技術創新和監管方面,大多數政府或立法者通常都會遵循某種自然路徑。

“當市場上出現新技術時,我們會通過犯錯誤來學習如何負責任地使用它,”他說。 “這就是我們目前人工智能所處的位置。”

Buytendijk 表示,此後,監管開始出現——允許開發商、用戶和法律體系通過對法律和判例法的解釋來了解負責任的使用——然後是最後階段,內置負責任的使用技術。

“我們通過這些內置的最佳實踐來了解負責任的使用,所以這是一個過程,”Buytendijk 說。