人工智能假文本生成器因擔心“惡意應用程序”而步履蹣跚

OpenAI 是一家非營利性人工智能研究公司,由於“擔心該技術的惡意應用”,其基於人工智能的新型文本生成器的公開版本受到阻礙。

團體昨天透露它一直在訓練一個大規模的無監督語言模型,該模型能夠以人類提示為起點生成“連貫的文本段落”。

該模型稱為 GPT-2,是一個大型模型變壓器基於 15 億個參數的語言模型,在 800 萬個網頁的數據集上進行訓練。

“GPT-2 會根據任意輸入啟動模型來生成合成文本樣本,”得到埃隆·馬斯克 (Elon Musk) 和彼得·泰爾 (Peter Thiel) 等人支持的 OpenAI 解釋道。

該小組分享了一個例子的數量模型的能力。從“麥莉·賽勒斯今天在好萊塢大道上從 Abercrombie and Fitch 商店行竊時被抓到”這一輸入中,它延續​​了一個本可以由記者輕鬆撰寫的可讀故事。從輸入“萊戈拉斯和吉姆利向獸人前進,舉起武器,發出令人痛苦的戰爭吶喊”,它完成了一個簡短的奇幻故事,配有人物和對話。

“該模型就像變色龍一樣;它會適應條件文本的風格和內容。這使用戶能夠針對他們選擇的主題生成現實且連貫的延續,”OpenAi 說。

儘管存在一些限制——例如重複的文本以及研究人員所說的“世界建模失敗”,例如水下發生的火災——該模型能夠生成“感覺接近人類質量並在一頁或多頁文本上顯示出連貫性”的結果。

其功能(顯示了對許多特定領域語言模型的改進)令人印象深刻,以至於 OpenAI 決定發布更小的、有限的 GPT-2 版本。

該組織表示:“這些樣本具有重大的政策意義:大型語言模型變得越來越容易轉向可擴展、定制、連貫的文本生成,而這反過來又可以以多種有益和惡意的方式使用。”

研究人員認為,它有可能被用來生成誤導性新聞文章、在網上冒充他人、自動生成濫用或偽造的內容以發佈在社交媒體上,或者自動生成垃圾郵件和網絡釣魚內容。

“這些發現,再加上合成圖像、音頻和視頻的早期結果,意味著技術正在降低生成虛假內容和開展虛假信息活動的成本。廣大公眾需要對他們在網上找到的文本更加懷疑,就像‘深度造假’現像要求對圖像更加懷疑一樣,”他們補充道。

然而,用例並不全是壞事。 OpenAI 預計近期會給人工智能寫作助手、更好的對話代理、語言間無監督翻譯和更好的語音識別系統等應用帶來好處。