人工智能虚假文本生成器因担心“恶意应用程序”而陷入困境

人工智能虚假文本生成器因担心“恶意应用程序”而陷入困境

消息

2019 年 2 月 15 日3 分钟

人工智能

非营利性人工智能研究公司 OpenAI 因“担心该技术的恶意应用”而暂停了新型人工智能文本生成器的公开发布版本。

群组昨天透露它一直在训练一个大规模无监督语言模型,该模型能够以人类提示为起点生成“连贯的文本段落”。

这个名为 GPT-2 的模型是一个大型变压器-具有 15 亿个参数的语言模型,在 800 万个网页的数据集上进行训练。

OpenAI 解释说:“GPT-2 可以根据模型的任意输入生成合成文本样本。”OpenAI 得到了埃隆·马斯克 (Elon Musk) 和彼得·泰尔 (Peter Thiel) 等人的支持。

该小组分享了一个例子数量了解模型的功能。从输入“Miley Cyrus 今天在好莱坞大道的 Abercrombie and Fitch 商店行窃时被抓”开始,它继续讲述一个可读的故事,这个故事很容易由记者撰写。从输入“Legolas 和 Gimli 向兽人发起进攻,举起武器,发出令人痛心的战吼”开始,它完成了一个简短的幻想故事,包括人物和对话。

OpenAi 表示:“该模型就像变色龙一样,能够适应条件文本的风格和内容。这让用户可以针对自己选择的主题生成逼真、连贯的后续内容。”

尽管存在一些局限性——例如重复的文本以及研究人员所说的“世界建模失败”,如水下发生的火灾——该模型仍然能够生成“感觉接近人类质量并在一页或更多文本中显示出连贯性”的结果。

它的能力(显示出许多特定领域语言模型的改进)令人印象深刻,因此 OpenAI 决定发布更小、更有限的 GPT-2 版本。

该组织表示:“这些样本具有重大的政策含义:大型语言模型越来越容易实现可扩展、定制化、连贯的文本生成,而这反过来又可以被用于多种有益和恶意的方式。”

研究人员认为,它可能会被用来生成误导性新闻文章、在线冒充他人、自动生成辱骂性或虚假内容发布在社交媒体上或自动生成垃圾邮件和网络钓鱼内容。

“这些发现,加上之前对合成图像、音频和视频的研究结果,意味着技术正在降低生成虚假内容和进行虚假宣传的成本。广大公众需要对他们在网上找到的文字更加怀疑,就像‘深度造假’现象要求人们对图像更加怀疑一样,”他们补充道。

不过,用例并不全是坏事。OpenAI 预计,短期内人工智能写作助手、更好的对话代理、无监督语言间翻译和更好的语音识别系统等应用将受益。

显示更多