毫无疑问,AI已经取代了VR、加密货币、区块链、元宇宙和NFT,在2023年2月就提前锁定了互联网的年度热词。而在一系列AI工具中,拥有真正对话能力的ChatPT自然也成为了这场关于AI狂欢的主角。从搜索引擎到语言模型、从新闻媒体到社交平台,我们几乎可以在互联网的任何一个角落看到ChatGPT的具体应用:有的自媒体用AI工具优化写作,有的品牌利用AI工具充当“智能客服”甚至是假冒人工客服,有的企业更是直接使用AI工具生成游戏人物的背景资料或是对白。
【资料图】
但很显然,并不是所有人在拿到如此强大的AI工具时都会想着如何提高生产力。比如在2月16日,一则利用ChatGPT杭州市政府通告的新闻稿就被推上了热搜。
2023年2月16日,杭州某小区一位业主就将利用ChatGPT仿写的“市政府新闻稿”分享到了业主群中。该新闻稿模仿了杭州市政府的语言习惯,宣布“杭州即将取消限行”。尽管该业主称自己是在开玩笑,且在网传的聊天记录中该业主“直播”了利用ChatGPT生成该消息的全过程,以表明该消息为伪造的新闻稿。但依旧有业主将演示视频中的内容信以为真,在脱离了上下文的情况下转发至该微信群外,并引起了互联网的“轩然大波”。
图片来源:知乎
由于事件影响范围较大,当地警方迅速澄清相关“新闻稿”系伪造,且对事件展开调查,相关调查结果还需要后续处理。
不过话又说回来,尽管当事人并无恶意,但此次事件依旧暴露出了AI时代的“黑暗面”,当事人“没有恶意”就已经闹出了这么大麻烦,要是ChatGPT这样的工具落入不怀好意的不法分子手中,那我们该怎么办。
要是有人想用AI工具害我呢?
欢迎来到AI技术的“黑暗面”
虽然刚刚的说法有些危言耸听,以ChatGPT为例,就小雷这段时间的体验来说,ChatGPT网站稳定性还不足以支撑电信诈骗。但就像“技术无罪”背后的潜台词一样,一切工具都有自己的两面性,石器时代的“锋利石头”是这个道理,互联网时代的AI工具同样是这个道理。
以刚刚介绍到的AI语言模型ChatGPT为例,利用ChatGPT“作恶”最简单的方式自然是用它来模仿他人的语言习惯,以在互联网上冒充他人。目前,AI可以使用深度学习等技术,通过学习某个人的大量语言数据,生成与该人语言风格相似的文字。这种技术被称为文本生成或语言模仿。
图片来源:Veer
举个例子,OpenAI曾经开发了一个名为“GPT-3”的模型,它可以模仿几乎任何人的语言风格,只需输入一些该人的文字或样本即可。该模型已经应用于各种领域,如自动回复电子邮件、自动生成新闻报道等。
而利用语言训练模型模仿他人语言习惯,这只是利用AI“作恶”的开始。借助AI语音模型,我们可以从一段音频中提取出具有某个人音色特点的声音素材,再联合语言训练模型合成出具有某人音色,用词习惯的音频文件。再配合上AI换脸的视频,用AI“伪造一个人”从未如此简单。
为什么AI谣言传播如此迅速?
话题回到刚刚提到过的“AI谣言”上,此次ChatGPT“替市政府取消限行”之所以会有如此高的传播效率,这也和这则谣言本身的特点有关。一般来说,谣言传播具有快速、煽动、匿名、非正式这四个特征:
“快速”很好理解,因为人们更容易相信、传播和分享那些能够引起共鸣、好奇心或恐惧感的信息。“煽动”的特点虽然没有在此次“新闻稿”中直接体现,但取消限行行为本身就具有“怂恿”他人违反规定的特性。“匿名”也是同样的道理,借助AI工具,谣言的制造者可以有效隐藏自己的身份。而“非正式渠道传播”的特点也让这些在社交媒体中流行的谣言无法通过有效的官方渠道验证。
在过去的谣言中,“快速”“煽动”“非正式”这三个要素非常好满足,但由于谣言的产生难免会暴露制造者自己的语言习惯,因此过去能广泛传播的谣言通常都秉承着“字数越少越好”的特点,毕竟字数越少,谣言制造者自身就越不容易暴露自己的语言习惯,让谣言看起来“更加真实”,同时也更容易传播。
图片来源:Veer
而ChatGPT这类AI写作工具改变了谣言的生产模式:
制造者不再需要费尽心思为自己维持一个“匿名人士”的身份,可以直接通过语言模型模仿他人的写作习惯,直接冒充他人制造、传播谣言。此外,AI工具的出现让制造者只需要提供谣言的主题或相关信息,然后让AI生成相应的谣言内容。这将大幅降低制造谣言的门槛,也一定会导致带来更多的网络谣言。
那么该如何应对未来由AI制造的谣言呢?解铃还需系铃人,我们也可以用AI反制谣言。
鉴别AI还得靠AI
尽管AI可以通过训练来模拟真实人类的写作,并学习、模仿这些样本的语言特征和风格,但归根结底,AI的写作方式始终与人类不同。比如一些AI工具生成的文本可能会具有一些特征,如语法、用词和表达方式的错误或不连贯性。这种现象对我们人类来说可能不容易察觉,但对于AI来说,想要分辨一段文字是否由AI生成,这并不是不可能的事情。
首先,AI可以使用统计语言模型来分析一段文字的概率分布。由于AI语言模型是通过大量的文本数据训练出来的,因此它们能够识别常见的语言结构和模式。如果一段文字的概率分布与常见的人类写作样本不匹配,那么AI就可能判断这段文字是由AI生成的。
其次,AI可以通过对一段文字的内容进行分析来判断它是否由AI生成。例如,AI可以识别一些常见的话题、主题和表达方式,并尝试确定这段文字是否符合人类的写作风格和语言特征。AI还可以利用网络熵分析一段文字的制造、传播方式。如果这段文字具有异常的传播路径、速度或者与其他谣言存在相似的传播轨迹,那么AI就有可能分辨出这段文字是由AI生成的。
图片来源:Veer
只不过受技术限制,用AI识别AI的成功率还有有待提升。以刚刚提到的统计模型和内容分析为例,训练一个这样的AI需要大量有AI生成的文本,而由AI生成的文本只会让AI进一步提高自己的写作水平,让AI写作更难分辨。
而针对来自AI的谣言,我们除了提高自己的知识水平、判断和求证能力之外,还需要从法律和社会层面入手。AI开发者和使用者应当承担起相应的法律和道德责任,加强对AI技术的监管和管理,防范恶意使用AI语言工具生成谣言的行为;而政府、学界、媒体和社会组织也应该加强合作,共同打击谣言,促进信息公正和公开,引导社会积极的舆论环境。
当然了,这一切也离不开你我共同的努力。AI说到底只不过是一种工具,如何利用还得看我们自己。“警惕智械危机”,从你我做起,从不用ChatGPT制造谣言做起。
关键词: chatgpt