AI造假和出错的问题:深度解析

在当今时代,人工智能(AI)已经深入到我们生活的方方面面,从智能家居到自动驾驶,从医疗诊断到金融服务,AI的应用无处不在。然而,随着AI技术的快速发展,我们也逐渐意识到它并非完美无缺。特别是在AI参与写作的过程中,造假和出错的问题日益凸显,引起了广泛的关注和讨论。

新闻业的早期尝试与挑战

新闻业是最早积极采用机器人进行写作的行业之一。在这个过程中,新闻行业不仅面临着AI带来的种种错误,而且也是对这些错误进行深入反思和研究的行业之一。

以路透社为例,在最初尝试自动化信息抓取和新闻推送时,由于后台程序设计不完善,加上当班编辑的疏忽,导致使用了错误来源的文章作为新闻推送,影响了上万的订阅者,成为当时新闻界的一个大乌龙事件。这个例子表明,即使是在AI只是进行信息整合的阶段,如果信息来源存在问题,那么产生出的信息也可能是有问题的。

大语言模型时代的新问题

随着大语言模型的出现,AI在写作领域的问题变得更加复杂。大语言模型的一个显著问题就是所谓的“hallucination”,即幻觉或幻想。这意味着大语言模型可能会编造一些不存在的信息。

一个引起广泛关注的案例是,一位纽约资深律师在提交的法庭文件当中,使用了机器人chatgpt提供的案例。他是一位已经执业30年的律师。他的当事人因为搭乘航班时被手推车撞伤膝盖,所以起诉航空公司。这位律师在提交法庭的文件里提供了6个既往类似案例,都是对当事人有利的裁决。但是航空公司的律师质疑这些案例的真实性,经过法官的核对,6个案例的判决结果、引语等都是假的。这位不幸的律师承认,他曾用chatgpot搜查案例,他询问过chagpt这些案例的真实性,chatgpt再三确认这些案例是真实的,且在“可信的法律数据库”中可以找到。

AI写作的实践与挑战

在2024年奥运会期间,我们尝试使用AI来撰写与奥运会相关的运动新闻。我们向AI提出了一个任务:撰写一篇关于2024年奥运会中最引人注目、最激动人心的运动员的新闻特写。然而,一个大型语言模型却编造出了一个并不存在的英国运动员,包括详细的名字和背景故事。

这个例子再次凸显了大语言模型在写作过程中可能出现的“hallucination”问题。虽然AI在写作方面的应用前景广阔,但如何确保其输出信息的准确性和可靠性仍然是一个亟待解决的问题。