【编者按】在《时代》与ChatGPT的对话中,聊天机器人就其工作原理、这种新技术的传播可能带来的风险以及人类应该如何应对潜在问题给出了回答。正如机器人自己的表态,它的反应不应被视为准确事实,也不应被视为其大脑会思考的证据。2022年底有一件事似乎是明确的:大型语言模型将继续存在。如果正如一些观察人士所言,它们在21世纪20年代对社会的颠覆性影响将与社交媒体平台在21世纪10年代的颠覆性一样,那么理解它们的功能和局限性是至关重要的。
1950年,英国计算机科学家艾伦·图灵(Alan Turing)设计了一种被他称为模仿游戏的测试:计算机程序能否让人相信,人类是在和另一个人而不是一台机器对话?
众所周知,图灵测试通常被认为是一种判断计算机是否能够真正“思考”的测试。但图灵实际上是想用它来说明,不管计算机是否真的会思考,有一天它们可能会让人相信其能够思考。图灵似乎明白,人类的大脑天生就是通过语言进行交流的。计算机可能也想不到,它们会这么快就利用语言,让人类相信它们能够思考。
70多年后的2022年,即使是最先进的人工智能(AI)系统也无法与人类大脑相媲美。但它们很轻易地通过了图灵测试。今年夏天,谷歌解雇了一名工程师,因为他相信公司的一个聊天机器人已经拥有了感知能力。多年来,人工智能研究人员一直在努力解决,发布一个让人类相信对话者也是人类的程序所带来的伦理后果。这种机器可能会让人们相信错误的信息,说服他们做出不明智的决定,甚至在孤独或脆弱的人身上激发虚假的爱的感觉。发布这样一个程序肯定是非常不道德的。今年早些时候让谷歌工程师相信它有感知能力的聊天机器人仍然被公司关在密室里,伦理学家正在研究如何让它更安全。