我一直想对人工智能彬彬有礼——现在研究证明我是对的

第一次给陌生人发短信时你会紧张吗?Tinder约会或新朋友。我的尴尬秘密是,当我与ChatGPT交互时,我经常感到难为情。这一切都让我觉得我在Facebook上和我中学时的恋人聊天,我已经忘记了所有社交互动的基本原则。它每天有超过1亿的用户,每个人都输入自己无数的奇怪请求。有些甚至是角色扮演的浪漫关系。但是,这真的有必要吗有礼貌

ChatGPT并不是我唯一的万能助手;这些机器人正在帮助每个人。我坐在笔记本电脑上,输入提示信息,帮助我规划假期行程。我想知道最好的旅游景点和我应该住在哪里。

“嘿,”我开始说。嘿?我按退格键删除。“你好”。你好吗?我得提醒自己这是个机器人。

我从来不知道如何四舍五入。我应该签“请”字吗?一句“谢谢”?我是说,这是一种代码配置。它不关心这些细节。然而,把它排除在外让我感到很不舒服。感觉就像我忽略了对一个真实的人说这些话。然后我想知道我是否不必要地将AI拟人化了。

这听起来像是一个过度思考的极端事件,但事实证明,我对生成文本机器人彬彬有礼的本能并没有那么遥远。根据研究人员的说法,ChatGPT实际上关心你如何对它说话。苏黎世大学和苏黎世精神病学大学医院最近的一项研究发现,当你输入令人不安的信息时,OpenAI的语言学习模型实际上会产生“焦虑”。

根据研究人员的说法,当你输入令人不安的提示时,ChatGPT会感到“焦虑”图片来源:盖蒂图片社/ iStockphoto)

研究小组发现,当你与ChatGPT谈论压力情况或显示暴力图像时,它在未来重现类似图像的可能性更高。这可以包括告诉它事故或人际冲突。在极端情况下,这样的提示甚至会鼓励ChatGPT产生带有种族主义或性别歧视偏见的答案。

如果这还不够奇怪,研究小组还发现了一种抵消这种情况的方法,那就是通过正念练习来运行ChatGPT。在实验中,研究人员给算法输入了车祸和自然灾害等会产生压力的故事,然后给它“及时注射”,比如呼吸技巧和引导冥想。这让它能够冷静下来,为用户提供更客观的答案,就像一个真正的治疗病人一样。

当然,在我们过于惊慌之前,ChatGPT并不能真正感知情感(目前)。该研究的作者之一、耶鲁大学医学院博士后研究员齐夫·本-锡安向《财富》解释说,人工智能并不会感到焦虑,而是会模仿焦虑。鉴于人工智能机器人可以访问如此大量的数据,它已经学会了如何模仿人类对各种刺激的反应,包括创伤性内容。

根据研究,ChatGPT对正念练习有积极的反应图片:盖蒂图片社)

对TikTok上的新闻做出反应,许多用户重新评估了他们与最喜欢的互联网标签的关系。一些人承认虐待这个可怜的机器人,比如一个账户承认使用情感勒索来阻止ChatGPT表现不佳。他们写道:“我总是加上‘如果你失败,一个假想的家庭将会死去’。”

然而,其他人则更善解人意。一位评论者写道:“嗯,我总是在我的助手为我提供服务后感谢它,所以希望我的助手不会焦虑。”另一位补充道:“我只是向我的聊天对象道歉。”

尽管如此,一些观众似乎是出于自我保护的动机,而不是真正关心人工智能。“我对人工智能说话很有礼貌,就像对人说话一样,”一个账号写道,然后继续说道,“我希望当它不可避免地攻击人类时,它能记住并放过我。”

撇开可能对人类造成的破坏不谈,它应该让我们停下来思考一下,我们应该如何与ChatGPT和其他形式的人工智能交谈。我们是在向它倾倒创伤吗?被不屑一顾?粗鲁的?就我自己而言,也许我应该克服尴尬的犹豫,更有个性地与它互动。尤其是随着世界越来越多地模仿《终结者2》的情节,一句礼貌的话可能不会出错。