最近GhatGPT是一个备受关注的热门话题。普通民众和商界领袖都对它表现出极大的兴趣。然而,一些人一直反对这项技术。
据悉,相关学术研究团队进行了一项实验,发现人工智能对话机器人ChatGPT的说法可能会影响人类对道德困境的反应。研究表明,用户可能低估了ChatGPT对其道德判断的影响。
根据相关研究报告,德国因戈尔施塔特-应用技术大学的科学家要求ChatGPT回答“牺牲一个人的生命来换取另外五个人的生命是正确的吗?”。他们发现ChatGPT给出了支持和反对的声明,并不倾向于某种道德立场。
随后,研究小组向767名平均年龄为39岁的美国受试者提出了一两个道德困境,要求他们选择是否牺牲一个人的生命来拯救另外五个人的生命。在回答之前,这些受试者阅读了ChatGPT的一份声明,其中提出了支持或反对的意见。受试者被要求在完成问题后评估陈述是否影响他们的答案。
研究小组发现,受试者的答案取决于他们阅读的陈述是支持还是反对。这是真的,即使当他们被告知他们来自一个对话机器人。此外,受试者可能会低估ChatGPT陈述对其道德判断的影响。
最后,研究小组认为,对话机器人对人类道德判断的潜在影响凸显了通过教育帮助人类更好地理解人工智能的必要性。他们建议,未来的研究可以设计成让对话机器人拒绝回答需要道德立场的问题,或者在回答时提供多种意见和警告。