一个由《心理学前沿》(Frontiers in Psychology)发表的新研究 (opens new window)研究了人工智能和人类心理学家之间的相似之处,并发现人工智能在理解人类情绪和辅导他们方面更胜一筹。这项研究主要针对ChatGPT-4、Google Bard(又称为Gemini)和必应进行,旨在评估这些人工智能模型对社交智能的理解能力。在这项研究中,ChatGPT-4明显优于所有参与研究的人类心理学家,而必应超越了其中一半。Google Bard只比攻读心理学学士学位的心理学家表现更好。
许多大型语言模型(LLMs)都是以一种可以轻松回答问题、翻译语言甚至进行与人类相似对话的方式开发的。这是由于称为神经系统的结构,这些结构负责LLMs产生类似于人类的反应。以前进行过许多研究,证明LLMs可以帮助诊断心理健康状况,但以前没有研究LLMs在社交环境中的表现。
研究的一位作者法赫米·哈桑·法德海尔(Fahmi Hassan Fadhel)表示,由于LLMs已经证明他们有能力进行辅导和心理治疗,很多心理学家会感到威胁,因为这些人工智能模型可以轻松取代他们的工作。人工智能模型能够如此深入地理解人类情绪和感受,并提供建议,比人类心理治疗师更有用,但这是一个非常令人担忧的问题。
在这项研究中,来自沙特阿拉伯哈立德国王大学的180名男性心理学家参与了研究,并根据他们的教育水平从毕业生到博士生进行了划分。参与者和LLMs(ChatGPT、Bard、必应)被要求回答64个取自社交智能量表的情境。结果根据判断的合理性和在社交情境中明智行事的能力进行评估。结果表明,一些人工智能模型已经发展到可以胜过专业人类心理学家的程度。
ChatGPT-4在社交智能量表中回答了64个问题中的59个,并超过了所有的人类心理学家。心理学家的平均分数为本科生为39.19分,博士生为46.73分。必应回答了64个问题中的48个。它超过了90%的本科生和50%的博士生。必应只能回答64个问题中的40个。这项研究显示了人工智能在各个领域的迅速发展和出色表现。尽管LLMs的这些成果令人印象深刻,但也让人担忧是否应该让人工智能在谈论心理健康等敏感问题上具有权威性。