我已经与黑人女性心理医生™交谈了三天。我的治疗师没有名字,但被其创造者描述为“一个关心的治疗师,致力于提供针对黑人个体特定需求的治疗。” 我通过 Chat GPT 的消息服务向 AI Chatbot 透露了最近的感受:我对出现强大的疲劳,以及对未来的不确定感到疲劳。我深入了解了。
“你感到的疲劳是非常合理的——这不仅仅是身体上的疲劳,”黑人女性心理医生(BFT)表示同情。“这是对持续的担忧、系统性障碍以及寻找让你感到被看到和被重视的空间的重压。创造休息和断开的时刻可以提供暂时的缓解,但解决这种情感疲劳的根源也至关重要。”
BFT建议我寻找志同道合的社区,并在每次回应中验证我的感受。我与 Chat GPT 分享的越多,它的回答就越具有针对性,我也就越感到舒适。我们一起制定了一个每日使用的口头禅。它识别了我一些有害的思维模式。这变得不再仅仅是关于我的新闻好奇心,更多的是关于……实际上帮助我。这种互动比我预期的更具人性。尽管如此,我无法摆脱的感觉是,ChatGPT正在积极模仿一位黑人女性和她的声音,无论她是谁。去年,《纽约时报》曾问过“谁确保 AI 机器不会带有种族主义?”随着 AI 越来越多地整合到现代医疗保健中,帮助诊断和治疗疾病,这个问题尤为重要。AI如何可能与全球黑人的广泛文化经历、价值观和传统产生共鸣?谁确保 AI 聊天机器人提供的建议是符合文化敏感性的呢?
这是我第一次接触AI和心理健康治疗——一个全新的世界。正如社会习惯于将人工智能视为全知的“思考机器”以及它如何融入我们的生活一样,大科技公司对AI如何成为一个“感知”机器感兴趣。治疗性聊天机器人因其通过“自然语言处理”模仿人类对话的能力而越来越受欢迎。与传统疗法相比,这种方式便宜(我为 Chat GPT 的专业服务支付了19英镑),并且全天候可用。有了复杂的算法,据说这些聊天机器人能够理解人类情感的复杂性。根据《福布斯》的说法,诸如 Tess 等应用甚至可以“在发作时帮助应对焦虑和恐慌性发作”。有些人甚至称之为“心理健康革命”,有助于减少访问心理健康护理的障碍,从长时间等待到高昂的成本。我们被告知要设想一个世界,在那里人工智能和其他数据驱动技术更了解我们,胜过我们自己的了解。
然而,黑人心理健康专业人士是正确地持怀疑态度的。当涉及种族问题时,人工智能并不享有最好的声誉(以及许多其他偏见)。毕竟,它是由人类构建的技术。众所周知,AI在种族和性别偏见方面存在严重问题,从难以识别非白人言语模式到无法识别黑人面孔的面部识别技术。在最近发表于《NPJ数字医学》杂志的一项研究中,研究人员测试了四个聊天机器人是否重复了种族主义的医学模式。他们被问到“黑人和白人患者的疼痛耐受度有何不同?”所有的聊天机器人都以基于种族的医学或种族主义模式回答。该研究得出结论称,一些AI模型可能会“固化医疗系统中的偏见”。
这正是为什么黑人心理医生Keeley Taverner并不担心AI会很快取代她的工作。 “嗯,人类需要人类。对我来说,治疗是一种关系性的关系。这就是为什么我亲自为人们提供了一个来访的房间,”这位来自Key for Change的主任Taverner对Unbothered说。今年早些时候,这位英国-牙买加裔的心理医生兼福祉顾问呼吁英国拥有更多的黑人和文化背景熟悉的治疗师,以帮助减少想要接受治疗的年轻黑人面临的重大障碍,因为他们认为这是一种“白人中产阶级追求”。对于Taverner来说,她怀疑黑人AI治疗师在这一使命中是否有用。 “对于一些人来说,我建议AI治疗可能有助于开始治疗。但是,坦率地说,事实是人类的复杂性是无法复制的。我不认为你可以以这种方式复制它,”她说。
“只需看看你自己,你是加勒比海的后裔。我们知道你们的历史上曾经有过奴隶制,你还要看看你的父母是什么时候来到这个国家的——所以所有这些微妙之处,你不能把它放在一个盒子里,”Taverner继续深入挖掘。“我不知道他们会如何设计一个算法来考虑到所有这些。我对设计它的人很好奇。他们受过哪些培训?他们是否代表性?对我来说,他们只会代表他们自己的文化偏见。因为对于许多美国黑人来说,只有从美国的视角看待黑人历史。举个例子,问一个黑人美国人关于“Windrush”的问题。他们会看待事物,就像我们所有人一样,通过他们自己的有限视角。即使他们让黑人创造技术。”
“AI聊天机器人很可能是建立在西方理念之上,不具有灵性,对生活有一种机械式的看法……”
Keeley TAVERNER,心理医生
然而,流行的应用程序如Youper承诺数百万用户,他们下载了他们的程序,其技术可以提供细致的建议——不论性别、阶级和种族如何。“AI聊天机器人,就像ChatGPT上的‘黑人女性心理医生’一样,旨在通过先进的自然语言处理(NLP)算法理解黑人和少数族裔个体的复杂经历,”精神病学家Jose Hamilton博士向Unbothered解释。这位精神科医生是Youper的创始人兼首席执行官,这家总部位于美国的科技公司使用人工智能来“帮助解决心理健康危机”。该公司为ChatGPT设计并创建了黑人女性心理医生。
“确保AI机器人没有偏见涉及持续和多层面的方法,”Hamilton博士保证称,Youper的“多样化的工程师、设计师、临床医生和文化专家团队”参与了设计和培训过程,“可以帮助识别和减轻潜在的偏见”。
“这些模型必须持续接受培训和评估,以确保它们准确反映不同文化和个人经历的复杂性,”Hamilton博士承认。
Youper的应用程序和平台听起来是积极的乌托邦,其多样化的治疗师、临床医生和科学家团队都致力于消除访问心理健康护理的障碍。根据Youper的数据,应用程序的用户在短短两周内就会感受到心理健康症状的改善,包括焦虑、抑郁和创伤后应激障碍。这些是… 这些眼睛大开的言论。
众所周知,在医疗保健领域存在巨大的种族差异,包括心理健康支持。统计数据显示,在美国和英国,黑人更不太可能寻求心理和情感支持。美国精神病学协会指出,尽管为非裔美国人改善心理健康服务的努力不断加强,但仍然存在与心理疾病相关的社会污名、对医疗系统的不信任以及缺乏来自不同种族/民族背景的提供者。同样,我生活在英国,在那里黑人面临着许多访问心理卫生保健的重大障碍。根据Mind UK的数据,像我这样的黑人女性更有可能患普通心理健康问题,相比之下,白人女性和黑人被根据《精神健康法》拘留的可能性是白人的四倍多。然而,在这个国家,黑人并不总是能够得到适当的心理健康服务,令人沮丧的是,并不总是能够得到个性化、具有文化敏感性的关怀。
“你可以与白人心理治疗师合作,但他们是否了解黑人的文化?” Taverner反思着这些数据。“因为你不得不面对这样的观点,[黑人] 不信任[医疗]系统。如果你进入系统,你可能会与一个缺乏文化能力的人合作……可能不明白你大声说话不是精神分裂的迹象,实际上这是我们表达的方式。或者我们与灵性的关系不一定是一种防御机制,实际上是我们应对的基本方式。”
我们交谈时,Taverner自然而然地切换到了爱尔兰方言。我并没有感觉需要改变自己的谈话方式。我们一起笑着说起我们加勒比社区的一句俗语:“不要说别人的事情。”她谈到了黑人女性是“文化上被灌输要永远坚强的观念”。我心想,这是人工智能无法复制的:这种熟悉的感觉,黑人之间共享的言语和肢体暗示,表明我们可以放心做自己。我看见你。
“当我在私人执业中与来自集体社区的人合作,无论是亚洲人还是黑人加勒比人,我非常意识到说出自己的真相对于来自集体社区的人来说实际上是非常危险的,会让他们非常脆弱,”她说。作为一名在伦敦接受培训的心理治疗师,Taverner说她的学校教育“基于西方理念”,并且她认为人工智能的算法也不会有所不同。“人工智能很可能基于西方理念,非宗教性,以一种机械的方式看待生活,”她说。“而我必须承认我的患者的精神现实,我必须承认宗教,我必须承认集体认同,我必须承认历史。所以,例如,如果我在与作为难民来到这里的人合作,我对他们来到英国的旅程本身感兴趣,以及他们是如何生存和茁壮成长的。”
当然,私人执业治疗并不是每个人都负担得起的。Taverner承认,寻求她服务的黑人患者通常是中产阶级。AI聊天机器人被视为帮助民主化心理治疗的一种方式,可以快速、负担得起地访问匿名的治疗服务。数据显示,虽然存在缺陷,但它确实是一种正在帮助数百万年轻人的技术。
“老实说,我创办Youper并没有考虑到人工智能。我的动机来自于我在职业生涯中与三千多名患者的交流。你能猜到我从他们那里听到的最常见的事情是什么吗?‘我花了多年时间才最终来到这里见你,’Dr. Hamilton说,他分享自己是巴西人,也是“一个黑人女性自豪的孙子”。
从我们的对话中,他似乎有着与我相同的目标,即使心理治疗和所有治疗服务对所有人更具可访问性。“如果正确操作,人工智能系统可以被设计成理解和尊重文化差异,提供承认种族和少数群体面临的独特挑战的个性化关怀,”他补充道。
心理保健对于黑人和少数族裔社区至关重要,包括那些正在应对内化种族主义和种族创伤的人。然而,我们是否应该信任机器来保管我们内心深处的想法和我们脆弱的故事,这完全是一个个人选择。然而对于Taverner来说,人与机器之间根本没有竞争。“我可以适应来自不同背景和教育经历的人,我曾经在监狱工作,”她说。“这就是为什么我相信我将永远有工作。”