研究显示,人工智能心理健康工具可能会延续性别和种族偏见

   丹佛,8月15日——俗话说,不要被外表所迷惑。然而,人工智能似乎已经落入了这个陷阱。根据美国科罗拉多大学的一项研究,在心理健康领域治疗患者的项目中使用的一些基于人工智...

  研究表明,AI心理健康工具可能会强化性别和种族偏见

丹佛,8月15日——俗话说,不要被外表所迷惑。然而,人工智能似乎已经落入了这个陷阱。根据美国科罗拉多大学的一项研究,在心理健康领域治疗患者的项目中使用的一些基于人工智能的工具可能依赖于有偏见的信息。

刻板印象很难消除。据科罗拉多大学博尔德分校的研究人员称,算法也发现了这些陈词滥调。由计算机科学副教授Theodora Chaspari领导的一项研究揭示了一个令人担忧的现实:用于筛查心理健康问题的人工智能(AI)工具可能会对患者的性别和种族产生偏见。这一发现提出了关于心理健康技术的公平性和有效性的关键问题。

这项题为“解构基于语音的数字健康机器学习模型中的人口统计学偏见”的研究发表在《数字健康前沿》杂志上,该研究表明,本应筛查焦虑和抑郁等心理健康问题的算法可以根据患者的性别和种族做出假设:“如果人工智能没有得到很好的训练,或者没有包含足够的代表性数据,它就会传播这些人类或社会的偏见,”计算机科学系副教授Chaspari教授说。

在将人们的音频样本置于一套学习算法之后,研究人员发现了患者的几个潜在危险缺陷。结果显示,与男性相比,机器更有可能误诊有抑郁症风险的女性。

除了歧视患者的性别,人工智能还会错误地评估患者的语言。据研究人员称,患有焦虑症的人会用更高的音调和更多的激动来表达自己,同时表现出呼吸急促的迹象。相比之下,有抑郁迹象的人更有可能轻声细语,语调单调。

为了验证这些假设,研究人员分析了参与者在一群不认识的人面前发表简短演讲时的行为。另一组男性和女性在类似临床的环境中相互交谈。

在第一组中,拉丁美洲人比白人或黑人参与者更紧张,但人工智能没有检测到这一点。在第二组中,算法将男性和女性的抑郁风险划分为相同的水平,但后者实际上有更多的症状。“如果我们认为算法实际上低估了特定群体的抑郁症,我们需要告知临床医生,”西奥多拉·查斯帕里强调说。- ETX Studio

本文来自作者[admin]投稿,不代表翰皇联盟立场,如若转载,请注明出处:https://hanorunion.com.cn/cskp/202506-262.html

(2)

文章推荐

发表回复

本站作者后才能评论

评论列表(4条)

  • admin
    admin 2025年06月11日

    我是翰皇联盟的签约作者“admin”!

  • admin
    admin 2025年06月11日

    希望本篇文章《研究显示,人工智能心理健康工具可能会延续性别和种族偏见》能对你有所帮助!

  • admin
    admin 2025年06月11日

    本站[翰皇联盟]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育

  • admin
    admin 2025年06月11日

    本文概览:   丹佛,8月15日——俗话说,不要被外表所迷惑。然而,人工智能似乎已经落入了这个陷阱。根据美国科罗拉多大学的一项研究,在心理健康领域治疗患者的项目中使用的一些基于人工智...

    联系我们

    邮件:翰皇联盟@sina.com

    工作时间:周一至周五,9:30-18:30,节假日休息

    关注我们