将工具与偏见和启发法结合使用——“偏见的制造”

Exchange insights, tools, and strategies for canada dataset.
Post Reply
jrineakter
Posts: 810
Joined: Thu Jan 02, 2025 7:15 am

将工具与偏见和启发法结合使用——“偏见的制造”

Post by jrineakter »

示例:莫莉接到一位关心的邻居打来的电话,说一个孩子的父母一直在大声喊叫。在过去三天里,邻居还经常听到关门的声音和孩子哭闹的声音。该工具表明这个孩子的风险很低;然而,那天早上,莫莉的一位同事告诉她一个孩子死亡的故事,因为有关父母大声喊叫的报告被认为不需要进一步调查。基于此,莫莉将此案提交给面对面评估。

在这里,我们可以看到莫莉是根据情感和“回忆偏差”做出决定的,这意味着她对当前案件的评估受到她对类似事件的回忆的强烈影响。

如上所述,偏见和启发式是人类决策的特征,这一点(所有学派都接受)是公认的。然而,关于算法工具如何与这种现象互动的讨论似乎很少(如果有的话)。

关于算法决策工具的大部分文献似乎完全忽略 富人数据 了决策中人类偏见的挑战;隐含的假设是,如果通过算法工具的形式可以获得更多信息,人类将依靠这些信息做出更客观、更具分析性的决策。

然而,我认为,虽然决策工具可能会最大限度地减少人们对认知捷径的依赖,但非理性和偏见是人性的固有组成部分,尽管引入了决策工具,但它们几乎肯定会继续出现在人们的决策过程中——我们称之为“有偏见的制造”。

公共部门组织必须认识到,算法决策工具并不是万灵药,无法以某种方式消除人类决策中的所有非理性。现实地看待这些工具的局限性,可以采取其他措施与这些工具配合使用,以支持最佳决策。

怎样才能最大限度地减少偏见的伪造?对认知偏见的教育至关重要。为员工提供简单的指南是一个很好的开始,因为事实证明,仅仅提醒人们存在偏见就能做出更好的决策。

此外,减少偏见的一些简单建议包括:

要求同事采取反对者的立场。
使用德博诺的六顶思考帽方法来支持对其他观点的考虑。
使用推理阶梯来批判性地反思支撑该决策的思维过程。
3. 完全依赖工具,没有运用专业判断——“算法尊重”
示例:莫莉接到一通电话,称一名儿童在过去三周内手臂和腿部一直有瘀伤。算法决策工具给该儿童的风险评级较低。尽管莫莉心存疑虑,但她还是听从了该工具的建议,认为该儿童不需要采取进一步行动。

莫莉的做法表明了一种“自动化偏见”,尽管她的判断表明可能需要进一步调查,但她还是倾向于采纳算法工具的建议。这是一个众所周知的现象,在航空、卫生部门和军队等多个领域都有发现。

一些文献表明,经验较少的公共部门工作人员比经验丰富的工作人员更容易受到自动化偏见的影响。

这是一个问题,因为——出于上述原因——公共部门的算法决策工具通常设计为与专业判断结合使用。

解决方案似乎在于教育公共部门工作人员了解该工具以及如何使用它。关于如何使用该工具的培训应侧重于两点:首先,应明确说明该工具的局限性,以消除公共部门员工可能感受到的任何恐惧感;其次,应强调工作人员继续将专业知识应用于决策的重要性(如上所述)。
Post Reply