如何修复系统:让女性参与这个过程并解释系统如何运作将是一个好的开始。使用该系统的女性告诉 Decoded,她们希望得到性别暴力专家、心理学家或医生的支持。“给受害者安全感。给予同情。不要评判。要善良和支持,”第二位女性说。点击此处阅读更多我的评论。
你行动
人工智能禁令辩论升温:本周,欧洲议会文化委员会就由捷克绿党成员马塞尔·科拉贾 (Marcel Kolaja) 起草的《人工智能法案》报告草案展开了辩论。该报告首次揭示了《人工智能法案》如何禁止在公共场所使用面部识别等有争议的人工智能用途的具体措辞。文化委员会的任务是参与制定高风险人工智能系统的分类规则。该委员会将于 5 月对该报告进行表决。
扩大高风险人工智能系统名单: Kolaja 希望将高风险人工智能系统名单扩大到电子监考系统, 该系统用于在考试期间监控学生,以及用于确定学生应该学习的领域或课程的技术。他还建和传播以及视听内容的推荐和排名算法添加到名单中。
禁止对企业进行社会评分:捷克海盗党成员科拉亚有一点与欧盟国家的观点一致。他提议禁止对私营企业进行社会评分,这与欧盟主席国斯洛文尼亚的提议一致。科拉亚说:“这种社会评分概念与欧洲价 阿尔巴尼亚 WhatsApp 数据 值观相去甚远。”科拉亚表示,他对德国同事、保守派欧洲人民党成员阿克塞尔·沃斯没有在报告中提出同样的建议感到失望。
这并不令人意外:科拉贾强烈主张禁止在公共场所使用远程生物识别系统。这符合议会去年通过的 一项决议。
禁止事后监视: Kolaja 认为,《人工智能法案》对实时远程识别的关注还不够。“俄罗斯在示威活动后使用面部识别技术来识别抗议者,”Kolaja 说。这也可能对记者构成风险,因为他们的行动会被追踪以找到消息来源。
元宇宙中禁止跟踪: Kolaja 的报告补充道,同样的原则也应适用于虚拟的公共空间。
问责
追究执法责任:人工智能可以成为发现网络恐怖主义内容或儿童色情内容的强大工具。但它也给公民的基本权利和隐私带来了巨大风险,例如,批评者担心人工智能系统可能会让政府进行更多的监控。欧盟执法机构欧洲刑警组织和其他四个欧盟司法和内政机构已经制定了新的问责规则,以期让执法部门承担更多责任。
重要性:《人工智能问责原则》初稿是执法机构自我监管的一次努力。目前,几乎没有规则来规范他们使用人工智能技术,尽管欧盟的《人工智能法案》对面部识别等一些“危险”的人工智能用途有所限制,但它为执法部门留出了例外。欧盟国家也在推动将国家安全完全排除在该法案的范围之外。
民意:一项对 30 个国家 5,500 名公民的调查发现,超过 90% 的受访者希望警方对他们使用人工智能的方式及其后果负责。只有三分之一的人认为现有机制是合适的。