Page 1 of 1

AIC4目录由联邦信息安全办公室(BSI)制定

Posted: Wed Jan 29, 2025 5:50 am
by suchona.kani.z
除了欧盟人工智能法规外,还有其他与评估人工智能成熟度相关的重要法规、指南、标准和工具。这包括:

ISO/IEC 42001:2023:该国际标准规定了人工智能管理系统的要求和指南,用于管理可信人工智能系统的开发、部署和使用。它包括透明度、可解释性、公平性和稳健性等方面。
VDE SPEC 90012:电气、电子和信息技术协会 (VDE) 的该规范为开发值得信赖的人工智能系统提供了实用指南。它包含有关数据保护、IT 安全和道德原则等主题的具体建议。
微软负责任的人工智能:微软开发了负责任的人工智能的强制性框架,其中包括六项核心原则:公平、可靠性和安全性、隐私、包容性、透明度和问责制。这些原则是在 Microsoft Azure 上开发和部署 AI 系统的先决条件。如果不遵守 Responsible AI 框架,则不允许在 Microsoft 生态系统内开发 AI 应用程序。
AIC4(AI云服务合规标准目录): 规定了AI云服务的安全性和合规 护理院电子邮件列表 性要求的标准。涵盖数据保护、IT安全、风险管理、合规等方面,确保云端AI服务安全可信运行。
弗劳恩霍夫人工智能测试目录:弗劳恩霍夫测试目录为人工智能系统的评估和认证提供了全面的指南。这可以保证人工智能应用的质量和可信度。该目录涵盖各个方面,包括技术安全、道德要求、法律合规性以及决策的透明度和可追溯性。
分析工具DORA.KI:从2025年1月17日起,欧盟数字运营弹性法案(DORA)要求所有欧盟金融公司加强IT弹性。这还包括与第三方信息和通信技术服务提供商及其子服务提供商的明确协议。这些必须满足某些信息安全标准,以确保稳健的 IT 运营。借助新的分析工具 DORA.KI,adesso 支持客户检查合同和相关文档以确保 DORA 合规性。
在日常公司生活中实施这些标准需要对现有流程和系统进行全面而详细的分析。风险的识别和评估起着核心作用。公司必须确保他们不仅满足监管要求,而且还将道德考虑纳入决策过程。实施人工智能监管时的一个核心问题是确保透明度和可追溯性。公司面临着以易于理解的方式解释复杂人工智能算法并使其决策易于理解的挑战。这不仅需要技术知识,还需要技术人员、律师和伦理学家之间的跨学科合作。