嘉峪检测网 2025-03-12 13:38
导读:EU AI Act制定了在欧洲经济区内管理人工智能系统开发、部署和使用的全面规则。ISO/IEC 42001 提供了一个结构化的人工智能管理系统框架,支持关键领域的合规性,从而补充了这些目标。
EU AI Act制定了在欧洲经济区内管理人工智能系统开发、部署和使用的全面规则。其核心要求侧重于确保人工智能产品的透明度、安全性和道德性,同时应对基本权利面临的风险。
ISO/IEC 42001 提供了一个结构化的人工智能管理系统框架,支持关键领域的合规性,从而补充了这些目标。
|
EU AI Act 欧盟AI法案 |
ISO/IEC 42001 AI管理体系 |
基于风险的分类 |
将人工智能系统分为高风险、有限风险和最低风险类别,并对高风险系统提出更严格的要求。 |
提供识别、评估和管理人工智能系统相关风险的方法,确保符合该法案的基于风险的方法。 |
透明度和文件 |
要求提供详细的技术文档和日志功能,以实现可追溯性。 |
指导企业创建和控制文档信息,确保整个人工智能生命周期的透明度和可审计性。 |
道德和以人为本的设计 |
优先考虑人类监督、公平性和避免歧视。 |
包括处理人工智能系统中道德因素、公平性和可信度的控制措施。 |
持续监控和改进 |
要求对已部署的人工智能系统进行持续监控和风险管理。 |
强调持续改进和内部审计,以适应不断变化的风险和合规需求。 |
来源:MDR小能手
关键词: 人工智能系统