新研究提出识别可信任AI的标准化方法
德国电气工程师协会(VDE)和德国贝塔斯曼公司的一项新研究展示了如何将人工智能(AI)的道德原则用于实践。这项名为“从原则到实践——操作性AI道德的跨学科框架”的研究提出了一个标准化方法,帮助消费者识别AI产品或服务的可信任水平。
尽管现在有很多关于AI的道德指南,但可实际操作的解决方案却少之又少。其中一个最大的阻碍是“透明”和“公平”等原则的定义模糊,在理解上也存在偏差。此项研究意在填补空白,提出了准确、具体地实施通用AI道德原则的方法,此方法基于三个工具:VCIO模型、AI道德标签和风险分类。
所谓的VCIO模型(Value, Criteria, Indicators, Observables)将价值分解为标准、指标和可观察量。政策制定者、监管和监督机构可采用该模型来明确AI系统的要求,并进行实施。其次,研究提出的AI系统道德标签可帮助企业清晰、统一地描述其产品的道德特性。该标签是以家电能源标签的成功案例为基础,可帮助消费者和企业对市场上的产品进行比较。
最后,该模型的第三个要素——风险矩阵,能帮助对AI应用案例进行分类。AI的系统特性是否“道德”,取决于具体的应用案例。研究提出的风险矩阵方法可对应用进行分类。风险矩阵分为四个级别:0级、1级、2级或3级,考虑了潜在损害的程度、受影响人员的依赖性,或者他们规避AI决定或选择另一系统的能力。最低级0级无需考虑任何道德问题,而1至3级的AI系统则只有在授予AI道德标签的情况下才能使用。
该研究报告可通过点击下方链接免费下载。
© CEN, reproduced with permission(© CEN允许我司进行翻译转载)
© CENELEC, reproduced with permission(© CENELEC允许我司进行翻译转载)
来源:CEN和CENELC网站,翻译:曹欣欣