• 设为首页
  • |
  • 加入收藏
  • |
  • 人才信息
  • |
  • English
  • |
  • 全媒体资源管理系统
  • 新闻中心
  • 您所在的位置:
  • 网站首页
  • >
  • 新闻中心
  • >
  • 国际要闻
  • 本社概况
    期刊导航
    新闻中心

    新研究提出识别可信任AI的标准化方法

    作者:CEN-CENELEC网站
    发布时间:2020-06-02
    来源:

    德国电气工程师协会(VDE)和德国贝塔斯曼公司的一项新研究展示了如何将人工智能(AI)的道德原则用于实践。这项名为“从原则到实践——操作性AI道德的跨学科框架”的研究提出了一个标准化方法,帮助消费者识别AI产品或服务的可信任水平。

    尽管现在有很多关于AI的道德指南,但可实际操作的解决方案却少之又少。其中一个最大的阻碍是“透明”和“公平”等原则的定义模糊,在理解上也存在偏差。此项研究意在填补空白,提出了准确、具体地实施通用AI道德原则的方法,此方法基于三个工具:VCIO模型、AI道德标签和风险分类。

    所谓的VCIO模型(Value, Criteria, Indicators, Observables)将价值分解为标准、指标和可观察量。政策制定者、监管和监督机构可采用该模型来明确AI系统的要求,并进行实施。其次,研究提出的AI系统道德标签可帮助企业清晰、统一地描述其产品的道德特性。该标签是以家电能源标签的成功案例为基础,可帮助消费者和企业对市场上的产品进行比较。

    最后,该模型的第三个要素——风险矩阵,能帮助对AI应用案例进行分类。AI的系统特性是否“道德”,取决于具体的应用案例。研究提出的风险矩阵方法可对应用进行分类。风险矩阵分为四个级别:0级、1级、2级或3级,考虑了潜在损害的程度、受影响人员的依赖性,或者他们规避AI决定或选择另一系统的能力。最低级0级无需考虑任何道德问题,而1至3级的AI系统则只有在授予AI道德标签的情况下才能使用。

    该研究报告可通过点击下方链接免费下载。

    www.vde.com/presse或者www.ai-ethics-impact.org

    © CEN, reproduced with permission(© CEN允许我司进行翻译转载)
    © CENELEC, reproduced with permission(© CENELEC允许我司进行翻译转载)

    来源:CEN和CENELC网站,翻译:曹欣欣

    京公网安备 11011402011481号

    京ICP备12047668号-1