在道德教育学院为AI

该研究所的为通过对人工智能(AI HLEG)高级别专家小组发表人工智能守信(I)”的道德准则响应。

我们同意七个关键要求,即为了满足AI系统应该守信提出了这些准则。特别是我们鼓掌的方式中,这些设计已经被指引,适用于广泛的人工智能涉及的利益相关者:特别是开发,部署者和最终用户,以及更广泛的社会。我们认为,“开发商应实施和应用的要求来设计和开发流程”,那“部署者应确保系统他们使用,产品和服务,他们提供符合要求”和“最终用户和更广泛的社会应该来了解这些要求,并能够要求他们得到维护。“所有的要求都认为是同等重要的,和所有七个之间的相互关系进行说明。  

但是,有两个关键的挑战具体到教育不充分,承认在这些准则。

Firstly, those deploying artificially intelligent systems within education and training settings rarely have sufficient understanding of the technology to be able to ensure that the systems that are being used meet the requirements laid out here for trustworthy AI.

其次,有在声明中原则一个巨大的和批判低估假设在一个人的机构和监督关于那个“但前提是用户能够做出明智的决定,自治区关于AI系统。应该给他们的知识和工具,理解和交流与AI系统到令人满意的程度,并可能在那里,启用合理地进行自我评估或质疑制度。“这是一个令人钦佩的说法,但对任务的艰巨性使大家有了这方面的知识和工具,绝不能低估这些。它会采取协调一致的努力,并在世界各地的教育系统显著的投资,如果我们要在划痕人们提供“知识和工具,理解和交流与AI”的表面,使他们受益于这些技术,他们受苦没有坏处。

任务