由立教大学人工智能科学研究科指定副教授 Shinnosuke Ishikawa 和 Mamezou Co., Ltd. 组成的研究小组开发了一种新的“可解释的 AI”,它可以直观地判断“AI 的判断结果是否可以被解释”值得信赖。”宣布开发了一种方法

 近年来,人工智能技术的发展令人瞩目,各种人工智能服务层出不穷,但有些人却犹豫是否要引入人工智能,因为他们不知道自己是否真的可以相信人工智能的判断结果。另一方面,解释和解释AI的判断并使AI的判断透明化的“可解释的AI”的研究领域正在引起人们的关注。

 可解释AI的代表方法是,比如解释“高血压”对AI预测“你患病风险高”有很大影响,有一种方法是提取影响较大的元素。另一方面,这个团队从“以数据为中心”的角度尝试了一种不同于这些方法的方法,并开发了一种新方法,可以根据“AI具体学习了什么样的数据”来解释AI的决策。底部。

 例如,为了确认 AI 判断“某个物体是猫”是否可靠,该方法会询问 AI 迄今为止见过(学习)过的“最相似的‘猫’” .这是一个可解释的AI,呈现AI目前为止所学的数据中判断为最接近的数据,比如呈现“。研究人员将其称为 What I Know(WIK),意思是 AI 呈现的是“我所知道的”。

 作为检验 WIK 在人造卫星对地观测图像分类问题中有效性的结果,WIK 能够呈现与要识别的卫星图像相似的图像。换言之,可以说人工智能已经进行了充分的学习来识别卫星图像,判断结果很可能是可靠的。

 研究团队认为WIK可以立即应用于许多社会问题,并计划在继续验证其有效性的同时推广使用。

纸张信息:[International Journal of Applied Earth Observation and Geoinformation] 基于实例的可解释人工智能及其在遥感图像分类中的应用

立教大学

以“RIKKYO Learning Style”获得“新”全球领导力

自 1874 年成立以来,立教大学一直致力于培养国际化和领导力的文科教育。目前,我们有10个学院、27个系、8个专业和1个课程。凭借丰富的思想和领导力,我们可以应对全球问题和社会需求,从广阔的角度发现和解决问题 […]

大学学报在线编辑部

这是大学学报的在线编辑部。
文章由对大学和教育具有高水平知识和兴趣的编辑人员撰写。