您现在的位置是:首页 >综合 > 2020-11-05 11:19:15 来源:

计算机科学家研究可解释的机器学习开发AI来解释其发现

导读 人工智能可以帮助科学家做出发现,但并不是每个人都能理解它是如何得出结论的。一位UMaine计算机科学家正在开发深度神经网络,以用户理解的

人工智能可以帮助科学家做出发现,但并不是每个人都能理解它是如何得出结论的。一位UMaine计算机科学家正在开发深度神经网络,以用户理解的方式解释其发现,并将其工作应用于生物学,医学和其他领域。

可解释的机器学习或为所到达的结果创建解释的AI,定义了陈超凡的研究重点。计算机科学助理教授表示,可解释的机器学习还使AI能够在图像和来自数据的预测之间进行比较,同时详细说明其推理。

科学家可以将可解释的机器学习用于各种应用程序,从识别图像以进行野生动物调查的鸟类到分析乳房X线照片。

“我想增强深度学习的透明度,并且希望深度神经网络能够解释为什么某种东西是它认为的样子,” Chen说。“很多人已经开始意识到,深层神经网络就像一个黑匣子,人们需要开始寻找打开黑匣子的方法。”

Chen在杜克大学(Duke University)学习期间开始开发可解释的机器学习技术,他于五月在该大学获得了计算机科学博士学位。

在加入UMaine之前,Chen和杜克大学的研究同事开发了机器学习架构,称为原型零件网络(ProtoPNet),可以对照片中的鸟类进行精确定位和分类,然后解释其发现。团队去年完成的ProtoPNet将解释为什么它识别的鸟是鸟,以及为什么它代表特定类型的鸟。

研究人员训练了ProtoPNet来确定照片中的鸟是哪种。例如,AI将学习一组表征每种鸟类的原型特征,并将鸟类图像的不同部分与来自多种鸟类的原型特征进行比较。例如,ProtoPNet会将图像中认为是鸟的头部与来自各种鸟类类别的原型鸟的头部进行比较。Chen说,利用与鸟类原型特征的相似性,ProtoPNet可以解释为什么图像是一种特殊的鸟类。

该小组在去年加拿大温哥华举行的第33届神经信息处理系统会议上发表的一篇论文中分享了其发现。