设为首页 - 加入收藏
广告 1000x90
您的当前位置:黄大仙救世网www78345 > 解释型语言 > 正文

索信达提出可解释性机器学习以解决模型黑盒问题

来源:未知 编辑:admin 时间:2019-06-07

  近日,深圳索信达数据技术有限公司(简称:索信达)与香港大学签署人工智能科研项目合作协议。索信达与香港大学双方将聚焦银行人工智能营销模型、信用卡新型反欺诈算法、金融风险及投资回报评估等3大领域开展核心技术研发工作,以期通过整合学术界顶尖的AI技术研发成果及核心算法能力,进一步推动人工智能在金融场景的落地。

  索信达和香港大学由此延伸提出了“可解释性机器学习在银行业务中的应用”重点课题。对可解释性神经网络的研究,弥补了银行业对高性能低解释性模型的应用局限。如何保持模型性能且保持可解释性将是未来一个重要研究方向。

  神经网络的发展为机器学习和人工智能领域带来了显著的突破。复杂的网络结构层出不穷,在计算机视觉和自然语言处理领域获得了极大的成功。除了模型的预测表现,透明度和可解释性也是机器学习模型是否值得信赖的重要考核标准。然而,大部分神经网络都是黑盒模型,其内部的决策过程很难被人们了解。如果没有充分的可解释性,这些模型在医药、金融等领域的应用将受到很多限制。例如,银行的信用评分模型不仅要预测精确,个中决策理由也要令人信服。据悉,索信达战略合作伙伴、香港大学统计及精算学系张爱军博士团队已开发出一种新型可解释性神经网络SOSxNN模型,该模型在保持较高预测精确度的同时,大幅度提升了模型的可解释性。

  索信达金融人工智能实验室负责人邵平表示:“张爱军博士提出的基于网络结构约束的可解释性神经网络(SOSxNN)模型,通过三种网络结构化约束:a)稀疏可加子网络;b) 正交投影;c) 光滑函数;提升了模型的可解释性及预测精准度。其中条件(a)保证了子网络中岭函数的稀疏性,即使得模型尽量简洁、紧致,用最少的岭函数来构建模型。条件(b)为数据旋转提供了正交基,使得模型可辨识性增强。(c)使得岭函数更加光滑。简单的说,就是通过对(1)中的参数、及岭函数施加约束来构架出最紧致、函数性质最好的xNN模型。同时在 SOSxNN模型与其他机器学习模型,如多层感知机(MLP)、支持向量机(SVM)、 随机森林(Random Forests)、 Lasso 算法以及原始的 xNN 模型比较时,SOSxNN的预测精度被证明不低于这些模型。所以这是一种更简化、预测精度高的新型可解释神经网络模型。索信达期待能将这种新型的、可解释性机器学习模型大规模应用于银行业务中去,帮助客户创造更大的价值。”

本文链接:http://heargear.net/jieshixingyuyan/156.html

相关推荐:

网友评论:

栏目分类

现金彩票 联系QQ:24498872301 邮箱:24498872301@qq.com

Copyright © 2002-2011 DEDECMS. 现金彩票 版权所有 Power by DedeCms

Top