告别AI模型黑盒:可解释机器学习研究

告别AI模型黑盒:可解释机器学习研究

在大数据时代,人工智能技术已渗透到金融行业当中。金融科技(FinTech)通过大数据与人工智能的结合,为传统银行业带来了创新的产品和服务,提供了高效率、低成本的运营策略,网络化、数字化、智能化将成为未来银行的发展趋势。由于机器学习模型存在“黑盒”属性,所以模型内部的工作原理和模型决策过程难以被理解。在银行业,人们不仅要求机器学习模型给出准确的预测结果,而且要求其对预测结果进行解释。可解释机器学习的思想在于,选择模型时,同时考虑其精度与可解释性,它不仅给出模型预测结果,还能给出得到该结果的理由。

索信达金融AI实验室结合自身的金融业务场景与专业知识,在可解释机器学习领域有了一定的探索,希望通过一系列文章介绍不同解释模型的方法,分享可解释机器学习理论结合实际业务的应用和思考。

黑盒模型事后归因解析:SHAP方法
黑盒模型事后归因解析:SHAP 方法

我们希望可以通过一系列文章来介绍解释不同模型的方法,并分享与实际场景相结合的业务与技术心得。

黑盒模型事后归因解析:LIME方法
黑盒模型事后归因解析:LIME 方法

本文介绍了 LIME 作为一种复杂模型事后解释器,如何拟合局部代理模型,以及如何挑选全局样本,达到模型局部解释和整体解释的目的。

黑盒模型事后归因解析:四种常用基本方法
黑盒模型事后归因解析:四种常用基本方法

我们将通过本文介绍部分事后归因解析方法,解密黑箱模型。

没有更多了
告别AI模型黑盒:可解释机器学习研究-InfoQ