一、人工智能模型黑盒
(以可解释机器学习打开人工智能模型黑盒)
在当今的大数据时代,人工智能技术的应用正全面渗透到金融行业当中。金融科技(FinTech)通过利用大数据与人工智能的结合,为传统金融、银行业带来了创新的产品和服务,提供高效率、低成本的运营策略,基于大数据的机器学习模型在金融、银行业中已得到不少应用。
为了解决模型的“黑盒”问题,科学家们提出了可解释机器学习。所谓模型的可解释性,即预测过程可以转化成具备逻辑关系的规则 。除了高精度预测表现之外,可解释性也是机器学习模型是否值得信赖的重要考核标准。可解释机器学习(Intepretable Machine Learning,缩写为 IML)的核心思想在于选择模型时,同时考虑模型的预测精度和可解释性,并尽量找到二者之间的最佳平衡,它不像传统机器学习仅考虑预测精度单一指标(如低 MSE 或高 AUC);它不仅能给出模型的预测值,还能给出得到该预测值的理由,进而实现模型的安全、透明、公平。
事后解析方法:对于预测精度较高的模型,使用事后解析的方法去提升他们的可解释性,让模型往横轴方向走,事后解析方法就是对类似黑盒的复杂机器学习算法,在模型训练完成后,通过事后解析方法来提升可解释性,利用事后辅助的归因解析及可视化工具来获得模型的可解释性,如 LIME、SHAP 等方法都属于事后解析方法。
二、目前人工智能难以驾驭非理性的”人为因素“。
一直以来,人工智能处理数据的优势在于预测精确,如棋艺有规则可寻,所以人工智能AlphaGo能够一举打败了人类围棋冠军而名扬天下。然而,若面对的场景存在太多非理性的“人为因素”,如股票市场,便难免会出现令人难以理解的决定。
其实,有关人工智能判断出错的责任问题,已有类似的个案。去年3月,美国发生Uber无人驾驶汽车撞倒行人致死的事件,令大众再次关注无人驾驶的安全性以至伦理标准问题。而今年3月,美国检察方决定Uber毋须为事件负上刑事责任,则更令人质疑这种创新科技的可靠性,并担心同类事故将会持续发生。