微软开源软件工具包 InterpretML
微软今日宣布,其在在麻省理工学院许可下开源软件工具包—InterpretML(理解机器学习),该工具包能帮助开发人尝试各种方法来解释模型和系统。 InterpretML实现了诸多可理解的模型,其中包括可解释的Boosting Machine(对广义加性模型的改进),以及另外集中用于生成黑盒模型行为或其个体预测解释的方法。
微软在技术博客中介绍道,当人工智能系统影响人们生活时,理解行为至关重要。通过了解行为,数据科学家才能得以正确调试模型从而推断模型的行为方式,设计师可以将这些信息传达给最终用户。再例如,如果医生,评委和其他决策者能够信任支持智能系统的模型,他们就可以做出更好决策。
通过此工具包的开源,开发人员从而也能比较和参照不同方法产生的解释效应,并选择最适合符合需求的方法。同时,这种比较还能帮助数据科学家通过检查方法之间的一致性来了对解释的信任程度。