张钹院士当时告诉我们:目前流行的人工智能主要基于人类的行为主义学派定义的智能,即人工智能在某些行为判定上超过人类。而人工智能如果想要有新思路的发展,哲学层面应该走在前面。同时他表示在研究上要成为真正的大师级人物,必须要有哲学思想,没有哲学思想不可能产生全新的格局。
无独有偶,6月19日下午,AI Time第二期论道中,北京大学王立威教授也从哲学层面去思考了此次论道主题“论道自动机器学习和可解释机器学习”。他提到他很喜欢列夫托尔斯泰,但并不把他当做文学家看,而是把他当做哲学家看。
“列夫托尔斯泰的《战争与和平》中描述了宏大的历史片段,他在这本书的最后向各位发问,我们所认知的历史就是历史书上为我们解释的简单因果关系吗?其实那不是真实的历史,真实的历史其实是极其复杂的。而可解释机器学习又该如何解释呢?其实大部分问题是不可解释的,解释一定是用简短语言就能解释出来的。”
如果你是老板,你会怎么选?
为了让各位更深入地思考,我们不妨将自动机器学习和可解释机器学习表示为案例中的具体数字。
假设你是一家创业公司的老板,你的公司主要是用机器学习做电话诈骗的自动监测。你现在遇到了两个选择一个是准确率高达85%的自动机器学习方案,另一个是准确率为78%的可解释机器学习方案。创业公司财力有限,只能选择一种方案,你会怎么选?
各位请先记住自己的选择,等看完各位老师的想法后再想想自己内心的选择有没有变化。
接下来我们就来看看各位老师的精彩观点。
企业AutoML的用处是流程自动化
针对“AutoML是工业界的宠儿”这个说法,来自百度的高级研究员李兴建博士介绍了AutoML在工业界的几类典型应用:
一是神经网络结构的自动设计,工业界主要通过进化学习、强化学习和可微结构等方式实现,百度在生成对抗网络(GenerativeAdversarial Networks,GAN)的结构设计,尤其是上采样结构设计上做了一些搜索,发现搜索出来的网络结构相比人工设计的网络训练更稳定,效果也更好;
二是在图像的风格迁移中的应用,该任务核心模版是使用自编码器(Autoencoder)做多尺度特征融合,百度团队通过使用进化算法对该结构进行搜索,发现只需要非常少的操作和连接,就可以达到同样甚至是更好的效果,而且处理速度提高了近300倍;类似地应用还有很多。
实际上,AutoML在企业应用中除算法的自动化之外,还包括很多流程上的自动化,最终产出的从算法到流程全自动化的工具包。
可解释性是建立人与AI交互的必经之路
模型可解释性对于验证模型的行为是否符合人类的期望是很有必要的,它可以与用户建立信任关系,并且可以简化从手动过程到自动化过程的过渡。
来自密歇根大学的梅俏竹教授提出了一个问题:“AI如果这样发展下去,AI与人的关系,有多少人认为是取代关系?又有多少人认为是合作关系?”
当然大部分人认为是合作关系,说到合作的话,任何一种合作关系都需要建立信任也需要交流,人和AI的合作也不例外,机器学习的模型不仅要告诉人类做了什么,也需要解释其原因。
自动机器学习现在在工业界这么火,但它其实只是若干环节中的一环,并不是整体,而在整个流程中,人和AI的交互是一个非常重要的环节,所以可解释性的机器学习就非常重要,医疗领域也是一样。
可解释机器学习的愿景跟自动的机器学习其实并不矛盾,真正的问题是人和AI的关系,如果你认为人和AI是一个协作的关系,可解释性就是建立合作信任的一条必由之路。
不一定非要追求可解释,重点是能不能解释
既然提到可解释学习,那它接下来该走的路也是大家关注的一个重点,对于各位提出的对可解释学习的愿景,来自北京大学的王立威教授提出了一个很有意思的观点:“在下图中,神经网络识别出那是一只猫的依据是有皮毛和爪子,但是再深入一点,又该如何解释皮毛和爪子?所以大部分问题本质上是不可解释的。
当下很多人都认为医疗里面可解释性是一个很重要的要求,但是以他做医疗领域人工智能问题的经验来看,可解释性在医疗领域的存在是有阶段性的,在医生完全不信任智能的开始阶段,可解释是有必要的;但是当医生信任了智能,系统性能已经达到甚至超过医生的阶段时,可解释性就不再有必要了。
如果对某类东西的解释没有一个可以用简短语言描述的模型,这就叫做不可解释,我们不一定非要追求可解释,一定是看能不能解释。
可解释的存在必要性随场景变化
来自美国伊利诺伊大学芝加哥分校的Philip S. Yu教授对可解释的存在必要性的理解依据于场景的不同,他指出一些电子商务推荐场景,人类是不会参与的,是完全自动化的过程,不需要可解释机器学习。
但是在一些自动驾驶和医疗场景下,单一不正确的预测会产生重大影响,能够“验证”模型至关重要,真正有人力的话,我们更多需要的是有可解释性。
此时各位的选择有变化了吗?是准确率高达85%的自动机器学习方案还是准确率为78%的可解释机器学习方案?
ACL2019新论文 深度学习VS环保
接下来再来看一张图,它来自于今年提交到自然语言处理顶会ACL的一篇论文,这篇论文用数据证明某些新的模型/训练方式取得了最优的结果,但是进展微小,副作用更是不成比例的计算量/碳排放的增加。
论文一出,引起了大家的讨论,有人认为是论文中所举的例子耗能过大,现实中很少有个人或组织能做这么大规模的项目,但是例举的神经结构搜索(NAS)消耗的能量和排放的二氧化碳是有道理的,因为搜索过程意味着需要运行几个大数量级的训练步骤。也有人认为现在我们所使用的一些人工智能产品在一开始设计时确实会消耗大量能源,但是当受过训练的人工智能投入使用后是可以节省能源的,长远平均来看,耗能也许并不多。
看到这里,各位还记得自己是那家创业公司的老板吗?是准确率高达85%的自动机器学习方案还是准确率为78%的可解释机器学习方案?