近日,来自机器学习、计算机视觉、自然语言处理,以及在生物医疗、金融、推荐系统等应用领域的12位著名专家联合创作的《可解释人工智能导论》一书正式出版,该著作全面介绍了可解释AI在理论上和应用上的发展现状、存在的问题以及今后发展的方向。其中微众银行首席人工智能官杨强教授与人工智能首席科学家范力欣博士作为主要作者参与了此书的撰写。
AI应用持续落地,打造可解释AI日趋重要进入21世纪以来,人工智能(Artificial Intelligence,AI)取得了长足发展,智能化的人机协同成为发展趋势。如果能够了解AI对决策的判断,实现理解、信任、管理AI的目标,那么人们将更有信心全方位地应用AI。
在此背景下,发展可解释、可扩展、安全可靠的AI显得至关重要。可解释性就如同医生需要向病人解释病因,才能提供可理解的诊断结果和治疗措施。发展安全可靠的AI的首要任务,是人类能够理解AI技术的基本原理、自动决策的机制,以应对潜在风险及准备防范措施。在实际情况中,核心AI算法尤其是深度学习算法通常运行在类似于“黑盒”中的工作模式,其运行结果需要辅以合理的解释为人类所理解和信任。
各国现行的条例法规同样要求人工智能系统的开发使用,必须在监管合规的条件下运行。因此,发展可解释AI具有重要的理论意义与现实意义。首先,可解释AI可帮助用户建立对AI系统的信任,防止因为算法的黑盒特性做出有偏见的结论,促进算法的公平性;其次,它可以满足监管机构的合规要求,促进AI的公平性、稳健性、安全性发展。
微众银行关注可信、可解释的AI理论及应用
基于在金融领域的实践,微众银行已经在智能服务、智能营销、联邦学习等方面获得一系列成果。参与撰写《可解释人工智能导论》体现了微众银行在发展可信、可解释、负责任的人工智能方面的探索。
据了解,针对隐私计算和联邦学习所面临的安全、效率、性能之间的平衡问题,近期杨强教授带领微众银行AI团队持续丰富和拓展联邦学习的理论,提出了“可信联邦学习”概念。“可信联邦学习”以隐私保护、模型性能、算法效率为核心的三角基石,以模型的决策可解释性和可监管性为两大支柱,共同构成了更加安全可信的联邦学习。
在“可信联邦学习”理论框架下,杨强教授及团队提出了隐私与模型性能的"No-free-lunch安全-收益恒定"定律,抖客网,利用该定律可实现可信联邦学习的安全、性能、效率三者的协调,在实现更高质量的隐私保护的同时,既不牺牲数据安全保护,也不致使模型性能和学习效率的大幅下降。有效运用该定律能够量化分析隐私计算各种技术保护方案的优劣,进一步优化隐私保护算法设计。目前相关论文已被国际顶级学术期刊接收。
杨强教授表示:“数据安全、隐私保护与可解释性应当与模型性能、算法效率并重,在金融应用场景中尤为重要。未来,微众银行将持续深入在相关领域的探索和研究,持续推动可信、可解释、负责任的AI应用。”
原标题:【微众银行关注可信人工智能,参与撰写《可解释人工智能导论》正式出版】 内容摘要:近日,来自机器学习、计算机视觉、自然语言处理,以及在生物医疗、金融、推荐系统等应用领域的12位著名专家联合创作的《可解释人工智能导论》一书正式出版,该著作全面介绍了可解释 ... 文章网址:https://www.doukela.com/jc/99307.html; 免责声明:抖客网转载此文目的在于传递更多信息,不代表本网的观点和立场。文章内容仅供参考,不构成投资建议。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。 |