2018年4月19日,金融行为监管局(FCA)在伦敦举行了关于人工智能(AI)和机器学习的第二期Insight讲座。FCA的Insight网站于2016年启动,是一个交流思想和法规背后思想的平台,并使监管机构更易于公众使用。
演讲由普林斯顿大学巴斯及附属大学信息技术政策中心副教授Joanna Bryson博士介绍,他自1996年以来一直在撰写有关人工智能和社会的文章。Bryson博士是国际上著名的AI伦理学专家,致力于发展AI并了解人类智慧,人类合作和文化变革。讲座的重点是社会应该和不应该担心的有关AI和机器学习的问题,以及该领域的监管是否可行。
洞察讲座-人工智能和机器学习
人工智能给决策者带来了一系列挑战。作为一种如今已普及的技术,它以尚未完全理解的方式对民主,安全和全球经济产生影响。通过增加沟通,相互依存和可发现性,我们减少了隐私和个人自主权;从最近围绕数据保护的宣传越来越明显可以看出这一点。布赖森博士认为,人工智能在许多领域已经是超人类的。它掌握了国际象棋,伪造声音和操纵视频,以便将来能够捕获和表达所有通过文化交流的人类知识。但是,随着AI赶上人类知识的前沿,改进的步伐可能会开始放缓。
关于监管,讨论的重点是透明度和明确性。主张人工智能应该受到监管和审计并不等于说人工智能不能拥有专有知识产权或必须全部开源。医学的知识产权是IT的10倍,但受到良好的监管。
在AI和架构之间划一道平行线;就像在强制实施法规之前采用灾难性的建筑方法一样,ICT现在也落在人们身上,并影响到所有人。布赖森博士认为这是正常过程。在经历了AI之类的重大变革之后,社会不可避免地需要时间来追赶并实施围绕它的适当治理。但是,这不应该通过限制自动业务流程(即与无人驾驶汽车有关)的责任来奖励公司,或者通过减少学习或“有意识的”算法的责任来激励代码晦涩难道。
人工智能需要安全,而这可以通过将治理权授予政府和专业协会来实现和维护。人工智能在社会中的位置由我们决定;它是文化性的,不是规范性的,并且除非受到安全保护,否则不能被信任。问题不在于AI对我们做了什么。这是我们使用AI互相做什么?
FCA的AI方法
在演讲之后,FCA讨论了随着AI的日益普及所带来的潜在利益和风险,以及这如何影响其服务于公共利益的使命。通过2014年启动的一项旨在促进消费者利益的竞争的创新计划,FCA支持了许多涉及AI的计划。决策和划定问责制的环境被强调为重要的关注领域。技术有能力帮助保护消费者并确保他们获得有针对性的服务和支持,但需要加以安全保护。
可以在这里找到2018年4月16日发布的英国上议院关于AI的报告。