在最近发布的一篇博文中,谷歌公司全球事务高级副总裁Kent Walker写道:谷歌将不会通过Google Cloud提供“通用型”的人脸识别API。除非相关“挑战”得到明确“认定与解决”。
Walker解释称,“与其它一些公司不同,谷歌正在努力解决与人脸识别技术相关的一系列重要技术与政策性问题。与众多具有多种用途的新技术一样,人脸识别的应用同样需要被慎重考量,从而确保其使用方式符合我们的原则与价值观,同时避免滥用与可能出现的危害性结果。”
最近,谷歌公司似乎对新技术的使用表现出了与业界不同的谨慎态度。不久之前,谷歌方面正式决定中止为美国国防部提供对无人机拍摄内容进行分析的人工智能方案。
事实上,除了谷歌之外,还有不少科技巨头一直在广泛关注人脸识别技术中的种种不成熟迹象,以及可能由此造成的危害影响。日前,由布鲁金斯学会在华盛顿举办的一次活动当中,微软公司总裁Brad Smith就建议人们应当考虑到人脸识别技术当中可能存在的“高风险场景”,例如该技术可能被用于限制人身自由。他认为,利用人脸识别技术的团队应遵守关于性别、种族以及民族的反歧视法,并且各企业都应对自家人工智能方案的局限性保持高度“透明”。
对此,Smith还进一步指出,微软公司已经得出其中可能存在人权风险的结论,并且一直在拒绝客户提出的部署人脸识别技术的要求。据透露,今天6月微软公司撤销了一份合约,合约内容要求微软方面为美国移民与海关执法局(简称ICE)提供数据处理与人工智能类工具
Smith解释称:“人脸识别技术的出现正在催生出一种新的可能性,即实现大规模监控体系。对于政府来说,这项技术将帮助其在任意位置追踪任意目标。如果我们不充分考虑到这些可能性,那么这一切有可能在2024年突然降临到我们自己身上——就如同《一九八四》(《一九八四》(Nineteen Eighty-Four)中刻画了一个令人感到窒息的恐怖世界,在假想的未来社会中,独裁者以追逐权力为最终目标,人性被强权彻底扼杀,自由被彻底剥夺,思想受到严酷钳制,人民的生活陷入了极度贫困,下层人民的人生变成了单调乏味的循环。)一书中描述的可怕景象一样。”
Salesforce公司首席科学家Richard Socher也抱有同样的焦虑情绪。在本月于蒙特利尔召开的NeurlPS 2018大会期间,他在接受VentureBeat采访时表示,正是由于存在这些顾虑,Salesforce公司目前才决定不通过Einstein图像识别API为Einstein Vision提供人脸识别功能。
他指出,“一旦我们开始根据某人的面部做出各种重要的决策,那么由此引发的后果有可能非常可怕。人工智能在决策层面的实际表现,完全取决于其用于训练的数据质量。”
人工智能的失误
然而,并非每一家公司都有同样的审慎态度。
今年夏天,亚马逊公司将Rekognition(一种基于云的图像分析技术,通过Amazon Web Services事业部正式对外开放)交付至佛罗里达州奥兰多市以及俄勒冈州华盛顿县警长办公室作为执法工具。奥兰多市随后决定续签相关协议,并试行人脸识别监控计划——此项计划覆盖该市警察队伍中的众多志愿者;此外,华盛顿县还决定利用该项功能构建一款应用程序,利用一套包含30万人脸信息的数据库对可疑犯罪分子的照片进行扫描比对。
在一项测试当中(亚马逊公司对其准确性提出了质疑),美国公民自由联盟证明Rekognition从某“公共来源”处获取到25000张照片,并在将其与国会议员的官方照片进行比较时误将28人视为罪犯。而更令人震惊的是,大多数错误判断(占比38%)与有色人种相关。
AWS公司总经理Matt Wood于今年6月对上述结论提出了质疑,认为Rekognition有助于“保护儿童权益,并可用于为儿童构建教育类应用程序”,同时还能够“通过多因素身份验证机制增强安全性,降低图像的识别难度,从而用于防止包裹被盗等问题。”
在今年8月发布的另一篇博文当中,亚马逊公司指出以Marinus Analytics公司为代表的众多AWS客户正在利用Rekognition帮助寻找落入人贩子手中的受害者,并帮助其与家人团聚。此外,非营利性组织Thorn等人权机构也在利用这项技术寻找并营救遭受性虐待的儿童。
他在博文中写道:“根据报道,目前并没有出现任何与亚马逊Rekognition相关的执法滥用行为。选择利用这些新型技术的组织必须采取负责任的态度,否则将面临受到法律处罚以及公开谴责的风险。对此,AWS一直抱以严肃的态度和责任。”
但必须承认,很多参与方并非如此。
今年9月,The Intercept网站发布的一篇报告显示,IBM公司与纽约市警察局合作开发出一套系统,允许执法方根据肤色、头发颜色、性别、年龄以及各种面部特征进行人物搜索。利用纽约警察局提供的来自约50台摄像机的“成千上万”张照片,该人工智能方案学会了如何识别服装颜色以及其它体貌特征。
IBM公司的一位发言人指出,这套系统仅被用于“评估性目的”。但于2017年发布的IBM智能视频分析2.0产品确实提供一种与此相似的摄像头监控功能,可以通过“亚洲人”、“黑人”以及“白人”等标签对拍摄目标进行自动标记。
偏见的可能性
除了Socher所提到的道德原则之外,也有越来越多的研究对于人脸识别技术的整体准确度持怀疑态度。
于2012年进行的一项研究表明,供应商Cognitec公司提供的面部算法在识别非裔美国人方面的表现要比识别白种人低5%至10%;2011年,还有研究人员发现中国、日本以及韩国开发出的人脸识别模型很难区分高加索人与东亚人种。今年2月,麻省理工学院媒体实验室的研究人员们指出,微软、IBM与中国厂商Megvii公司的人脸识别技术在识别浅肤色女性方面错误率高达7%,识别深肤色男性的错误率为12%,而对深肤色女性的错判比例更是达到35%。
算法出错的例子还远不止于此。最近调查结果显示,伦敦大都会警察局部署的系统在每一次实际应用时都会产生最多49次的错误匹配。在去年众议院监督委员会关于人脸识别技术的听证会上,美国联邦调查局承认,其用于识别犯罪嫌疑人的算法存在高达15%的错误判断率。此外,弗吉尼亚大学的研究人员正在进行的一项研究发现,两大著名研究图像集——ImSitu与COCO(COCO由Facebook、微软以及初创企业MightyAI共同构建),在对体育、烹饪以及其它多种活动的描述当中,表现出明显的性别偏见(例如购物图像一般与女性有关,而教练图像则往往与男性关联)。
在这方面,最臭名昭著的案例之一,无疑是2015年一位软件工程师提交的报告——其指出谷歌照片中的图像分类算法将非洲裔美国人判定为“大猩猩”。
即使是美国规模最大的车载摄像机供应商之一Axon公司的CEO Rick Smith,今年夏季也对此做出表态,指出人脸识别技术对于执法类应用而言还不够准确可靠。
他解释称,“这类技术方案还没有做好真正通过人脸识别做出行动决策的准备。在我们看来,因为其中可能出现的技术故障或将带来灾难性的后果,大家不应急于将其部署至实际场景当中。”
技术层面的进展
过去十年以来,众多失误和问题的出现似乎令人脸识别技术的前景蒙上了一层阴影。然而,必须承认的是,这项技术一直在准确度以及解决偏见问题等技术性层面取得可喜的进展。
今年6月,通过与人工智能公平性专家们开展合作,微软公司修改并扩展了其用于模型训练的Face API数据集。Face API是一项微软Azure API,主要提供用于检测、识别及分析图像中人脸内容的算法。通过与肤色、性别以及年龄相关的大量新数据,Face API如今能够将深肤色男性与女性的错误判断率降低至原本的二十分之一,对女性的错误判断率则降低为原先的九分之一。
与此同时,初创企业Gfycat公司也于今年表示,其将引入更为严格的检测阈值,从而努力提高其人脸识别算法在判断亚裔人士面部方面的准确性。
另外,值得一提的是,一系列新型算法偏见缓解工具的加速出现,也在有力提高人工智能方案的公正性水平。
今年5月,Facebook公司发布了Fairness Flow,该工具会自动警告某种算法是否根据检测目标的种族、性别或者年龄,做出了不公平的判断。另外,埃森哲公司也发布了一款工具包,能够自动检测AI算法中存在的偏见,并帮助数据科学家降低这种偏见。微软方面在今年5月同样推出了自己的解决方案。谷歌公司也于今年9月发布了What-If工具,这项由TensorBoard网络仪表板提供的偏见检测功能,主要面向谷歌的TensorFlow机器学习框架。
IBM公司同样紧跟这股时代潮流,其于今年秋季发布了AI Fairness 360——这是一款基于云的全自动化套件,能够为AI系统“提供洞察见解”以,确保对其决策与推荐进行调整,例如通过算法调整或数据平衡等方式缓解偏见对结果造成的影响。最近,IBM Watson与云平台小组的研究重点,也开始放在缓解AI模型中的偏见,特别是与人脸识别相关的偏差方面。
不过根据Smith的说法,这方面的发展道路还相当漫长。
他在今年早些时候发布的一篇博文中写道:“即使解决了偏见问题,即人脸识别系统能够以对所有人都公平公正的方式运作,其中仍然存在着潜在的失败风险。与众多其它人工智能技术一样,就算彻底排除到偏见性因素,人脸识别方案通常都会存在一定程度的误差。一切工具都可用于善途或者恶途,而工具本身越强大,其可能带来的收益或者损害也就越明显。人脸识别技术给我们提出了一系列新问题,特别是在与隐私以及言论自由等基本人权保护核心相关的层面,因此,必须始终对此保持谨慎的心态。”