您现在的位置是:首页 > 快讯

2019年AI定义:面部识别,深度伪造,隐私和自动化

2020-01-01 04:34:25

随着一年的临近,回顾一下前几个月以了解未来的发展将是很有启发性的。历史本质上是周期性的,在AI领域也是如此。回想一下传播算法,一种在机器学习系统的训练中广泛使用的算法,早在1980年就作为一种理论出现了,但是直到2010年代它才回来,这在一定程度上要归功于廉价,功能强大的基于图形卡的机器。

今年,人工智能和机器学习中的四个关键问题浮出水面:面部识别; 学术界的虚假和自我审查;隐私; 和自动化。展望2020年,下面回顾一下定义2019年行业的一些问题。

面部识别

面部识别技术在今年的新闻中发现自己可能比其他任何AI应用程序都多。

1月初,一个麻省理工学院的科学家团队声称,亚马逊网络服务的面部识别和分析平台Rekognition与某些竞争性解决方案相比,在某些种族中对性别的区分不准确。具体来说,它无法确定某些情况下女性和深色皮肤的面孔的性别,从而错误地将女性的照片分别识别为男性和深色皮肤的女性分别为19%和31%。

除了亚马逊的争议之外??,这项研究预先聚焦了AI容易受到影响的偏见类型。美国国家标准技术研究院(NIST)上周发表的研究发现,当进行特定类型的数据库搜索时,许多面部识别算法错误地识别出黑人和亚裔面孔的频率是白种人的10到100倍。面孔。

除了偏见问题之外,面部识别技术的可扩展性使其成熟了。今年,纽约警察局通过面部识别系统为演员伍迪·哈雷尔森(Woody Harrelson)拍摄了照片,因为警察认为在毒品商店摄像机镜头中看到的嫌疑犯与演员相似。我们了解了中国如何利用面部识别来跟踪其维吾尔族穆斯林人口的活动。总部位于特拉维夫市以外的一家初创企业AnyVision受到了审查,原因是有报道称其产品用于监视住在西岸的巴勒斯坦人。

越来越多的活动家,学者和立法者呼吁限制或彻底禁止面部识别技术。今年秋天,加利福尼亚州对执法机构的身体摄像机使用面部识别实施了三年禁令,而在五月,旧金山禁止警察或城市部门使用面部识别。奥克兰在6月也效仿,此后伯克利通过了自己的禁令。去年夏天,在众议院监督和改革委员会的两次听证会中,美国国会中一些最杰出的共和党人和民主党人共同加入了立法改革提案,此举是在引入2019年《商业面部识别隐私法》之后,该法案要求企业使用面部识别软件之前,请先征得您的同意。

鉴于国会,学术界,州议会和像国会山这样的公共论坛上的辩论很激烈,可以肯定地说,面部识别曾经而且将仍然是一个热门话题。

自我审查和伪造品

与学术规范不同的是,OpenA在二月份选择不公开用于训练其最先进的自然语言处理模型(称为GPT-2)的语料库,也不公开其附带的训练代码。OpenAI在证明其决定的博客文章中表示关注,担心它们可能被用来生成有关特定公司的综合金融新闻,例如,种族主义或性别歧视文本或在亚马逊或Yelp等网站上的假评论。

随后,OpenAI发布了几个较小且不太复杂的GPT-2版本,并研究了它们的接收以及他们训练所依据的数据集。在得出“没有强有力的证据”滥用的结论之后,该公司上个月发布了完整的模型-对从网络上抓取的800万个文本文档进行了培训。

对OpenAI决策的批评者认为,该公司夸大了其工作带来的危险,并且无意中激起了有关AI和机器学习的巨大歇斯底里。除此之外,他们断言OpenAI剥夺了他们使用突破性AI技术的能力,不利于研究人员,并且有效地阻止了研究团体识别GPT-2中的错误或提出潜在的对策。

他们有道理,但是OpenAI的担心并非完全没有根据。Deepfakes或将人带入现有图像,音频记录或视频中并使用AI将其替换为他人形象的媒体,在2019年迅速增长。Deeptrace在6月和7月的最新统计中在互联网上找到了14,698个Deepfake视频。 ,比去年12月增长了84%。令人不安的是,不仅因为伪造品可能被用来在选举中动摇公众舆论或将某人卷入他们未曾犯下的罪行中,而且还因为它们已经被用来制作色情材料并使数以百万计的公司陷于瘫痪美元。

包括Facebook,微软和亚马逊在内的科技巨头已经与麻省理工学院和康奈尔大学等学术合作伙伴合作,以帮助遏制AI起源的误导性媒体的传播,但OpenAI犹豫不决发布其模型是未来挑战的领头羊。的确,Experian 预测,到2020年,网络犯罪分子将使用AI技术来破坏商业企业的运营并在国家之间造成地缘政治混乱。

隐私

尽管他们做了很多事情,但AI和机器学习算法仍然存在一个主要的隐私问题。

伦敦皇家免费NHS基金会信托基金是总部位于伦敦的英国国家卫生局的一个部门,未经他们的同意,向 Alphabet的DeepMind提供了160万患者的数据。Google(与Ascension 共享健康数据的合作伙伴关系在11月成为审查的对象)放弃? 了发布胸部X光扫描的计划,原因是担心它们包含个人身份信息。去年夏天,微软悄悄? 将其删除一个数据集(MS Celeb)包含超过一千万张人的图像,原因是有人不知道其中已经包含了这些图像。而且,ImageNet是一个通常用于训练计算机视觉算法的开源库,据透露,该库在某些时候包含从Google,Flickr和其他地方刮取的亲密行为的描述。

另外,包括苹果和谷歌在内的科技巨头也受到了报道的关注,他们发现可能会滥用? 录音? 来改善Siri和Google Assistant等助手。今年4月,彭博社? 透露,亚马逊雇用了合同工来注释来自Alexa供电设备的数千小时音频,这促使该公司推出了面向用户的工具,这些工具可以快速删除云存储的数据。

鉴于越来越多的隐私问题不仅是哲学问题,而且在业务过程中也至关重要。州,地方和联邦各级的法律旨在使隐私成为合规管理的强制性部分。在美国的50个州,领地和哥伦比亚特区,数百项涉及隐私,网络安全和数据泄露的法案正在等待或已经通过。可以说,其中最全面的是大约两年前,《加利福尼亚消费者隐私法》已签署成为法律。更不用说《健康保险可移植性和责任制法案》(HIPAA),该法案要求公司在披露个人健康信息之前必须寻求授权。

作为回应,谷歌和其他公司已经发布了诸如TensorFlow Privacy和PySyft之类的库,? 用于机器学习框架,包括TensorFlow和PyTorch,它们通过差分隐私之类的技术提供了强大的隐私保证。同时,他们采用了联邦学习等技术,该技术可以在不交换数据样本的分散设备或服务器(即节点)上跨分散的设备或服务器训练AI,以及同态加密(一种加密形式,可以对已加密的纯文本(文件内容)进行计算)使用算法(也称为密文)。在等式全面管理的服务方面,像亚马逊这样的科技巨头已经采取行动,使其产品符合HIPAA等法规。

自动化

尽管人们对窃取AI的恐惧可能已经被夸大了,但是自动化正在侵蚀对人工的需求。

麦肯锡全球研究所在今年早些时候发布的一份报告中发现,女性占主导地位的职业将受到人工智能和机器学习的不利影响。到2030年,在10个经济体中男性占多数的工作中,约40%的工作将集体被GDP取代,到2030年,自动化将取代男性,而具有自动化潜力的女性占52%。

这些观点与英国国家统计局(ONS)于2019年3月发布的报告一致,该报告发现英国10%的劳动力(约150万工人)从事的工作处于自动化的“高风险”中。ONS预测,服务业工人,主要是侍应生和女服务员,零售库存补给员和入门级销售人员,将受到不成比例的影响,以及农业,汽车和服务业的工人。该部门预测,在2017年担任高风险工作70.2%的女性中,首当其冲的是劳动力市场变化。

无论是在当前领域从事新工作还是获得新技能,预计到2030年成千上万的工人将不得不进行某种职业过渡。Forrester发现,自动化可以在未来几个月内消除美国10%的工作。 。而世界经济论坛,普华永道,? 麦肯锡全球研究院,并? Gartner公司已经预测,AI会在2025年使多余的,因为有75万人的就业机会。

也许不足为奇的是,各种形式的普遍基本收入,如不分收入定期向公民付款,都得到了理查德·布兰森和埃隆·马斯克等名人的认可。美国总统候选人安德鲁·杨(Andrew Yang)将其作为民主党提名竞选活动的核心部分-他坚称,由增值税提供的付款可能会启动美国尚未受益于民主的地区的经济发展。风险投资。至于比尔·盖茨(Bill Gates),他建议征收“ 机器人税 ”,即政府在企业每次使用自动化软件或机器替换员工时,政府都会收取费用。

展望未来

人工智能面临的挑战是巨大的。面部识别仍然是机器学习的一种有效且很大程度上不受监管的应用,它可以增强(在某些情况下还可以创建)监视状态。Deepfake对科技公司和学术界以及广大公众造成重大影响。对于AI中的隐私问题的确定性解决方案是难以捉摸的。不管工人是否熟练,自动化都将影响数百万人的生计。

2020年可能会有什么答案?很难说。但是,尽管AI带来了所有困境,但它却带来了巨大的积极变化。今年的AI在蛋白质折叠方面达到了最先进的水平,这可以为新疗法和新药物铺平道路。机器学习的各种实现方式正在被用来应对全球气候变化。人工智能使有言语和听力障碍的人可以使用以前无法获得的产品。

与任何范式转换一样,好的事物总是有弊。该行业的任务,乃至我们的任务,是在力所能及的范围内尽一切努力,以后者为代价来推进后者。