本篇文章2414字,读完约6分钟

随着数据的积累、计算机计算能力的飞跃和算法的优化,人工智能正在使生活更加高效。语音识别和图像识别使身份认证更加可靠,可以在几秒钟内证明“你就是你”。智能诊疗和自动驾驶,也让人们看到了战胜疾病和减少事故的新机遇;人工智能可以轻而易举地击败围棋大师,写出优美的诗篇……它的自主性和创造性模糊了人和机器的区别。

“刷脸”安全吗

然而,当侵犯隐私、数据泄露和算法偏差等事件相继出现时,人们不得不反思:人工智能的不断进步和广泛应用带来的好处是巨大的。为了使其真正造福于社会,人工智能的价值导向、伦理调节和风险调节不可忽视。

“擦脸”的使用更加广泛,对隐私的威胁值得关注。

人脸识别技术正在进入更广阔的应用领域。与指纹和虹膜相比,人脸是一种隐私性很弱的生物特征。因此,这项技术对保护公民隐私的威胁值得特别关注。“人脸图像或视频也是广义上的数据。如果不妥善保管和使用,用户的隐私很容易被侵犯。中国社会科学院哲学研究所的研究员段卫文说。

通过数据收集和机器学习来“描绘”用户的特征和偏好,互联网服务提供商随后将提供一些个性化的服务和建议,这有利于从积极的角度进行供需互动。但是对于消费者来说,这种交换是不平等的。从频繁发生的个人数据侵权事件来看,个人数据权与机构数据权之间的反差已经变得不平衡。消费者是被动的,企业和机构在收集和使用数据方面是主动的。段卫文说:“数据实际上成为企业垄断的资源,也是推动经济发展的因素。”如果企业仅仅从自身利益出发,就不可避免地会过度使用或不当披露个人数据。

“刷脸”安全吗

“在大数据时代,个人在互联网上的任何行为都将成为数据的沉淀,而收集此类数据最终可能导致个人隐私的泄露。”湖南师范大学人工智能与道德决策研究所所长李伦认为,用户已经成为观察、分析和监控的对象。

算法应该更加客观和透明,避免歧视和“杀戮”

在信息爆炸时代,许多数据处理、分析和应用都是通过算法来实现的,越来越多的决策被算法所取代。从内容推荐到广告投放,从信用额度评估到犯罪风险评估,算法无处不在——它操作的自动驾驶可能比驾驶员更安全,它获得的诊断结果可能比医生更准确,越来越多的人开始习惯于由算法构建的“评分”社会。

作为一种信息技术,该算法在清除信息和数据“迷雾”的同时,也面临着伦理挑战:利用人工智能评估犯罪风险,该算法可以影响刑罚;当自动驾驶汽车遇到危险时,该算法可以决定牺牲哪一边。应用于武器系统的算法甚至可以确定攻击目标...这导致了一个不容忽视的问题:如何保证算法的公平性?

腾讯研究院法律研究中心的高级研究员曹建峰认为,即使作为一种数学表达,算法本质上也是“以数学方式或计算机代码表达的观点”。算法的设计、模型、目的、成功标准和数据使用都是程序员的主观选择。偏见会有意或无意地嵌入算法并使其编码。“算法并不客观,在算法决策发挥作用的许多领域,算法辨别并不罕见。”

“刷脸”安全吗

“算法决策在大多数情况下是一种预测。过去的数据被用来预测未来的趋势。算法模型和数据输入决定预测结果。因此,这两个元素也成为算法区分的主要来源。”曹建峰解释说,除了主观因素,数据本身也会影响算法的决策和预测。“这些数据反映了社会现实。数据可能不正确、不完整或过时。训练数据本身可能是歧视性的。用这些数据训练的算法系统自然会背负歧视的污名。”

“刷脸”安全吗

2016年3月,微软的人工智能聊天机器人Tay上线。在与互联网用户互动的过程中,它在短时间内“误入歧途”,将性别歧视和种族歧视结合在一起。最后,微软不得不“解雇”它。根据曹建峰的观点,该算法倾向于巩固或放大歧视,因此歧视在整个算法中持续存在。因此,如果将该算法应用于犯罪评估、信用贷款、就业评估等关系到人们切身利益的场合,一旦发生歧视,可能会危及个人乃至社会的利益。

“刷脸”安全吗

此外,深度学习也是一种典型的“黑箱”算法。即使是设计者也可能不知道算法是如何做出决策的,所以从技术上来说,很难找出系统中是否存在歧视及其根本原因。"算法的“黑盒”特性使得其决策逻辑缺乏透明度和可解释性."李伦说,随着大数据“杀人”和算法歧视等事件的出现,社会对算法的怀疑逐渐增加。在使用数据的过程中,政府和企业必须提高对公众的透明度,让选择权回归个人。

“刷脸”安全吗

加强检查监督,加大对数据滥用等行为的处罚力度

2017年7月,国务院发布了《新一代人工智能发展规划》(以下简称《规划》)。该计划强调促进人工智能行业和企业的自律,切实加强管理,并加强对数据滥用、侵犯个人隐私、违反道德和其他行为的惩罚。

“虽然‘刷脸’的使用越来越多,但人工智能仍处于起步阶段,因此有必要加强对数据和隐私的保护,并注意和防止决策失误和误用算法造成的社会不公。”在保护个人数据权方面,段卫文建议,参与数据交易的各方都应该对自己的行为负责,这样每个人都可以知道自己的数据是如何处理的,特别是为了其他目的,减少数据滥用,让人们清楚地知道自己的“脸”是否仍然安全。

“刷脸”安全吗

段卫文认为,应进一步加强人工智能的伦理设计,对算法的理论前提、内在机制和实践语境进行质疑和检验的全过程。从算法决策的结果和影响的不公平性出发,对机制和过程进行逆向检查,找出有意或无意的曲解和误导,揭示存在的问题,促进纠正和改进。

曹建峰认为,要解决人工智能带来的伦理问题,首先要构建算法治理的内外约束机制,将人类社会的法律、道德等规范和价值观嵌入到人工智能系统中;二是在人工智能的研究和发展中贯彻伦理原则,督促研究者遵守基本伦理原则。三是监督算法,提高算法自身代码和决策的透明度。第四是为算法决策、歧视以及个人和财产损失提供法律救济。

“刷脸”安全吗

“我们生活在人机共生的时代。人与机器之间必然会有各种各样的冲突和矛盾,仅靠法律和制度是无法完全解决的。”李伦说,人们还应该努力提高科学素养,积极维护自己的权利。社会也应该尽快建立一个讨论人工智能伦理问题的公共平台,让各方都能充分表达自己的观点,促进共识的形成。(本报记者顾)

《人民日报》(2018年8月16日,第12版)

来源:联合新闻网

标题:“刷脸”安全吗

地址:http://www.longtansi.com.cn/news/1792.html