本篇文章2552字,读完约6分钟

编辑的评论

新年伊始,一位在线神秘棋手大师挑战人类围棋的顶尖高手,大师以60: 0的比分胜出。谷歌随后宣布,Master是人工智能机器人AlphaGO的改进,是其“深度思维”项目的一部分。

引起全世界关注的是,在短短的六个月时间里,AlphaGO的进步所展示的学习能力已经超过了人类对进步速度的理解。2016年,人们仍然对阿尔法狗的能力和韩国棋手李世石的表现心存疑虑。今天,对人工智能压倒人类智能的恐惧再次笼罩着网络...无怪乎柯杰在不眠之夜后发推特说:“一千年来人类格斗训练的演变,但是电脑告诉我们,所有的人都是错的。”...

师父终于唤起了人类对未来的担忧。

那么,为什么人工智能如此强大?一些学者指出:“2016年人工智能爆发有三个主要原因:算法、硬件和大数据的进步。人工智能将是下一个主要战场。谁拥有越来越准确的数据,谁就会被灌输一个更强大的技术怪物。”此外,人们继续问,谁将捍卫人类尊严?这场人机战争的宏观影响是什么?他们将在哪些领域挑战人类?我们的未来充满危机吗?

师父终于唤起了人类对未来的担忧。

人机战争将引发人们思考以大师为代表的人工智能的未来。《思想者》特别邀请了两位学者发表他们的观点来娱乐读者。

-

■谁能保证随着硬件和软件的进一步发展,以及神经网络和算法的突破,机器有一天会突然变得有意识?到那时,这将涉及难以处理的复杂的道德问题。

机器人大师以60: 0的比分赢得了顶级围棋手的人机大战,带来了三大宏观效应:第一,全球娱乐价值;其次,所有职业玩家都开始感受到危机。第三,它唤起了人们对以大师为代表的人工智能未来的好奇。

围棋产业萎缩不可避免

这场人机战争的直接结果是无情地宣布,许多曾经被认为不可替代的工作只是因为人工智能还没有被涉及。由此,可以推断围棋产业的衰落是不可避免的,因为机器比人好。为什么要维持一个庞大的替代组织?我相信围棋界的同仁们会对此有更深刻的理解。根据德国社会学家马克斯·韦伯的说法,科学和技术最大的魔力在于它巨大的祛魅功能,这使得以前的奇迹和神话没有空间在科学面前展现它们的本来面目。今天许多热门的行业和专业在未来将被人工智能所取代。我相信这种并非危言耸听的前景将会使人们重新考虑人工智能与我们之间的关系。

师父终于唤起了人类对未来的担忧。

不合理的骄傲和自负

这场“人机”战争造成的第二个问题是人的尊严问题。大师对围棋大师的“大屠杀”让整个人类感到非常尴尬。

二十年前,当深蓝击败世界象棋冠军卡斯帕罗夫时,人们把赌注押在围棋上,认为这是一个机器无能为力的领域。今天,面对人工智能,这个赌注同样脆弱。许多人类曾经引以为豪的价值目标在新技术面前一个接一个地倒下了。人类会有什么感觉?

冷静下来,我们必须思考:师父这次赢了什么?人类失去了什么?就后者而言,人类失去的不是尊严,而是毫无根据的骄傲和自负。什么是尊严是一个非常复杂的问题。英国哲学家迈克尔·罗森曾将尊严分为三个部分:社会地位;永久的内在价值;可以被尊重的行为是个性或能力的表现。不管尊严概念有多复杂,必须明确的是,尊严的目标必须是人。在此基础上,我们看不到围棋手在输掉比赛后尊严的任何损失。原来的九段仍然是九段,以前的社会地位没有相应改变。改变的是,通过这场战斗,曾经自负的骄傲、自负和认知模式已经开始改变,而正是这些因素曾经构成了人类的价值目标。

师父终于唤起了人类对未来的担忧。

无数的历史经验表明,人类的骄傲和自负大多被夸大了。摆脱人类内心根深蒂固的虚假骄傲和自负只是这场人机战争的重要收获之一。

有一天机器会突然变得有意识吗?

大师的胜利带来的最重要的意义是,它使更多的人开始意识到人工智能对人类未来的颠覆性影响。对人工智能的天真乐观和悲观态度都是不够的。

根据作者近年来在心灵哲学研究中的肤浅经验,以阿尔法狗为代表的人工智能将导致两个严重的问题:首先,理论上,机器是否智能需要一个新的判断标准。60多年前提出的图灵测试过于简单,无法判断机器是否智能。目前的研究表明,智能包含多维内容,远远超出了目前可以实现的可计算性(形式化)。就计算能力而言,人类不是机器的对手。一旦智能的其他维度可以部分形式化,人类自然就不是机器的对手,未来的深入学习甚至可以取得更大的成就。如果这一天到来,人类不仅会面临全面被取代的问题,而且还会涉及到自身存在的意义。

师父终于唤起了人类对未来的担忧。

第二,到目前为止,学术界还没有彻底了解意识是如何形成的。它只能笼统地说是神经系统进化过程中产生的一种现象。谁能保证随着硬件和软件的进一步发展,以及神经网络和算法技术的突破,机器有一天会突然变得有意识?到那时,这将涉及难以处理的复杂的道德问题。

作者相信认知理论中的计算理论。单就计算而言,人类面临三大限制:第一,速度限制,即大脑皮层的计算速度远远落后于计算机芯片,这就是为什么人类喜欢经验,因为经验可以减少计算量;第二,能源限制,第三,计算渠道的限制,而且在这些领域,人工智能比人强。

作者还参加了一些相关论坛的讨论,会上提出的意见普遍反对:科学家们经常认为人工智能远非真正的应用,目前仍是“愚蠢的”,远未考虑到其危险性。另一方面,人文主义者经常担心孩子会永远长大。随着技术的传播和扩散,一旦某些关键技术出现突破,人工智能引发的连锁反应将变得无法控制。当时,规范(善与恶、正义与价值等。我们几千年来为维持社会秩序而形成的秩序将面临崩溃,这是人类无法承受的代价。对于普通人来说,在好奇心的引导下,片面的希望是,一旦人工智能取得了新的进展,它可能会给我们的生活带来改善,并提高社会福利。

师父终于唤起了人类对未来的担忧。

建立最低规则

作者认为这种变化的本质与以前的任何技术变化都完全不同。它涉及到将要出现的新的思维对象,而思维曾经是人类的独特能力。看来我们还没准备好和它相处。

不幸的是,人类倾向于忽视道德判断中的未来风险。也就是说,如果眼前的潜在收益大于未来不确定风险的成本,人们就更倾向于忽视遥远的风险。毕竟,风险仍然很遥远,而且它们可能不会出现——扩大当前的收益并低估未来的风险,从而导致决策失误。潘多拉的盒子一旦打开,就不能再关闭了。没有一个国家或机构愿意放弃这个全新的机会领域。鉴于人工智能的前景非常不确定,需要在竞赛周期开始时制定最低规则。目前,唯一能做的是让许多代表坐下来谈判,并限制其发展。否则,我们要寻找的将不再是我们所希望的救世主,而是无情的掘墓人。

师父终于唤起了人类对未来的担忧。

李霞(上海交通大学历史与科学哲学系教授)

来源:联合新闻网

标题:师父终于唤起了人类对未来的担忧。

地址:http://www.longtansi.com.cn/news/1702.html