机器会取代人类吗?解局人工智能技术的伦理风险

新闻 人工智能
目前的人工智能技术发展,主要是以计算机为载体推动自动化技术的发展。基于数据的人工智能的技术可以帮助我们用各种自动化装置取代人们的各种生产活动,从而提升社会整体发展效率。

 机器会取代人类吗?解局人工智能技术的伦理风险丨数据政治

目前的人工智能技术发展,主要是以计算机为载体推动自动化技术的发展。基于数据的人工智能的技术可以帮助我们用各种自动化装置取代人们的各种生产活动,从而提升社会整体发展效率。人工智能带来巨大的效能提升的同时,也会带来巨大的风险。我们需要去仔细评估AI带给我们什么样的未来?以及人工智能的风险是如何产生的?如何对相关的风险进行研究和防范?

机器会取代人类吗?

我们先来回顾在人工智能发展过程中的一系列引人注意的重大事件以及当时引发公众讨论的话题:1997年5月,IBM公司研制的计算机“深蓝”首次展示了国际象棋大师卡斯帕罗夫,2016年3月,人工智能AlphsGo击败了韩国顶级围棋大师李世石;2016年,全球雇员数量最多的企业富士康在江苏昆山工厂用4万机器人替代了6万人类员工;2017年10月25日,世界首位机器人公民“索菲亚(Sophia)”成为拥有沙特国籍的女性机器人,成为被授予合法公民身份的公民…这一系列事件加深了人们对人工智能的担忧和思考,随着人工智能的技术不断发展下,以至于人们开始将其视为同类,电影《她》中所描绘的人工智能伴侣逐步成为了现实,让我们开始考虑AI发展的风险问题。我们从以下三个方面来讨论:人工智能的风险范畴,人工智能风险的形成机制,以及人工智能发展的边界问题。

首先我们讨论人工智能的风险范畴,这需要从乌尔里希.贝克在20世纪90年代提出“风险社会”概念谈起,他认为科技在促进社会发展的同时,也对整体的生态包括人类的生存造成了一定的威胁。“在风险社会,风险已经代替物质匮乏,成为社会和政治议题关注的中心”。换言之,社会的风险性成为了底层的运行逻辑之一,而技术风险则是其中影响最为深远和广泛的类型。与传统社会不同,现代社会的风险是一种人类制造出来的风险,这类风险起源于人类对科学、技术不加限制的积极推进,而这样做的后果就是目的和结果自己的不确定性。换言之,技术类风险既是技术自身的内在属性,也是人的行为选择的结果,这是我们理解技术风险的基础。

值得注意的是,人工智能所带来的风险虽然属于技术风险的范畴,不过也与传统的技术风险有着很大的不同。一般情况下技术风险都来自于外部因素,例如环境风险、生态风险、经济风险和社会风险等等,即由于技术与社会因素的相互作用所带来的风险。但是人工智能技术会带来很大程度的内在风险,即对于人的存在性地位的挑战以及人的边界和尺度的复杂性挑战。我们看到诸多电影文学作品或者科幻小说中的创作都展示了人类关于AI的最大担忧就来源于人机边界的模糊,以及人机精湛的加剧。换言之就是基于人的价值尺度的判断风险显著增加,而我们目前所有关于AI的研究都在强调人的价值尺度,即人的根本利益作为评判风险的目的和原则,而不能以牺牲人的方式谋求其发展。

我们看到泰格马克在《人类3.0》一书中提到了AI发展的三个阶段:第一个阶段AI对于人类进行模仿并完成人类交付的工作,这个阶段机器具备初步的智能,人对于AI有着完全的控制力;第二个阶段是合作阶段,就是人类协助人类完成大量的工作,AI是基于利于人类活动的基本目标被设计出来的;第三个阶段则是竞争甚至取代的阶段,AI在大规模应用下超越了人类的控制,出现了依赖、竞争或者被控制等情况。换言之,人工智能的风险包含两个部分的内容:一个是客观现实的物理层面,即人类的能力逐渐被替代,从而增大了外部的技术性风险,例如失业率的大幅度上升;一个是主观认知层面,即人类本身心理层面的风险,例如随着机器人逐渐具备人类的形态和认知,人类会逐渐认同机器人的同类关系,必然带来伦理的问题。

风险背后的逻辑

然后我们来看人工智能风险形成的基本机制的逻辑,正如马修.谢勒所说,“行为的自动化,是人工智能与人类其它早期科技最大的不同,人工智能系统已经可以在不需要人类控制或者监督的情况下运行”。可以看到,人工智能技术带给人类社会的收益和风险就是双刃剑的两面:一方面AI通过代替人类的劳动,使得生产力得到了解放,让人类活动拥有了更多的时间和空间;另一方面,AI通过实际上取代了人们的劳动,使得人类有失去控制性的风险,人类的主体地位在某种程度上被让渡。更深入的看,实际上人类是通过技术实现了身体能力的放大和提升的,现代技术的潜在动力就是人类对技术放大性的追求。人工智能技术就是一种整合了多种技术以后对人类技术放大意愿和动力的落实,与此同时人类也有可能逐渐在技术放大过程中失去了自我,技术朝向背离人类意愿的方向发展从而使得技术风险成为现实。

如果说康德“人为自然界立法”的论断成为了人脱离自然界控制,树立人的主体性地位的标志,那么AI的发展就正在对这样的主体性地位带来威胁,AI正在通过类人性特质的成长,逐步增加自己替代人类活动的能力。换言之,技术自身具备一种不确定性,人工智能技术本来是利于人类发展的,但是在发展过程中有可能产生增加人类生存风险的障碍,这是我们不得不警惕的地方。

除了技术自身的特质之外,我们很容易忽略的一点就是伴随着技术革命成长的另外一个重要的要素——资本的力量,工业革命以来的现代技术发展无法脱离资本的力量。众所周知资本是逐利的,而技术的目的是实现人的物质的追求,因此技术就能够最大化的实现资本的目标,技术与资本体现出来一定程度的同构性。换言之,资本的逻辑和技术的逻辑产生了共谋,资本在实现价值增长的过程中,能够扩散技术的优势。资本作为有效的资源配置方式,能够最大化的将资源放在最好的技术路径中进行配置;技术作为集置(海德格尔语),能够将外部事物纳入自身的规范体系中,用自己的力量促逼和摆置存在者,将事物以人类自身的方式解蔽。简单的说,技术能够产生一种力量是人类不能控制的,就好像乘坐上某种座驾一样,人在技术这个座驾的要求下不受限制的开发自然、掠夺资源,同时把人自身当作技术所需要的的资源投入进去,被技术所支配而无法脱离。这是海德格尔所讨论的现代技术的本质,也是理解人工智能带来风险的重要视角。于此同时,由于资本(金钱)具备一种不被局限在任何具体事务的超现实性,因此可以按照人们的需求去改变自然。更重要的是,由于AI技术的发展会扩大数字鸿沟的出现,因此关注这个过程中的数字化带来的社会公平问题也是非常重要的方面。

技术的边界

在理解了人工智能带来的风险之后,我们接下来讨论人工智能技术发展的边界,只有明确了边界才能理解风险。事实上我们可以看到人工智能的风险相对于通常的技术风险来说,主要是在于智能的理解边界有了分歧,由于人类是目前唯一具备智能的实体,因此出现了人工智能之后就产生了所谓智能边界的问题。我们可以从三个方面理解这个概念:

第一,人工智能的“智能”是通过计算机技术将信息转换为知识发展出来的,因此存在可计算下的边界。目前来说,计算机更多的是着重于逻辑相关的运算,而情感是无法被计算的。当然我们也看到了马斯克等企业家通过脑机接口等技术来实现人的思维的解读,赋予了AI新的智能模式。不过考虑到我们对人的大脑的认知(尤其是与意识情感相关的部分)是非常肤浅的,我们暂时还看不到AI产生自我意识和概念的可能性。当然如果技术的推进使得人工智能产生了意识,那么毫无疑问就会产生系统性的风险,人类将不得不与其共存,相关的生存空间的矛盾也就难以避免了;

第二,人工智能技术的边界是在挑战技术的社会属性的边界,通常来说某种技术是具备自然属性和社会属性的。所谓自然属性就是技术能够产生和存在的内在原因,即技术符合一定的物理规律;技术的社会属性指的是技术要符合社会的规律。我们看到人工智能技术的发展正在改变社会的伦理和制度,这也是人类区别于人工智能的最重要的原因之一。我们可以看到人工智能目前还是以功能性的个体或者群体存在的,并不具备所谓的社会性质,因此它无法作为物种或者群体被看待。正如马克思所说,“以一定的方式进行生产活动的一定的个人,发生一定的社会关系和政治关系”。这种社会关系反过来制约着劳动的方式,直接决定着人的本质。换言之,人的本质“在其现实性上”,是一切社会关系的总和。正如我们刚才所说,人工智能是基于计算的,而社会关系是无法通过计算获得的。反之,如果人工智能得以从人类群体中学习到社会关系的知识,并形成所谓的集群智慧成为“超级智能”,那么人类的危机和风险就会被放大,人类社会的危机就很难避免。

第三,我们需要看到人工智能技术可能推动的“后人类”时代出现的风险,即通过与人类只能嫁接后产生的有别于人类的物种,成为“赛博格”式的物种。后现代主义技术哲学家唐娜.哈拉维提出“情境知识”的主张,将自然与文化定位在动态和异质的范畴中。所谓赛博格(Cyborg)就是通过控制技术来控制有机体,实现人与技术的深度融合,即产生人与技术的共生体。通过这样的技术范式,有可能打破机械和有机体、物理和非物理之间的边界。“一个控制有机体,一个机器与生物的杂交提,一个射虎现实的创造物,同时也是一个虚拟的创造物”,这就是赛博格的内涵。在这个你那里,赛博格打破了主体和外部环境的边界,也打破了自然和社会的边界,具备一种“后人类时代”的理念。在这个理念下,人不断的客体化,而客体则不断的人化,人与物之间的边界不断模糊,从而形成了一种有机体与客体之间的深度结合,是的自然的身体具备了机器的属性。我们看到电影科幻作品中的大多数“电子人”或者“人工人”都属于赛博格的概念下产生的,这使得人类可能会超越自然所赋予的人的限度。在电影《阿丽塔》中,主角所拥有的人类部分只有大脑,而其他部分则是由性能和技能更为强大的机器所构成的。如果这样的现实发生就带来了两方面的结果:一方面来说,人类作为碳基生物的脆弱性被扭转,将具备更强的生存能力,在与机器的竞争中获得了新的优势;另一方面,人类的身体丧失了自然属性下的高贵性,变成了可取代的一种无机体的部分。这也是我们需要考虑人工智能技术边界的原因,作为一个人文主义者并不会只追求绝对的理性,我认为人类应该追求价值而非仅仅是只是,应该追求理想的品质而不只是现实的成就,要追求整体的幸福而不只是个人的胜利。这也是人性的内涵所在。

解局之路

最后,我们为人工智能风险的提供一种解决思路,这也是我个人在研究AI时的基本出发点,即人工智能一定要体现人类的需求和利益,这其中不仅仅包括生存的必需,也包括发展的需求、精神的需求以及社会的需求,这是我们发展人工智能的动力,即人的价值尺度与目的性。正如钱穆大师所说,“生命演进而有人类,人类生命与其他生物的生命大不相同,其不同之最大特质,人类在求生目的之外,更还有其他目的存在。”这些目的超越了求生的目的,即超越了生死的价值和理性的光辉。我们在人工智能发展过程中看到的是人类功利性目的的最大化,即通过拘束的发展替代生产劳动,这将带来整体人类社会的生存基础的夯实,但是这其中很少包含了对理性和审美等超功利性目标的实践,更没有涉及关于人类自由和价值观的内容。如果单纯考虑功利性,毫无疑问就会带来人的个体和群体组织的异化,这也就会带来对让人自身的否定,挑战人类的尊严和存在。我们需要意识到,技术的边界就是伦理问题,技术的可能性和伦理的约束性是有内在矛盾的,人们在技术的发展过程中很容易只看到机器的力量和作用,忽视了人类的价值。

在自动化的机器系统中,人处于被动的位置,技术体现了人类的本质的延伸却又在压抑人的本质,如果人的生命成为技术改造的对象,那么人类自身的技术化就不可避免。换言之,人类就可以被制造出来,技术将“不可能”变为“可能”的同时,也将“能够”变成“应该”。我们要看到人的生命价值与技术之间的内在矛盾性,即人的生命是自然的,而技术是人为的;生命是不可重复的,而技术是可以复制的。

正如康德所说,“人是目的,人的目的性与工具性要充满统一”,人的价值是人存在的准则,而人类需要基于自身追求完美的道德天性去发,情感与理性要完美统一,而这个统一带来的就是人的价值的最高取向,这是我们理解未来AI发展的核心。人工智能技术的发展一定要在内部视角以人为价值尺度,在外部视角以人的社会群体为价值尺度。以人为价值尺度,保障了人的主体地位和独立意识;以人的社会群体为价值,保障了整个人类社会的可持续发展性。换言之,人工智能要在人本主义框架下去发展,才不会轻易僭越伦理的门槛,从而造成不可挽回的风险和损失,这是我们理解人工智能未来发展的基本原则,也是我们理解人工智能风险问题的实质。

责任编辑:张燕妮 来源: 经济观察报
相关推荐

2020-12-08 11:06:52

人工智能机器学习

2017-03-21 08:31:33

人工智能

2020-10-22 13:09:26

人工智能

2021-09-21 10:33:56

人工智能科学技术

2021-12-26 23:04:34

机器人人工智能技术

2020-11-07 16:25:50

人工智能技术IT

2019-04-10 13:00:37

人工智能AI

2017-03-11 11:19:43

机器人取代人类

2021-08-04 23:17:58

人工智能机器人技术

2023-05-15 10:27:53

人工智能AI

2023-10-10 14:46:13

AI人工智能

2022-09-22 14:33:49

人工智能AI

2019-09-19 11:28:10

人工智能技术投资

2020-10-29 14:31:37

人工智能

2021-08-20 20:00:41

人工智能AI

2021-07-09 10:20:32

人工智能AI开发

2021-06-02 05:27:45

人工智能AI深度学习

2020-10-20 10:40:30

人工智能AI

2021-07-28 13:29:44

人工智能指令技术

2017-03-20 10:56:04

人工智能
点赞
收藏

51CTO技术栈公众号