作了处理还是做了处理,邱遥堃读《算法治理》|算法时代:后人类抑或超人类

张强律师 法律头条 2022-11-25 20:34:40

导读:作了处理还是做,邱耀坤读“算法治理”|算法时代:Post 人类或Super 人类算法治理:后[/k1/]时代的政治与法律,热纳斯·卡尔波卡斯[立陶宛],邱耀坤译,上海人民出版社,2022年8月出版,2

作了处理还是做,邱耀坤读“算法治理”|算法时代:Post 人类或Super 人类

算法治理:后[/k1/]时代的政治与法律,热纳斯·卡尔波卡斯[立陶宛],邱耀坤译,上海人民出版社,2022年8月出版,220页,69.00元。

作者:邱耀坤

进入算法时代

90后的童年记忆大多不会缺少一部日本动画:数码宝贝。小时候,没有人梦想成为一个被召唤的孩子,收获自己神圣的计划和数字宝藏,冒险进入数字世界,打败最终的Boss,拯救数字世界和现实世界,就像他们后来梦想收到霍格沃茨的录取通知书一样。虽然当时数字技术还不是很发达,数字婴儿和数字世界的想象事实上只是人工智能和虚拟世界想象的萌芽版本,但是人类和数字婴儿的关系,现实世界和数字世界的关系,仍然映射了人与技术关系的永恒命题。如今人工智能技术不断发展,可以打败围棋世界冠军,创作艺术作品,编码我们作为消费者、生产者和公民的日常生活,越来越具有不同于人类智能的深不可测的自我学习能力。因此,一个人与技术如何共存的问题变得越来越重要,越来越有启发性。

从这个角度来看,也许法学界关于算法所享有的权利和算法的主体地位的讨论并不那么防范和危言耸听。我们所担心的技术反乌托邦的可能性确实在逐渐成为现实,我们正在被迫进入一个与人工智能共存(如果不是统治)的时代。如何保证人工智能和算法服务人类而不是相反,如何控制其权力属性,防止其异化风险,甚至防止其支配人类成为当代算法社会的核心问题。

但另一方面,我们又隐约感觉到,虽然人工智能越来越独立强大,但有时它们的表现仍然像人工智障,无法处理连三岁小孩都能自如处理的问题。比如自动驾驶汽车的道路识别,自然语言处理的内容审核,都有过令人啼笑皆非的故事。而且所谓的技术中立和AI自主,听起来更像是幕后操纵者用来逃避责任的说辞;算法黑匣子和算法的透明性似乎主要取决于算法的设计者和所有者是否愿意将其公开。虽然大多数无知的人都是被迫看着洞壁上的影子,但他们已经意识到,背后可能有更广阔的世界和更明亮的光源。

退一步说,如果算法太复杂,风险太大,为什么不丢弃呢?为什么不等到完全理解了,完全掌控了再用呢?为什么这么急?鉴于前述负面影响,不使用算法的收益成本比并没有明显低于使用算法的收益成本比。在人工智能发明的几千年前,人类社会一直稳步前进到今天;人工智能也不是潘多拉魔盒。打开了就关不上了。为什么早早就开始担心机器人规则人类的未来,甚至在务实入世的法学学科中掀起一场关于法律和科技的严肃讨论,而不仅仅是法律和科幻?

对于这一点,立陶宛学者伊尼亚斯·卡尔波卡斯(Ignace Kalpokas)的短篇著作《算法治理:后[/K1/]时代的政治与法律》可以提供一种盲目的解药。首先,他从算法所使用的数据、作为代码结构的算法的直接调控、作为行为助推的算法的间接调控三个方面介绍了算法治理的技术原理,将我们碎片化的经验和认知与系统化的理论认识融为一体。更进一步,他以独特的后[/k1/]主义为框架,讨论了算法对人类主体性、政治共同体的构建和法治的基本原则提出的挑战,让我们意识到我们自己与技术和环境之间永无止境的互动,进而知道在使用技术的过程中,是什么力量决定了我们的日常生活。最终,他的解决方案是以包括对代码的爱在内的博爱作为恢复人文关怀、修复人机平衡、完善算法治理的出路,从而克服算法治理的功利化、工具化倾向,促进人类、技术与环境的平等关系,实现每个人的自由全面发展。

算法时代的后[/K1/]性质

Kalpokas的后[/k1/]主义注意到算法消解了人类的主观性:一个完整而独特的个体被分解还原为数据的生产者,数据分析的对象,或者更直白地说,一个数据包。

“一个友好的同事变成了服务者,一个长期诚实的顾客变成了信用分高的人,一个善良的护士变成了护理提供者,一个学者变成了有影响力的学者,一个体育爱好者变成了动态表现曲线的人。”(第178-179页)再者,我们只能在算法的直接控制下做出代码架构所允许的行为,也可以在算法的微妙帮助下做出我们认为独立但实际控制的“最佳”选择,就像巴甫洛夫的狗一样容易操纵。

甚至算法的编剧也是受制于技术流程的反馈。他们不是从零开始独立设计算法,而是根据算法运算的输出结果不断调整完善。同时,线上线下的治理逻辑趋于统一,一切都将成为算法的数据分析对象,不会出现互联网、物联网之外的治理领域。于是人类的自由意志和主导地位无可挽回地丧失了,人类再也不能自称世界的主人,反而成了算法的仆人和技术的奴隶,人类与技术的天平高度向技术方向倾斜。

但与技术中心主义的投降论不同,卡尔波卡斯在更广泛的社会互动背景下意识到人类对算法的影响,主张算法必须有人类价值观。而且,他将这种影响定义为先在的、根本的、决定性的,从而摆脱了单向的技术决定论和虚假的技术中立,避免陷入相对于人类中心主义的技术中心主义的极端。

从定义上来说,人工智能是由人设定和制造的智能:简单的算法代码是一棵决策树,对于一个具体问题的所有细节,由人类设定求解路径;复杂的机器学习仍然需要人类提供数据,赋予数据和结果之间的关系以意义。更何况算法作为平台治理的工具,从根本上体现了平台的利益和需求。所以在大数据杀熟和灵活就业剥削的争论背后,甚至将算法视为独立的法律主体,也是平台想要免除自身责任的驱动力。

所以,算法本身就深深地嵌入了这个社会:“算法被设想成一种莫比乌斯环,既没有纯粹的内,也没有纯粹的外”(第48页)。"算法变得互动,与其更广阔的环境建立起双向关系:向世界学习,然后通过分类。人工智能并不统治世界,它仍然属于世界的一部分。

所以Kalpokas的后[/K1/]主义带有明显的平等主义色彩:人类不是与技术和环境的你死我活的斗争和统治关系,不是西风压倒东风,就是东风压倒西风;人类统治地位的下降,并不是向技术投降,也不是再现人类中心主义,成为技术中心主义,而是真正开启了设想一种更平等、更包容的你我伙伴关系的可能性。

作者说,“就像人类把自然商业化,只把它当作一种资源,必须最大限度地利用和优化,机器和代码对人类的类似处理也是错误的。”(第184页)其实贯穿数字宝宝动画系列的主题是:人类控制和奴役数字宝宝是不对的,但是数字宝宝控制和奴役人类并不是真的好,报复是无止境的。即使人类和数码宝贝相互隔绝,也无法达到它们最终的进化和完善。人类和数码宝宝需要建立友好的伙伴关系,共同进化;同样,人类和技术也需要在平等的基础上结合起来,让世界朝着正确的方向前进,停在最好的地方。

从这个角度来看,当前人工智能的发展导致的后[/k1/]技术中心主义思潮是被误导的。算法和人工智能还没有强大到等于人类。对实际的侵权责任法和著作权法稍加解释或调整,就足以应对自动驾驶和人工智能创造提出的所谓新问题,只要穿透技术的迷雾,指向其实际影响。毕竟,“无论数字行为者(没有身体或实体)是基于与自然人或法人相同或相似的基础而被赋予人格,还是被认可为介于两者之间的某种存在,或者是从简单的权利义务(如保险)发展到更复杂的安排(如财产权)的实体,或者被认为根本没有明显的人格,其影响都是不可否认的”(第134-135页)。

换句话说,我们可以从算法的输出结果入手,要求公平正义,避免偏见和歧视,避免不合理的差别待遇。我们可以根据各种标准对算法歧视类型进行分类,进行分级治理。其次,从算法的输入数据入手,一方面要求数据控制者完善自我治理机制,加强对用户的数据保护;另一方面,赋予数据主体算法自动决策限制权、扩展算法权等个人信息权利,以增强个人对自己数据的控制和管理。最后,辅以适当程度的算法透明,可行的算法透明措施如分场景、分级算法解释权、制度化算法影响评估、算法备案等。但不需要主张算法所享有的权利,甚至不需要主张算法这种不擅长制定、实施和适用法律的主体地位。

如果已经到了革命性立法的地步,那么人类的单方面立法可能无法获得人工智能的同意,两者需要斗争或者协商来决定共同的未来。所以,这样一种后[/k1/]的技术中心主义思潮,其实仍然是人类中心主义的灵魂:仍然是从人类出发,思考如何把人格赋予机器或者防止人格被机器摧毁,高估和夸大技术的作用和地位,忽视人的主观能动性。在这种后[/k1/]思潮下,主客体等级关系的幽灵依然存在,支配依赖的思维方式根深蒂固,只是颠倒了而已。持这种论调的人无法想象,人和技术都从中心位置退出,卸下不必要的特权,更加平等合作地相处,投身于共同的解放事业,就像动画中想象的乌托邦一样。

Super 人类以上人类

然而,平等的后[/k1/]主义在揭示有价值的洞见的同时,也遮蔽了更深层次的反思空间:算法/ AI与人类智能的关系真的平等吗?另一个问题:被算法消解了主观性的人类,是不是和人类是同一个人,对算法有决定性的影响?或者更准确的说,被算法算计、管理和控制的人是不是设计、拥有和控制算法的同一个人?如果不是,他们真的平等吗?

答案当然是否定的,算法治理的服务对象是平台经济及其背后的网络资本,决定了算法治理的目标、形式和结果。通过算法治理的技术赋能,以大多数人的后[/k1/]和去主体性为代价,成就了自己的超/[/k1/。

即使算法治理总体上提高了社会福利,从而使被治理的普通大众受益,但这种后果是次要的,算法治理的根本目的,即平台盈利和资本增值不会改变。这不仅体现在分配过程中,还体现在平台资本攫取了新增社会总福利的大部分。当平台利益与用户和社会利益发生冲突时,算法始终维护平台利益,比如共享经济中对灵活劳动者的劳动剥削。

更何况,纷繁复杂的技术也有利于超级人类实现隐身,将他们与后人类的社会矛盾转移、化解为后人类对技术的无知、无力感和无助感。所以侯人类只能怪自己素质低,不够努力,跟不上时代,或者说先进的技术太神秘,太狡猾,太不厚道。Chao 人类利用这一点牟取暴利,默默发财。Super 人类甚至可以创造一个有信息茧房和数字鸿沟的新的美好新世界,让Hou 人类沉迷于滑动手指就能获得的廉价快乐,不断壮大自己,从而沉沦为不断剁手的个体户生产者和消费者,失去集体行动甚至独立思考的能力,最终“以类似雅典奴隶制支持民主和哲学的方式”支持Super 人类

因此,人工智能并没有通过普遍授予或剥夺权利来使人们更加平等,而是通过算法黑箱、算法歧视等方式进一步扩大了数字鸿沟,强化和掩盖了现有的政治和经济不平等的制度,使少数人能够以更加隐蔽和高效的方式剥削和控制多数人。换句话说,大多数人被淘汰或者说他们的主观性被更大程度地淘汰,少部分人能够影响甚至决定算法。所以在人类和技术相对平等的表象下,是人与人之间深刻而不可改变的不平等本质。

所以,我们对机器人规则人类的关注或许是有道理的,从某种意义上来说,确实触及了算法时代不平等的大致轮廓。只是我们不一定看透机器人背后的资本和少数人,后者才是更应该害怕的对象。他们通过算法黑盒、技术中立、人工智能主体责任等法律辞令推卸责任。,并迷惑他们中的大多数人类来指责他们无法理解或控制的新技术,而这些新技术其实是他们的工具和奴隶。本质上算法时代的后人类社会主义本质只是表象,算法赋能的超级人类社会主义现实才是残酷的真相。大部分的后人类都变成了滋养算法的一维数据资料,从而让算法服务于少数更丰富、更高级、更符合人性的超级人类品质生活的达成。

作者已经意识到“不仅我们自己可能不总是人类,而且‘我们中的一些人现在甚至都不完全被视为人类,更不用说在西方社会、政治和科学史的过去了”(128页),而且“最有可能的是那些被留下的人,也就是那些不够/[/k1的人。但作者最终将上述关系扁平化,以算法的社会性,以算法与社会的互动,以及由此产生的人与技术的相对平等关系,而不是甚至掩盖技术背后不平等的社会支配地位,以算法的写作者不能免于这种反馈循环为由,鼓吹普遍后/[/k1。这种后[/k1/]平均主义,虽然没有以技术中立和技术决定的方式免除资本,但仍然是一种形式,即虚伪的平等。它只是稍微把过度的技术中心主义移到了平衡的中心,有一种五十步笑百步的徒劳感,令人遗憾。

事实上,如果作者关于技术与社会互动的讨论继续推进,必然会得出这样的结论:技术在改变社会的同时,更深层次地被社会塑造甚至创造。信息量的增加和功能的提升并没有产生新的政治、经济和社会秩序。相反,正是资本主义经济和民族国家的政治军事要求推动了信息技术和信息服务的不断发展。换句话说,资本主义和民族国家对技术的决定具有更基础的地位,信息资本化只是整个社会资本化的组成部分。这导致经济与政治的不平等关系成为铭刻在技术发展基因中的不变字节。任何无视这一现实的讨论都将是虚伪的宣传甚至欺骗,并发挥重要的意识形态功能。

太阳底下无新事,世界运行的底层逻辑从未改变,新兴技术也无法撼动:人本质上还是政治动物,通过建立统治关系形成共同体。

爱情:明知它不能做什么?

在这个意义上,作者把包括对代码的爱在内的普遍的爱作为一种破碎的策略,这种策略相当理想化或异想天开,明知不可为而为之:“爱是关怀,拥抱不可预测和未知,对次优、不完美和浪费持开放态度……如果这种爱不仅包括人类,还包括有生命和无生命的自然和代码本身,那么它就真正超越了狭隘。(第186页)

一方面,爱情不仅受限于囚徒困境的一厢情愿,而且在没有回应和回报的情况下,白白牺牲和奉献。它达不到与人类不同的无生命代码,也无法根治算法治理背后深层的不平等关系。爱是伟大的,也是软弱的,仿佛是解决一切问题的灵丹妙药,但最终,最多起到了安慰剂的作用。

亚里士多德说,“友谊并不意味着对无生命物体的爱,因为在这里没有爱的回报,我们对它们的美好不抱任何希望(比如希望一瓶酒会很好是荒谬的,但充其量我们希望它保存得很好,以便我们可以享受它)。”(奈杰尔·凯尔《伦理学》,商务印书馆,2003年,第231页)数字婴儿确实很可爱,但实际的人工智能还没有达到这种程度,即使有虚拟现实(VR)和增强现实(AR)技术的辅助,我们也无法像伙伴一样对它友好。我们只能希望它能给我们带来好处,或者至少不会带来坏处。

有学者甚至在人工智能引发失业危机的时候预言,未来的陪伴和照顾工作会变得越来越重要,无法被人工智能取代,因为作为无生命的物体,它们毕竟不同于有生命的人类,无法提供我们需要的情感联系。这也证明了码恋很难实现或者只会是小众爱好(比如某人对虚拟偶像的迷恋)。《银翼杀手2049》中的Joi,一开始看起来是那么的有人情味,那么的迷人,就像一个模特女友,一个绝世温柔的故乡。但是,最后被证明只是流水线的标准化产品,可以告诉任何人对方想听的话,甚至只是同样的“多么美好的一天。你看起来很孤独。我可以解决这个问题。”

亚里士多德也说过,“如果两个人在德行、邪恶、财富或其他方面相差太远,显然无法继续做朋友。事实上,他们不会期望继续做朋友。......无法对这个差距的边界做出精确的规定。差距可以越来越大,而友情依然存在。但如果差距达到人与神一样远,友谊肯定不会维持。”(同前。,第242页)因此,权力更大、地位更高的算法的作者、拥有者和控制者,作为超级人类,在财富、权力、道德等方面,都与被它算计、管理和控制的岗位人类相差无限远,即使面对这样的不平等和分化,又怎么能指望友谊的存在呢?轻浮的爱情能否用算法动摇其想要巩固的权力体系和利益格局?

更有可能的是,这种所谓的爱会成为美化剥削和控制的工具,麻痹对立和创新,反而会重新蒙上温柔的面纱。中国古代封建君主把君臣关系比作父子关系,从而把孝转变为忠,以国为家。当代资本家也喜欢把员工称为兄弟、合伙人,试图绑架、洗脑员工,没有任何利润。这些都是爱的扭曲和异化的不同形式。

另一方面,理想化的爱情虽然不能解决实际问题,但它实际上表达了对真正平等关系的渴望,成为追求平等的不竭动力。这种平等关系不仅是人与人、技术与环境之间的平等,而且是真正的人与人之间的平等,这是更加实用的当代法律的永恒追求,也是技术赋权的终极理想。如果没有这样的爱情,或许在理性的算计下,现在的不平等关系和制度是可以勉强忍受甚至欣然接受的:虽然喝汤不如吃肉,但总比饿死好,说不定我也能成为肉食者。更何况,后现代人最大的恐惧就是动荡,生怕自己手头仅有的一点点所谓财产会失去。所以很多后-[/k1/]甚至比超级人类更积极地支持现有的利益格局,仿佛得了斯德哥尔摩综合症。

更重要的是,没有这样的爱,即使有人意识到了问题,也不会有任何改变。正如作者所说,“爱在这里最简单的功能可能是努力的放大镜:正如米奇和卡夫瑞所观察到的那样,我们可能有许多崇高的倡议,要让这个世界变得更加公平、更加可持续(在环境和其他方面),但‘这些努力除非得到爱的补充,否则无法实现任何东西’(第185页)。现实中,如果没有这种热情,没有积极解决问题,没有积极反抗不公,就不可能自发形成美好的生活和良好的秩序。

算法我们这个世界的变化是巨大的:它不仅重塑了我们的生产方式和生活方式,也挑战了我们的政治原则和法治,让世界变得更加高效和脆弱,让我们不得不重新思考我们与技术和环境的关系。但是算法似乎并没有真正改变什么:我们依然生活在一个不自由不平等的世界里,人与人之间的关系依然紧张对立。人类社区的基础结构没有改变,但得到了加强。窥视人类的算法本质,天真地把爱情当成解决方法,可能是这本小书能做出的最大贡献。(邱耀坤)

资料来源:报纸

总结:以上内容是作了治疗或处理的详细介绍。邱耀坤读“算法治”|算法时代:后人类或超人类。文章部分转载自网络,希望了解你。

版权声明

本站搜集来源于网络,如侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意。