把握算法的伦理边界

2021-06-30 查看(944)

算法是计算机的核心运行逻辑,是一套基于设计目的的数据处理指令的总和。其主要特征是,通过规范化的输入,经由算法取得相应的输出结果。在计算机技术发展早期,算法主要被用来提升计算机软件的运行效率。随着互联网技术尤其是移动互联网和物联网的迅速发展,计算机领域的商业模式不再是简单地出售软件使用权,而是通过深度介入用户的工作和生活来获取利润。算法的运算对象逐渐由物变成了人,其内在的价值属性逐渐显现,对其的伦理规范也变得迫切起来。

1.算法歧视。当人成为算法的运算对象时,算法会把人作为获取利润或其他“理性”目的的分析对象,人在这个过程中会被打上标签“分拣”。比如,根据“用户画像”将同类商品和服务差异化定价、对应聘人员的简历经过计算机筛选后差异化投递等。在这个关系中呈现的是用户的工具化,该歧视源于为提升攫取利润的效率而造成的人在算法下被物化。算法的歧视有其隐蔽性,因为“算法黑箱”并不会向外界公布,而且即使公布了也并不能让大多数人看懂。由于提供的服务和商品个性化越来越强,被算法施加影响的不同个体之间,也不容易通过对比发现问题。因此,会出现因手机品牌、历史购买频次、居住区域等变量不同的用户,在购买同样的服务和商品时显示的价格不同,甚至通过显示“售罄”等方式拒绝为特定用户服务。除消费歧视外,算法的歧视还会识别并加剧社会不公平现象的产生,即使这种不公平的影响可能并不能在当下体现或者被发现。比如,一些美国高校的简历筛选系统会自动根据现有生源情况对应试学生分门别类,这会阻碍社会结构向着更加公平的方向变化。还有一点更需要我们警觉:算法并不总是能够向着其设计者希望的方向运行。随着机器学习能力的不断强化,其筛选标准会变得越来越复杂。但不论标准如何,我们都不可能寄希望于机器能够用人类的价值观识别并处理数据——这会让未来深度依赖算法的世界充满晦暗不明的价值虚无主义。

2.算法控制。互联网企业,尤其是大型平台公司的经营逻辑十分重视活跃用户数量、商品交易总额等数据,这使得提升用户黏性、获取用户数据画像成为算法设计的重要目标。一是强化已有的社会控制。如办公信息系统,通过通信软件和流程管理软件将员工全天候链接在一起,以提升生产效率。现在互联网平台公司也在逐步介入公共服务,帮助行政部门提升管理效率。比如,现在常用的防疫相关软件、公共发布平台、接入公共费用交纳系统等。二是创造新的控制系统。这主要是挖掘人类的自然需求,并用更高的效率放大该需求以产生路径依赖。比如社交、消费、学习、信息检索、导航定位、影视及游戏娱乐等。其中甚至不少是用亏损来满足人们的需求。比如,维持社交软件的运转需要较高费用,其设计目的就是培养更大的用户基数和使用习惯。与行政单位运用明示的法律法规约束人的行为不同,平台是用效率、依赖和成瘾性控制用户。用户在大型平台公司面前处于实质上的权力弱势地位,从而被深度嵌入产业环节产生一种隐形不自由。关于此类技术的伦理问题的讨论,已越发具有重要性和必要性。

3.算法投喂。互联网信息传播经历了门户网站单向展示阶段、用户主动检索阶段,目前已进入基于算法主动提供个性化信息的阶段。哈佛大学法学教授桑斯坦(Cass R. Sunstein)在《网络共和国》一书中提出,“信息茧房”指人们在信息领域会习惯性地被自己的兴趣所引导,从而将自己的生活桎梏于像蚕茧一般的“茧房”中的现象。而当前以“投其所好”为原则的算法,大大提升了“作茧自缚”的效率。人们想象中的多元融合往往没有出现,反而出现了更多的极化现象。在互联网发展早期,学界普遍认为信息的高效流动可以照顾到不同群体的个性化偏好,促进多元文明的相互交流。随着早期互联网的发展,尤其是门户媒体和搜索引擎出现后,文化的碰撞一直在朝着互相融合的方向演进。但随着算法的不断演进,我们却发现如今多元主义并没有在全球蓬勃兴起,反而出现了某些更为深刻的社会割裂,而且呈加速趋势。以往是人们自己主动寻求群体和文化认同,在寻找的过程中会不断接触新的信息和价值观,逐渐呈现为一种开放的价值系统。而现在的算法是主动将人分类并高效率推送趋同的内容,因此“信息茧房”导致极化的速度大大加快了。多元文化需要求同存异的土壤,更多是指可以不断接受新事物,并从多元化的环境中汲取养分,不断丰富和发展自身,其内在逻辑应该是复杂的偏好在同一个场域中同时被满足和照顾。而现在算法的逻辑,是让不同的用户在不同的场域分别被满足。这不是多元化,而是多极化,其最终结果是在文化层面的社会割裂。

生命伦理学家恩格尔哈特(H. Tristram Engelhardt, Jr.)在《生命伦理学的基础》一书中提出了“道德异乡人”的概念,指那些持有和我们不同的道德前提的人,他们生活在不同的道德共同体中,在与他们合作时会存在基础的价值取向冲突,包括但不限于对程序的适用、对善的理解、对正义的分配等,从而会导致对话困难。《伦理学纲要》一书中提出,应通过建立公共理性、完善现代社会性道德(首先是现代性外在伦理秩序),来使现代的内容与现代公共理性的形式相匹配。正因如此,我们需要基于一个能够让大多数人都认可的核心价值或公共理性的原则,来划定算法的伦理边界。现代文明进步的重要成果,就是打破了不同群体之间的界限,突出了人本身的尊严,尊重作为人本身的自主性价值,进而通过文化、经济、政治等的融合,让人与人得以互相理解。而算法的伦理边界,应是促进或至少不能破坏这些成果。

面对算法发展导致的各类现实问题,需要我们在设计算法时严守非歧视性、用户的非物质性、个人选择权的不可剥夺性这三条原则。非歧视性原则,指不能根据“用户画像”的不同实行差别化待遇,这里体现的是平等的价值。用户的非物质性,意味着算法应尊重用户作为人的主体性,不能对其简单地进行“物化”或“数据化”。同时,由于技术的演进,算法对人的控制已开始由工作的特定时间发展为充斥于人的生活的方方面面,更加快速的信息流已在逼近人的生理极限,效率提高的同时也在剥夺人的闲暇时光。科技的发展应给人带来便利而非控制,算法在设计之初就应尽可能地考虑到主体之间的强弱势支配关系,不能仅以技术中性为挡箭牌,间接助长“效率之恶”。个人选择权的不可剥夺性,则是指要保障人自主获取信息的权利,这是对人类探索精神的尊重和保护。我们不能仅用算法来判断人们的需求和偏好,精准的“个性化匹配”应有更多的伦理考量。

算法与很多其他科技不同的一点在于,不少科技的产生是基于“发明”这一人类实践活动的,而算法则是以“设计”作为技术产生的呈现方式。发明是科技适应人的体现,是为了给人带来更多的便利,补齐或增强仅依靠人的自然属性难以满足的需求。这从“懒是科技进步的原动力”这一句广为流传的打趣便可以看出,伦理对发明往往是进行后续的回应和规范,不论从规范需求还是规范可能性上来看,都很难做到前置约束。从目前的实践看来,也只有以人为对象的医学伦理能够做到一定程度的前置约束。但设计作为算法的前置性程序,伦理提前介入进行评估是可行的。而且,目前算法设计的核心原则是以人为作用对象,以计算机逻辑为中心。人在设计中来适应技术,需要使用大量的时间和智力来学习、适配计算机。只要技术的作用对象是人,那么伦理的提前介入就是必要的。随着计算机技术的渗透率不断上升,人类社会对算法的依赖程度不断加深是一个难以逆转的趋势,这也是“科技树”不断向效率更高的方向生长的客观规律。正因如此,我们应守住科技造福人类这一根本原则,并更加深入研究讨论“何为人类之福”这一深刻而又基础的伦理问题,为算法的狂飙突进戴上缰绳,守住伦理边界。

(作者单位:中国人民大学伦理学与道德建设研究中心)

来源:中国社会科学网-中国社会科学报 作者:王家亮



扫二维码与项目经理沟通

我们在微信上24小时期待你的声音

解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流

郑重声明:河南致晟网络科技有限公司以外的任何单位或个人,不得使用该案例作为工作成功展示!