1. 肥喵工作室首页
  2. 行业

算法的“罪与罚”

算法的“罪与罚”

​随着大数据获取你的信息越来越多,算法对消费个体的“画像”越来越详细,只存在传说中的完全价格歧视,最近居然逐渐成真。算法犯错,错的究竟是人,还是算法?

算法的“罪与罚”

1、成也“算法”,败也“算法”

哈喽,大家好。今天想跟大家聊一个话题,叫做“算法”。

2019年12月20日,国家互联网信息办公室发布了第5号令《网络信息内容生态治理规定》,其中针对当前网络信息内容服务平台采用个性化算法推荐技术推送信息所带来的问题,并给出了一套解决方案。

算法的“罪与罚”

第5号令《网络信息内容生态治理规定》

这是我国政府管理部门,首次对个性化推荐算法下达相关法律监管,也拉开了对互联网信息内容服务实施重点管控的序幕。

2020年数据显示,40%的用户会根据电商网站的个性化推荐算法买东西,这是任何促销广告都不可能做到的成绩。

媒体上播放的大众化广告对消费者的影响已经越来越低,个性化推荐技术即将成为广告的终极形式。

梅尔·吉布森饰演的男主角在电影《谁知女人心》是一个典型的大男子主义者。一次浴室触电的意外突然让这个大男人获得了神奇的本领——“读心术”,可以轻而易举地洞悉身边女人们的心事,听到她们内心的独白。尽管一开始被这个本领吓得半死,可他却渐渐沉迷,以此俘获芳心。

“读心术”听起来匪夷所思,但仿佛一夜间,个性化推荐技术让我们身边突然出现了一位洞悉你喜好的“知音”,可以24小时提供全方位的贴心指引,不厌其烦地向你推荐那些“你可能感兴趣的……”东西,从房子,到袜子。

不知不觉中侵占整个互联网的“推荐算法”,不单直指你心底里哪些小秘密,更成为了每个网站拉拢用户的核心机密。

但我们喜闻乐见的个性化推荐算法,可能会带来哪些问题?

1、个性化内容推荐无法处理社会价值判断

但目前,基于算法的个性化内容推送本质上只是弱人工智能的应用,弱人工智能无法单独承担起“把关人”的角色。算法是自动化、冷漠和无责任感的,无法处理复杂的人类式社会价值判断,而且难以判断推送给每个用户的信息内容的优劣,以及背后可能涉及的价值取向。

2.个性化推荐内容使国家安全风险因素增高

个性化内容推送能够影响政治进程、加剧政治极化。在选举过程中,通过算法能够识别出潜在的投票人,通过个性化内容推送,诱导投票人支持特定方案或个人,影响公众意见。而且由于个性化内容推送的筛选功能,会将投票人屏蔽于不同意见之外,持续性地强化立场,导致不同群体的意见极化,容易引发极端主义。

3.个性化推荐内容使不良信息泛滥风险增加

个性化内容推送依托于用户浏览记录等数据,对用户兴趣爱好、行为习惯进行分析与预测,根据用户偏好推荐信息内容。部分平台不断向用户推荐其关注过的相似内容,不管是否存在低俗媚俗、色情暴力等不良信息,意图实现最大推送量和获得最高点击率,导致违法和不良信息充斥用户界面。

4.个性化推荐内容使用户权益保护难度加大

个性化内容推送让用户过滤掉自己不感兴趣的信息内容,沉迷于最初想看的信息内容中,实现“看我想看,听我想听”的体验。这无形间强化了用户的偏好,影响了用户对于信息内容的自主选择,导致用户对于信息内容接触面越来越狭隘、单一和固化,形成“信息茧房”效应。

2、个性化算法,让用户丧失“个性化”

除却社会价值、国家安全、不良信息等因素,个性化推荐算法最大的问题在于让用户丧失“个性化”。

个性化内容使得用户只关心自己感兴趣的内容而陷入“信息茧房”,群体内成员与外部世界交流就会大幅减少,群体内同质的特征越显著,导致一种正反馈式的“自激”,使人产生盲目自信、心胸狭隘等不良心理,其思维方式将自己的偏见认为是真理,从而拒斥其他合理性的观点侵入。

简单来说,就是大家所说的“杠精”。

其次,“信息茧房”将会导致社会粘性的丧失。在“信息茧房”的作用下,人们很容易沉浸在自我的话语场中,脱离整个社会的发展,这些都大大减少了经验的分享。当每个个体之间、群体之间缺乏粘性,人心涣散将会成为一种普遍的社会现象,人们之间、群体之间往往彼此漠不关心。

可以这样说,中国互联网的疯狂,得益于人与人之间的冷漠。

“信息茧房”效应让用户不自觉地失去社会行动力,从积极地参与事件转变为消极地认识事件,很难接受不同的观点,甚至在群体、代际间竖起阻碍沟通的高墙,造成个体与社会的隔离。如果用户沉浸于单一类型的信息内容中,会缺乏对于当下和历史事件的深刻认识和判断,拒绝认真严肃地思考社会重大议题。

这也就是,就是目前比较火的逃避现实,追求安逸的“丧”文化诞生的原因。

个性化推荐算法如何摧毁用户的个性化,正如今年火爆全网的文章《互联网是人类历史的一段弯路吗?》中提到的:

当人们获取资讯的方式从主动订阅、搜索,变为被动的“下拉刷新”的时候,互联网便不再是一扇通向世界的窗口,而只是一个善于美颜的镜子。

如果一个人每天阅读的文章都是10万+,那他一定会认为自己所阅读的这些内容就代表主流舆论的声音。但事实上,机器只是将符合它胃口的文章推送给了它。而对于超过8亿的中国网民来说,即便是一个篇篇10万+的公号来说可能也只是找到了整个舆论场中很小的一个缺口,并不代表着主流观点。

对于每个舆论场中的发声者和受众来说,都更加认为“自己所写的/看的代表了大多数人的看法”,最终导致我们距离真实的世界渐行渐远。

如果我们甚至无法认识到真实的彼此,就更不要说我们能够相互理解了。

互联网企业最大的优势,就是能够“快速响应用户的反馈”。而最大的弱点也是“习惯于快速响应用户的反馈”。

沉迷于迎合用户当下的需求,让企业迷失了自己真正的目标,也让用户失去了“个性化”。

3、追求效率的算法,应先做到“守法”

面对算法的作用与价值,张一鸣的观点曾有过一次重大转折。

2018年6月头条的估值从起步的1千万美元已达到750亿美元左右,已然超过了BAT里的B的市值了。此前,张一鸣表达过自己对头条以及算法价值的观点:

“如果你非要问我头条的价值观是什么,我认为是——提高分发效率、满足用户的信息需求,这是最重要的。”

他曾在2016年底接受媒体采访时表示:“我本身并不认为低俗有什么问题。你在机场看到的杂志是一回事,在火车站看到的又是另一回事”。“很多人是因为证明自己高雅而指责它。”

算法的“罪与罚”

火车站随处可见的“低俗广告

但在现有监管体系下,张一鸣曾经信仰的“技术”,或者说“算法”,似乎已经不能成为挡箭牌了。

正如媒体人张凤安评论的那样,今日头条迅速接过了BAT发家时伴随的电线杆式低谷生意,裹上了算法的外衣。但是意外的是,头条做这么大了却没有高阶内容的贡献,没有与平台地位相称的主流现象级内容策划。

在19年4月11日凌晨4点发布的声明里,张一鸣换了口径:

“我们必须重新阐释并切实践行我们的社会责任:正直向善,科技创新,创造价值,担当责任,合作共赢。”“我们必须重新梳理我们的愿景。”

互联网企业追求商业利润无可厚非,但网络平台以迎合受众需求、追逐商业价值为出发点,有可能会违背现有法律规定,或是利用法律制度的漏洞和缺陷,规避法律责任。

秩序是与无序、脱序、失序等相对的概念。无序、脱序、失序,意味着关系的稳定性和结构的一致性变得模糊以致消失了,行为的规则性和进程的连续性被打破或断裂了,社会生活遭到偶然的、不可预测因素的侵入,人们失去了合理预期和安全感。

为避免或制止无序、脱序、失序引发的各种社会危机和灾难,人类必须采取措施。而法律就是防范无序、制止脱序、补救失序的首要的、常规的手段。

法律是秩序的象征,又是建立和维护秩序的手段,用法律建构和维护的社会秩序就是法律秩序。

作为风险制造者的一方(主要是企业)具有强大的谈判能力,作为主要的风险承受者的社会公众,缺乏风险识别能力、谈判能力和自我防控能力、救济能力,对自己行为带来的影响缺乏认识。

今年8月,深圳全市就查处快递、外卖送餐行业交通违法1.2万宗,占非机动车违法案例总数的10%以上。上海市医疗急救中心医护人员说,8月的每周都会遇到与骑手相关的单子。

算法的“罪与罚”

“赶时间”而发生车祸的美团骑手

“赶时间”是核心原因。一位骑手说,2018年前后平台给他的每单送餐时间是40分钟,但后来被压缩到30分钟。“有时候从商家拿到外卖都过去20分钟了,剩下的10分钟我要骑行3公里、跑进小区、等电梯上楼。”他说。

平台压缩时间的主要依据是建立在大数据和人工智能基础上的算法系统。与算法系统相配合的还有一整套严格的考核机制:

一方面,外卖平台以“按单计价”激励外卖骑手尽可能多接单送单;另一方面,平台通过准时率、差评率、配送原因取消单量等考核严格约束骑手。准时率的降低,意味着外卖骑手在平台的算法中失去了“接单优势”,也会在内部排名中降低名次,无缘各类奖励。

明确网络平台对用户个人敏感信息保护、信息内容服务、算法治理的法律责任,以及增强法律对用户权利的赋予和限制,有助于防范算法型分发带来的隐私风险,实现保护信息产业发展与个人权利保护的平衡。

高度的信息不对称导致意识自治的基石被动摇,算法在市场资源分配中的作用越来越明显、影响越来越深刻,致使工业时代确立起来的市场经济的制度基石需要重新审视。

4、算法犯错,错的究竟是人,还是算法?

今天,算法更将超越逻辑的范畴,它已经蔓延到经济和政治领域了。每一天,互联网上的算法对大众获取信息、购物、工作和旅行等行为方式的影响都会越来越大。并且,算法还影响着我们的思维方式。

我们所知道的这场世界范围内的革命并不是算法的革命,而是掌握这些算法的人累积了力量,继而引发的革命。

计算机的计算能力能够集中处理来自互联网的数十亿条信息,这为一些行业企业提供了前所未有的强大手段, 使他们有能力来影响我们的选择和行为。

人们认为,点击鼠标收到的信息是中立、客观、公正的。显然,事实并非如此。在绝大多数情况下,两个人都用谷歌等浏览器对相同进行搜索,却会得到不同的答案。我们发现,算法会根据使用这是谁,而做出不同的反应。

假如你已经在网站上订购了一本书,算法会根据你的订单为你推荐类似主题的第二本书。假如你没有续订一本杂志,算法会询问你这是否是一个疏忽。

就算你没有要求任何东西,算法也会用“对你特别适用的广告”来轰炸你。互联网知道关于你的一切。

多年以来,人们每次点击留下的痕迹被存于数据库中,数量庞大到几乎可以说是无限的,这些痕迹被称为“大数据”。

从字面上看,数据意味着要有人“提供”,但至少就这一点,可以说,这里是有矛盾的:

这些信息不是众人“提供”的,而是从我们这里被拿走的。大数据知道我们的一切,但我们对大数据却知之甚少。

大数据对于我们是“白盒”,而我们对大数据则是“黑盒”。

算法考虑了人类的这些认知偏见,继而对每个人的偏见进行了解码,并通过强化这种偏见来做出反应。算法不过是朝着它认为的风向继续吹气。

几年前,一个叫Kyle Behm的年轻人由于躁郁症中途辍学,离开他就读的范德比尔特大学,该学校位于田纳西州纳什维尔。一年半后,Kyle康复了,并回到另一所大学继续他的学业。在那时,他从一个朋友那儿了解到一份兼职工作:在Kroger超市打工,尽管工资相当低,但Kyle愿意做。Kyle的朋友正好辞职,并愿意为他做担保。对于像Kyle这样学习优异的学生来说,担保就是走走形式。

算法的“罪与罚”

AI性格测试题目

然而Kyle并没有接到面试通知。他询问他的朋友,他的朋友解释说:Kyle的性格测试结果显示,他被列入“红灯区”。

Kyle做的测试是由总部位于波士顿的人力资源管理公司Kronos开发,作为人力选拔员工的一部分。Kyle把这件事情告诉了他的律师父亲,他的父亲问他测试题问了些什么。Kyle说和他在医院里做的题类似,就是“五因素模型”这类的问题。根据外向性,随和性,谨慎性,情绪稳定性以及开放性评分。

起初,由于测试题丢掉一份工资低廉的工作并不是什么大问题。Roland Behm鼓励他的儿子继续找。但Kyle被一次次拒绝。他应聘的每一家公司用的是同一套测试题,到最后他也没收到一个offer。

Roland Behm也不知所措。心理健康问题似乎严重影响他儿子的就业。研究之后他发现:性格测试题在大型的招聘公司之间非常普遍,尽管在法律上并无实际意义。

他解释说:很少有人找工作因为测试结果被列入红灯区。即便他们被“红灯”了,他们也不会想着去找律师。

Behm给包括Home Depot和Walgreens在内的七家公司发了通知,倡议通过集体诉讼来抵制测试招人的违法行为。在我写这篇文章的时候,起诉讼仍在跟进。

此次争议依据1990年颁布的美国残疾人法案,该行为是违法的。如果诉讼成功,法院不得不就招聘公司或Knoros是否违反美国残疾人法做出判决。

这是个非常极端的案例,但是把它聚焦到我们的日常生活中,其实非常常见。

大数据是沉默的。没有人会像欣赏风景一样看待数字,观察数据要根据预先建立的观察角度、模型和分类方式来完成。

而当算法承载着人的意识去做出相应的有失偏颇的选择时,错误究竟在人还是算法?

然而,你问问自己事情为什么会这么复杂吗?当你了解到,互联网巨头的战略就是让用户产生依赖性时, 一切仿佛都有了答案。

算法旨在创造一种需求, 甚至是一种“瘾”。算法的编写方式,就是为了让众人再也无法失去自己。

算法不能解决所有问题。政府既无法利用算法根除逃税问题,算法也无法帮助你决定搬家到哪里,更不可能帮助你在生活中取得成功。

算法从来都不是止痛剂。事实上,算法更像是满足人欲望的安慰剂。

肥喵运营推广

本文“算法的“罪与罚””由肥喵转载自互联网,不代表我们的立场,如有侵权请联系我们删除
转载联系作者并注明出处:https://feimiaomiao.com/hangye/12728