算法为何会存在偏见?
文|陈根
由于算法对数据的掌控及后续分析,衍生出了丰富的信息要素深刻影响经济与社会进程。算法之下,个人信息的掌握和分析成为简单和日常的事情,人自然而然地成了计算的客体,由此衍生的算法可能带有偏见。
大数据时代,如果经营者收集的信息足够全面,掌握的算法足够先进,足以甄别出每位消费者的购买意愿和支付能力,就可针对消费者单独制定不同的价格。商家为了获得更多用户,便可以通过大数据算法获知哪些用户可以接受更高的价格,哪些用户应该适当地予以降价,“大数据杀熟”由此诞生。
常见“杀熟”套路主要有三种:根据不同设备进行差别定价,比如针对苹果用户与安卓用户制定的价格不同;根据用户消费时所处的不同场所,比如对距离商场远的用户制定的价格更高;根据用户的消费频率的差异,一般来说,消费频率越高的用户对价格承受能力也越强。
早在 2000 年,就已有“大数据杀熟”事件发生。一名亚马逊用户在删除浏览器 Cookies 后,发现此前浏览过的一款 DVD 售价从 26.24 美元变成了 22.74 美元。当时,亚马逊 CEO 贝索斯也作出了回应,说明该事件是向不同的顾客展示差别定价的实验,处于测试阶段。同时,他还表示与客户数据无关,并最终停止了这一实验。
而二十年后的今天,随着网络普及,用户信息不断沉淀,大数据杀熟则成为了普遍存在的不良现象。根据北京市消费者协会 2019 年 3 月发布的“大数据杀熟”问题调查结果,88.32% 被调查者认为“大数据杀熟”现象普遍或很普遍,且 56.92% 被调查者表示有过被“大数据杀熟”的经历。
面对不透明的、未经调节的、极富争议的甚至错误的自动化决策算法,我们将无法回避“算法歧视”与“算法暴政”导致的偏见与不公。随着算法决策深入渗透我们的生活,我们的身份数据被收集、行迹被跟踪,我们的工作表现、发展潜力、偿债能力、需求偏好、健康状况等特征无一不被数据画像从而被算法使用者掌控。
如今不管是贷款额度确定、招聘筛选、政策制定乃至司法辅助量刑等,诸多领域和场景中都不乏算法自动化决策。社会原有的结构将被进一步固化,个体或资源在结构框架之外的流动愈发被限制。
算法对每一个对象相关行动代价与报偿进行精准评估的结果,将使某些对象因此失去获得新资源的机会,这似乎可以减少决策者自身的风险,但却可能意味着对被评估对象的不公。
-
算法交易如何通过能源赚钱
2021-09-18 -
一文教你使用LBPH算法理解人脸识别
2021-09-13 -
新算法训练的无人机速度可达11m/s
2021-08-19 -
美国科学家创造了MPP算法来测量光伏板的退化
2021-08-18 -
改变了新能源的“算法”,是实现碳中和的关键
2021-08-16 -
忘记钻机数量和欧佩克,媒体偏见正在压低石油
2021-08-11 -
AI监控员工:亚马逊司机也困在算法里
2021-08-04 -
瑞士科学家开发了机器学习算法来优化家庭太阳能+储能
2021-08-04 -
AI趋势:更小的数据集构建算法
2021-08-03 -
新算法无人机或将带领无人机走向未来
2021-07-30 -
一文了解统治世界的十大算法
2021-07-22 -
AI创新落地路径:AI算法的规模化扩散
2021-07-15 -
深度调峰下超超临界机组再热汽温控制优化
2021-07-05 -
一文了解CRC校验算法知识
2021-06-29