我们正身处这样一个社会:算法为我们规划道路,为我们搜索答案;为我们推荐节目;为我们寻找雇主;为我们选择朋友;甚至伴我们吟风弄月,互诉衷肠……毫无疑问,我们已然生活在“算法社会”中,那些无处不在的算法无时不刻不在改进着我们的生产和生活。但与此同时,就像人类历史上所有伟大的发明一样,算法既可能被滥用,也可能被误解。我会被算法歧视吗?这些算法合理吗?人类会被算法灭绝吗……值得深思的是,人们一边愉快地享用算法便利,一边发出不绝于耳的疑问。
为了更好地了解公众对于当前算法应用真实的感受和评价,推动大型互联网平台倾听公众呼声,落实算法伦理治理;在浙江数字金融科技联合会金融科技伦理委员会的支持下,对外经济贸易大学数字经济与法律创新研究中心、中国人民大学数字经济研究中心和蚂蚁集团研究院于2021年底联合开展了“算法应用用户感知”大规模实证调查,收到有效问卷6941份,在此基础上撰写形成了《算法应用的用户感知调查与分析报告(2021)》。
报告围绕算法透明、算法安全、算法公平和算法向善等重大算法问题,开展了详细的调研和分析,报告发现:
报告发现,绝大多数用户享受算法带来的便利和优惠,希望有个性化推荐,与此同时,目前用户关于算法的认知和了解尚不充分,对提高算法透明度有较强诉求。超 8 成用户希望有个性化推荐,但对超过一定限度的精准推荐表现出担忧,并希望可以选择推荐所依据的标签组合。半数以上用户对企业在提供互联网服务过程中使用算法这一事实,以及使用算法的内容和目的并不清楚,希望企业能够加强信息披露。当对算法结果有异议时,多数用户也期待有人工介入(76.48%)。
报告发现,用户对算法表现出普遍的“不信任”,但并不认同限制算法应用这种因噎废食的做法,而是希望在规范中促进算法的合理应用和健康发展。超过 80% 的用户认为企业利用算法进行人为信息扭曲(比如操纵榜单、流量造假、信息屏蔽)的情况很多或比较多。为规避算法带来的不利影响, 用户目前已经表现出较强的自我保护意识,主动管理企业数据请求和关闭个性化推荐是最多采取的措施。针对算法风险的治理,用户希望多维度加强算法风险治理,其中企业自律最受期待(60.12%),而选择限制算法运用的比例最低(46.22%)。
报告发现,用户对“大数据杀熟”为代表的差别定价感知并不普遍,且不同用户对差别定价的态度差异非常之大。只有 26.38% 的用户表示经常经历差别定价,且绝大多数消费者在察觉到差别定价后会坚定地维护自己的权益。用户对差别定价的态度差异非常之大,差别定价所依据的条件无法用来判断某一差别定价是否属于“不合理的差别化定价”,规则是否透明、用户是否感觉被欺骗可能是更核心的原因。
报告发现,算法推荐下的过度消费问题并不突出,信息茧房、网络沉迷一定程度上存在,但企业在不良信息治理、“适老化”“未成年人模式”设计方面不尽如人意。仅 15% 的用户表示算法的引导可能会招致过度消费问题,也未发现年轻人、学生、低收入群体容易被引导过度消费的证据。“信息茧房”因人而异,部分人认为推荐算法有助于帮助多元化的信息获取、可以节省信息搜寻时间等(40%),但也有部分认为推荐算法的信息较为同质,容易造成“信息茧房”或内容过于娱乐化,导致上瘾(43%)。多数用户在使用软件应用的过程中收到过不良信息,超过 2/3 用户表示虽然举报过但不良信息出现的频次并未减少。1/3 以上用户认为所有行业在“适老化”“未成年人模式”等人性化设计方面做得都不够好。
报告发现,用户对算法的认知和判断,因学历背景、成长环境、收入水平等不同而存在明显差异。年轻、身处大城市及高学历的用户对企业的算法行为及其使用目的了解更为深入,对算法可能给自身带来的隐私权等权益损害的风险感知更为强烈,同时这部分用户也更注重坚定地采取多种手段来主动避免算法可能带来的不利影响,而年长者、县级及以下区域群体与低学历群体对算法的认知相对浅显,防范相关风险的能力相对较弱。
报告完整版,请点击链接下载。