您的位置:首页 >综合 > 市场 >

环球快播:朱倩男:算法公平受数据、模型和人共同影响,治理需多方协同


(相关资料图)

中新经纬7月15日电 (王玉玲)近日,由对外经济贸易大学数字经济与法律创新研究中心主办的“算法公平治理与实现”研讨会在线上举行。中国人民大学高瓴人工智能学院博士后朱倩男从推荐算法原理出发,对算法公平性问题的主要成因以及未来可能的治理方向进行了分析。

朱倩男表示,从算法原理的角度讲,推荐算法主要是用户-数据-算法模型三者之间循环交互的过程,整个推荐流程分为三个阶段,一是用户-数据,二是数据-推荐模型,三是推荐模型-用户。基于算法原理性分析,算法公平性问题实际上与数据、算法和人三大要素有关。

第一,从数据层面,数据是社会价值观念的反映,如果数据包含了现实世界的歧视和不公平,则会产生有偏的结果,进而带来公平性问题。因数据有偏而带来公平性问题的情形包括但不限于以下几种可能:第一,出于保护用户数据隐私等原因,实际场景下通常无法获得与用户相关的全样本数据,很难挖掘用户全面的偏好,因而可能带来算法有偏;二是人为伪造的点赞量、转发量等数据可能对算法造成“欺骗”,从而使得算法结果不公平;三是获取数据过程中可能受到流行度偏见,选择偏见以及曝光偏见等因素的影响,使得算法产生有偏的结果。

第二,从算法角度,算法更多是拟合大多数群体的需求,对少数群体的需求代表性和建模程度不够,可能带来不公平问题。第三,从人类角度,算法设计者自身的偏见有可能被嵌入到算法中而带来不公平性问题。

在前述的推荐流程中,朱倩男表示,每个阶段都可能产生不公平性现象。比如用户-数据阶段,就可能存在选择偏见、从众偏见、曝光偏见和位置偏见等。

对于推荐算法中存在的不公平现象,朱倩男从以下几个层面提出建议。

第一,要定义清晰的公平性适用范围、对象和场景;第二,从数据、算法建模以及算法相关主体(算法设计者,用户等)三个层面来规避算法不公平性问题;第三,建立通用的公平性评测标准、平台及数据集,利用公平性的评测结果对算法进行改进和修正。第四,从法律法规和社会监管角度来避免算法公平性问题。“我强调一点,希望能根据不同场景下的不同任务和问题,科学制定公平性相关的算法应用规则和标准规范,探索形成一系列的制度机制。同时,考虑到人工智能产业长远发展,可以通过设立一些性能标准、预测标准、算法开发标准等来规避不公平性问题。”朱倩男说道。(更多报道线索,请联系本文作者王玉玲:wangyuling@chinanews.com.cn)(中新经纬APP)

(文中观点仅供参考,不构成投资建议,投资有风险,入市需谨慎。)

中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。

责任编辑:李中元