您的位置:首页 >综合 > 市场 >

天天动态:庞亮:以技术赋能算法公平 并探索“算法取中”和化解“算法厌恶”


(资料图片)

中新经纬7月15日电 (王玉玲)近日,由对外经济贸易大学数字经济与法律创新研究中心主办的“算法公平治理与实现”研讨会在线上举行。中国科学院计算技术研究所副研究员庞亮认为,通过技术来进行算法公平性的赋能和监管是未来的一个大的方向。

庞亮首先分析了算法偏见产生的原因,在社会层面,设计者的主观无意识偏见可能会被写入算法系统;在技术层面,算法训练数据选取不合理,分布偏差或数据缺失,算法训练目标比较单一,以及算法机制的不透明性都可能导致算法偏见的产生;从哲学层面,偏见跟人工智能、机器学习特征有关,经验普适性与个例特殊性之间存在矛盾,算法简化及归类思想与对象异质性之间存在冲突,个体异质性未被充分考虑,少数个体被算法歧视。

庞亮主张技术是实现算法公平的重要方式之一。从企业角度,在技术层面或者算法设计层面加入一些公平性技术,实现算法公平增强技术;从国家治理角度通过技术来监管算法的公平,形成算法公平监管体系。

在算法公平增强技术方面,庞亮认为人工智能算法的公平性存在三个阶段,一是预处理公平性阶段,主要面向的就是输入数据,二是过程的公平性技术,主要面向是人工智能模型,三是后处理阶段主要是干预策略。

针对这三个阶段,庞亮进一步分析,在预处理阶段,数据分布不平衡和数据标注偏差是产生模型不公平的原因。对于数据分布不平衡,可以对数据按类别、按难度,按时空分布进行均衡采样,使模型训练更平衡。对数据标注偏差,构造偏差模型,在训练模型的时候通过概率的减法,消除偏差的部分,我们甚至可以建模因果图,通过因果图方式去除一些变量。

在过程公平性方面,庞亮认为训练目标单一和数据标签“最严化”可能会产生不公。在优化算法目标的时候,可以加入一些人性化的目标,平衡不同评价指标,让算法达到更公平的效果。将算法最严改为算法取中,训练更公平的算法。例如,不同于外卖平台上的商家和用户,外卖骑手属于侧面利益相关方,“算法取中”理念要求算法设计在平台运行效率、用户期望、外卖骑手安全、公众的预期之间寻找动态均衡,将对骑手的公平性考虑在内。

在后处理阶段,庞亮认为,即使算法决策具有公平性和准确性,甚至优于人类决策,个体仍可能对算法决策的公平感知较低,表现出算法厌恶。如果我们能够设计更好的算法机制公开策略,就会使得更多人相信算法的决策,或者解释推荐结果。算法模型输出不可控,可以在模型设计上把平滑作为其中一个设计目标,或者人为过滤不可控因素,减少随机不公平。(中新经纬APP)