陈玲:将算法治理的“可接受公平”框架落到实处

最近几天,清华大学社会科学学院社会学系,中国科学院学部—清华大学科学与社会协同发展研究中心主办了伦理立场,算法设计与企业社会责任研讨会清华大学公共管理学院副教授陈玲在研讨会上指出,可从数据,算法,人类行为三个层面入手,建立一个可接受公平的整体框架,关注算法治理的起点,过程和结果公平,促进AI的创新发展和善治

陈玲:将算法治理的“可接受公平”框架落到实处

不管哪个国家,经济体或产业部门,各方都把公平作为算法治理的一个起点性要求,但实际上关于什么是算法公平,大家却没有共同可接受的内容陈玲认为,公平有不同的定义,至少应先建立一个基础框架,从共识的角度去理解可接受公平

公平可分为起点公平,过程公平,结果公平,陈玲建议针对不同阶段的公平来制定相应的公平准则例如,我们将数据作为起点公平的对象,首先我们希望用于训练算法模型的数据集本身是完整的,数据集不偏向于男性或女性,白人或黑人等其次,数据集应当是开放的,用户可以自己选择进入或退出数据集若数据集完整且开放,至少可以在最低限度上保证算法的起点公平陈玲称

在陈玲看来,算法程序的透明,可追溯,可问责,有利于促进算法的过程公平例如通过企业内设的算法伦理委员会或外部监管机构,可以核查,追溯到算法任意模块或环节的问题,进而确定每一个模块或环节的可问责对象,这可以在最低限度上确保算法的过程公平

结果公平是人们最直观,最朴素的公平诉求人们看到的算法推荐或AI决策,希望这些是可计算,可预期和可解释的陈玲举例称,很多时候人们可以接受一些歧视定价或者专门推荐,比如保险的差别定价,本质上是因为它符合人们的预期,而不是结果均等所以,算法推荐结果的可计算,可预期,可解释,而不是决策结果的均等化,是结果公平的最低起点

那么如何建立一个可接受公平的整体框架在陈玲看来,可从数据,算法,人类行为三个层面入手数据的完整性,准确性,开放性,算法的透明,可追溯和可问责,结果的可计算,可预期,可解释,这是大家可接受的公平底线,那些尚存争议或技术上有待解决的部分,可以作为算法公平的调适区间,伴随着调适水平提高,算法公平的共识底线也可以逐步提高

那么,算法公平的规则体系具体该如何落地陈玲表示,法律提供了一个最低限度的公平底线,算法伦理的要求往往高于法律可以从私法,公法,全球秩序三个层面来研究现有法律体系的规制现状,找到可接受公平的共识起点

全球立法或治理规定,对我们有两点启示:一是在中国国内现有的法律和行政法规体系下,建议推出不同层面的策略,包括算法公平政策,虚假信息准则,可信的透明度准则等,二是兼顾创新和数字经济的发展,尊重客观的现实条件,吸引更多的工程师和不同领域的专家参与到规则制定过程中陈玲称

李正风指出,算法具有可塑性,这一方面意味着算法设计是开放的,具有创造和建构的空间,但另一方面也意味着算法可能在伦理上产生道德真空。他说:“算法可能再现社会当中已有的伦理问题,尤其是掌握了大量数据并且对数据进行深度挖掘后,隐含在社会当中的伦理问题会更清晰地展现出来。比如,现在人们讨论比较多的公平性问题,还有算法偏见,算法歧视,隐私保护,这些都是社会当中已存在的伦理问题,只不过是通过算法更为显性地展现出来。”

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。