
长宁法院互联网审判庭五周年庆暨“算法的社会责任”研讨会2月15日举行。会上,来自理论、实务界的法律专家学者、互联网企业代表们从算法治理中的司法能动、算法如何体现伦理、算法歧视的公平治理等角度进行交流。
据悉,五年来,长宁法院互联网审判庭共受理网络买卖合同纠纷、网络服务合同纠纷等互联网案件8350件,结案7932件,形成一批精品案例和实务研究成果,研究制定《互联网审判工作规程》等一批互联网审判运行规则,推动44项配套任务落地见效。会上发布的第三批《互联网空间行为规范指引》聚焦“搜索引擎”“用户隐私政策”“薅羊毛”等社会热点,进一步明确网络空间各方权利义务关系。
在随后举行的研讨会上,上海政法学院教授张继红指出,算法歧视的场景远不止消费领域,在劳动场景中同样存在算法歧视,且更加隐蔽,更应该引起有关部门重视。
她举例说,一家大型企业需要进行招聘时,可能会收到海量的简历。为减轻工作负担,就会使用算法进行初步筛选,这种筛选不是从收到简历开始,而是从招聘广告发布时就开始了。“最简单的算法歧视就是,让某一个岗位的招聘广告被更多的男性用户看到。”张继红说,年龄、学历等条件同样可以在算法中预设,这就让很多人直接失去获知存在这个岗位的机会。
张继红指出,算法歧视在劳动场景中的另一种体现就是用工管理,在大大提升效率的同时,也产生了歧视性后果,典型案例就是“困在系统里的外卖骑手”。“在意大利,也有这样一群配送员,他们的公司使用一种激励算法。如果不按照约定配送,将失去分数。得分高的配送员,则可以提前选择对自己来说合适的送货时间和区域。”张继红说,这家公司之后被告上法院,法院判决其败诉。原因就在于法院认为,算法在计算分数时,没有考虑到配送员可能突发疾病、发生交通事故等意外情况造成的影响,是不公平的。
那可否对算法进行法律规制?与会嘉宾指出,目前存在着算法的“黑箱”问题。算法往往是一家企业的核心机密,同样也是受法律保护的商业秘密。因此,在法律上会遇到这样一个问题,算法到底“坏”到什么程度,政府或法院可以要求企业公开?在中国政法大学数据法治研究院教授张凌寒看来,对此类案件,法院审理时要更加谨慎。他指出,在责任认定的时候,要考虑算法是不是属于合理使用,是不是中立目的编写研发。