当前位置:招商报 > 正文

分论坛“算法的隐形力量”:克服偏见 提升算法的公平

编辑: 夕歌 来源:天津日报 发布时间:2018-09-21 11:49:42

导读:在19日举行的“算法的隐形力量”分论坛上,嘉宾们就如何克服偏见,提升算法的公平,如何更好地监管算法,展开热烈讨论。

分论坛“算法的隐形力量”:克服偏见 提升算法的公平

算法在生活中越来越重要,它可以让我们更好地打车、看电影,帮助我们做一些医疗以及其他重要的决策。但对公众来讲,算法有时候是不公平的,甚至可能存有偏见。在19日举行的“算法的隐形力量”分论坛上,嘉宾们就如何克服偏见,提升算法的公平,如何更好地监管算法,展开热烈讨论。

来自英国巴斯大学的计算机科学教授乔安娜·布莱森认为,必须要有人为算法来负责,那就是谁生产谁负责。

乔安娜·布莱森说,我们可以用理论来描述某个算法是有偏见的,但是其实很多时候,我们可能不相信偏见,但是不自觉把偏见传递给下一代,这和个人的感知有关系。我们需要了解这个概念,就是如果数据是错误的,你可能会有偏见,但是如果你使用互联网的语言,使用所有这些数据你也可能是有偏见的。包括有一些AI可以预测到获得工作的人当中,有多少是女性,这是性别主义者,他们也会有这样的偏见,他们有可能有意识地把偏见的算法算到计算机的编程里面。

美国Pymetrics联合创始人、首席执行官Frida polli致力于解决人工智能面临的偏见的问题。他说,我们使用AI以便可以更公平地招募员工,不管对方是男还是女。还有一些科学家会去研究员工的风险偏好、回报偏好以及个性来进行预测,我们会综合使用这些数据,来评判一个人是否可以获得工作。当然,这需要确保收集到的数据是好的。另外,我们也会去研究工作出色的人,很多时候,不管是何种肤色与人种,都有权利获得同等工作条件和待遇,我们会根据它可能隐含的偏见,调整我们的算法,确保公平。

“很多的时候,你输入的这些数据本身就是有偏见的,然后我们要确保采用我们算法技术之后,整个章目的程序是平衡和公平的。” Frida polli说。

Frida Polli认为,每个人都是有偏见的,这是一个事实,但是算法其实就是个编程、编码,这个编码是可以变的,人的性格却是很难变的,所以我们可以通过改变算法,来帮助我们纠正自己的偏见,如果没有算法,单纯去改变每个人的心态的话,每个人的偏见就更难改了。

美国NetHope首席执行官Lauren Woodman认为,解决算法偏见,对于人类发展来讲是非常专业的问题。我们花费很多时间,非常乐观地在这方面进行钻研,首先要确定是否有偏见,第二个是确定这个偏见是否是由于我们使用的数据集产生的,如果是的话怎么减缓偏见。我们会去发现在我们数据集里面算法是怎么写的,以及我这个系统开发是怎么来开发的,这些都要看,这里面还有伦理考量的因素,都要考虑。

Robert Gryn,是来自波兰 Codewise公司的首席执行官,他所在的公司是迅速成长的一家做APP的公司。Robert Gryn说,未来发展算法,用机器学习是一个大的趋势,这当中有一个问题,就是提高意识普及问题。欧盟在这方面已经是前驱者了,但大多数欧盟国家的市民不知道他们现在有这个权利,可以去质疑自动化做的决策,他们也不知道哪些决策由机器自动化做出来的。所以,对公众的教育是非常重要的。

关于AI如何监管,监管到何种程度是合适的,Lauren Woodman认为,需要有一个问责的问题要解决,比如无人驾驶汽车遇到问题,要区分是制造商的问题,还是软件开发商的责任。

乔安娜·布莱森认为,我们应该有相应的能力来确保我们的代码是否合适。很长一段时间内,我们都把计算机当做一种玩具,我们应该考虑建立相关算法测试的流程、工具和标准,知道自己工作的出发点到底是为了利润还是为了别的什么。

Frida Polli认为,到底应不应该为AI增加相关的管制和机制,需要进行讨论。有些人甚至建议应该为算法建立一个监管机构。我觉得还是要建立一种机制,让社会和民众更好了解AI到底是什么,包括它的一些运作的方式。当然我并不是说一定建立一个监管的机构,它也不一定是非常必要的,但是我们的确需要一个有知情的教育方式和宣教的方式,让大家能够更好了解整个体制。

而Robert Gryn却觉得法律体系很难去处理AI相关的问题,因为AI发展速度非常迅速,立法永远落后技术发展,为了改变这个现状,我们就需要建立一种机制来防范这种问题。

记者 吴巧君

天津招商网
天津招商网
天津招商网