大猩猩

注册

 

发新话题 回复该主题

看不见的非正义算法决策真的公平吗人 [复制链接]

1#
作者:腾讯研究院、中国信通院互联网法律研究中心、腾讯AILab、腾讯开放平台全文余字,读完约需7分钟

在自主决策系统越来越流行的今天,有几个问题需要预先回答:第一,公平可以量化、形式化吗?可以被翻译成操作性的算法吗?第二,公平被量化为计算会带来风险吗?第三,如果公平是机器学习和人工智能的目标,谁来决定公平的考量因素?第四,如何让算法、机器学习和人工智能具有公平理念,自主意识到数据挖掘和处理中的歧视问题?

人工智能在影响人们的生活——网上的和现实世界中的生活。算法将人们在网络世界中的上网习惯、购物记录、GPS位置数据等各种网上足迹和活动,转变为对人们的各种打分和预测。这些打分和预测进而左右影响人们生活中的各种决策工作,其中的歧视和不公平由此成为一个显著的问题,无论人们是否意识到歧视的存在。以大数据、机器学习、人工智能、算法等为核心的自动决策系统的应用日益广泛,从购物推荐、个性化内容推荐、精准广告,到贷款评估、保险评估、雇员评估,再到司法程序中的犯罪风险评估,越来越多的决策工作为机器、算法和人工智能所取代,认为算法可以为人类社会中的各种事务和决策工作带来完全的客观性。然而,这不过是妄想,是一厢情愿。无论如何,算法的设计都是编程人员的主观选择和判断,他们是否可以不偏不倚地将既有的法律或者道德规则原封不动地编写进程序,是值得怀疑的。算法歧视(AlgorithmicBias)由此成为一个需要正视的问题。规则代码化带来的不透明、不准确、不公平、难以审查等问题,需要认真思考和研究。▌人工智能算法决策日益盛行网络的存在或者说数字存在,日益受到算法左右。如今,在网络空间,算法可以决定你看到什么新闻,听到什么歌曲,看到哪个好友的动态,看到什么类型的广告;可以决定谁得到贷款,谁得到工作,谁获得假释,谁拿到救助金,诸如此类。当然,基于算法、大数据、数据挖掘、机器学习等技术的人工智能决策不局限于解决信息过载这一难题的个性化推荐。

▲《世界人工智能产业发展蓝皮书》数据显示,我国人工智能领域在世界舞台上表现亮眼:人工智能企业数量世界第二,并超越美国成为人工智能领域专利申请数最高,全球的科学、技术、工程和数学领域(STEM)毕业生数量最多的国家。?JohnPavlus

当利用人工智能系统对犯罪嫌疑人进行犯罪风险评估,算法可以影响其刑罚;当自动驾驶汽车面临道德抉择的两难困境,算法可以决定牺牲哪一方;当将人工智能技术应用于武器系统,算法可以决定攻击目标。其中存在一个不容忽视的问题:当将本该由人类负担的决策工作委托给人工智能系统时,算法能否做到不偏不倚?如何确保公平之实现?▌算法默认是公平的吗?长久以来,人们对计算机技术存在一个广为人知的误解:算法决策是公平的,因为数学关乎方程,而非肤色。人类决策受到诸多有意或者无意的偏见以及信息不充分等因素影响,可能影响结果的公正性,所以存在一种利用数学方法将人类社会事务量化、客观化的思潮,FredBenenson将这种对数据的崇拜称之为数学清洗(Mathwashing),就是说,利用算法、模型、机器学习等数学方法重塑一个更加客观的现实世界。《人类简史》一书的作者尤瓦尔?赫拉利将之称为“数据宗教”,对数据的使用未来将成为一切决策工作的基础,从垃圾邮件过滤、信用卡欺诈检测、搜索引擎、热点新闻趋势到广告、保险或者贷款资质、信用评分,大数据驱动的机器学习和人工智能介入并影响越来越多的决策工作,认为大数据、算法等可以消除决策程序中的人类偏见。但是,在自主决策系统越来越流行的今天,有几个问题需要预先回答:第一,公平可以量化、形式化吗?可以被翻译成操作性的算法吗?第二,公平被量化为计算会带来风险吗?第三,如果公平是机器学习和人工智能的目标,谁来决定公平的考量因素?第四,如何让算法、机器学习和人工智能具有公平理念,自主意识到数据挖掘和处理中的歧视问题?大数据应用日益广泛,回应这些问题极为必要。首先,公平是一个模糊的概念,法律上的公平被翻译成算法公平可能存在困难,但在犯罪侦查、社会治安、刑事司法程序中,基于大数据的人工智能系统正在将公平问题算法化,包括在犯罪嫌疑人搜寻、社会治安维护、量刑等诸多方面。其次,公平被量化、被算法化可能带来歧视问题。美国FTC(美国联邦贸易委员会)在年1月发布的《大数据:包容性工具抑或排斥性工具?》特别
分享 转发
TOP
发新话题 回复该主题