加入收藏 | 设为首页 | 会员中心 | 我要投稿 源码门户网 (https://www.92codes.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

人们需要了解的六种人工智能偏见

发布时间:2021-12-28 00:11:42 所属栏目:大数据 来源:互联网
导读:当孩子逐渐成长时,他们会通过听觉、视觉和触觉等感官向周围的世界学习。他们对世界的理解、形成的观点以及最终做出的决定都会受到成长环境的影响。例如,一个在性别歧视社区生活和成长的孩子可能不会意识到他们看待不同性别的方式存在偏见。 机器学习模也
当孩子逐渐成长时,他们会通过听觉、视觉和触觉等感官向周围的世界学习。他们对世界的理解、形成的观点以及最终做出的决定都会受到成长环境的影响。例如,一个在性别歧视社区生活和成长的孩子可能不会意识到他们看待不同性别的方式存在偏见。
 
机器学习模也是如此。他们并不使用感官来感知,而是使用数据来学习——是人类提供的数据。这就是用于训练机器学习模型的数据尽量避免偏见变得至关重要的原因。以下内容介绍了机器学习中一些最常见的偏见形式:
 
(1)历史偏见
在收集用于训练机器学习算法的数据时,获取历史数据通常是最容易开始的地方。但是,如果不小心的话,很容易将历史数据中存在的偏见包括在内。
 
以亚马逊公司为例。该公司在2014年着手构建一个自动筛选求职者的系统。这个想法是为这个系统提供数百个简历,并自动挑选出最优秀的候选人。该系统接受了该公司10年来的工作申请及其录取结果的训练。那么出现了什么问题?因为亚马逊公司大多数员工都是男性(尤其是技术岗位)。人工智能算法了解到,由于亚马逊公司的男性员工多于女性,男性则是更合适的候选人,因此对女性求职者产生了歧视。到2015年,这个项目由于产生偏见不得不取消。
 
(2)样本偏见
当训练数据不能准确反映模型的实际使用情况时,就会出现样本偏见。通常情况下,一个群体的代表性或者过高,或者偏低。
 
例如,在美国训练将语音转换成文本的一个项目中,需要大量音频剪辑及其相应的转录。那么有声读物将获得大量此类数据,这种方法有什么问题?
 
事实证明,绝大多数有声读物都是由受过良好教育的白人男性讲述的。不出所料,当用户来自不同的社会经济或种族背景时,使用这种方法训练的语音识别软件表现不佳。
 
假设一个团队正在构建一个机器学习模型来预测美国大选期间的投票率,并希望通过采用年龄、职业、收入和政治立场等一系列特征可以准确预测某人是否会投票。于是构建了一个模型,通过当地选举活动对其进行了测试,并且对结果非常满意。在95%的情况下,似乎可以正确预测某人是否会投票。
 
随着在美国大选活动中的应用,该团队对这个模型感到非常失望。因为花费很长时间设计和测试的模型正确率只有55%——这只比随机猜测的表现好一点点。其糟糕的结果是评估偏见的一个例子。通过当地选举活动评估其模型,无意中设计了一个只对该地区有效的系统。而美国其他地区的投票模式完全不同,即使它们包含在其初始训练数据中,也没有得到全面的考虑。

(编辑:源码门户网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读