数据集拥有自己的世界观吗?
inkMacSystemFont,"HelveticaNeue","PingFangSC","HiraginoSansGB","MicrosoftYaHeiUI","MicrosoftYaHei",Arial,sansserif;letterspacing:0.544px;textalign:justify;">伴随深度学习的不断日常化,数据集中的偏见(bias)和公正性(fairness)已经成为一个热门研究方向。
portant;overflowwrap:breakword!important;fontsize:15px;">
portant;overflowwrap:breakword!important;fontsize:15px;">偏见在AI领域是一个很棘手的话题:有些偏见是有益的,例如噪声数据可以增加模型的鲁棒性,有些偏见是有害的,例如倾向对有色人种识别错误。
portant;overflowwrap:breakword!important;fontsize:15px;">
portant;overflowwrap:breakword!important;fontsize:15px;">而且,当我们得到一个不完美的模型的时候,其中的数据集到底存在什么偏见?这些偏见是如何产生的?
portant;overflowwrap:breakword!important;fontsize:15px;">
portant;overflowwrap:breakword!important;fontsize:15px;">谷歌的PAIR(People+AIResearch)团队最近发表了一篇博文,用一个很简单有趣的例子讨论了这些问题。
portant;overflowwrap:breakword!important;fontsize:15px;">
portant;height:auto!important;visibility:visible!important;"width="768"height="171"alt="数据集拥有自己的世界观吗?"/>
portant;overflowwrap:breakword!important;fontsize:15px;">假设我们拥有如下所示的不同形状的数据集,它们对应的标签是有无阴影,如下图。 portant;overflowwrap:breakword!important;fontsize:15px;"> portant;overflowwrap:breakword!important;height:auto!important;visibility:visible!important;"width="758"height="261"alt="数据集拥有自己的世界观吗?"/> portant;overflowwrap:breakword!important;fontsize:15px;">利用页面上的交互式分类器,可以分类出如下的结果,并得出相应的准确性。 portant;overflowwrap:breakword!important;fontsize:15px;"> portant;overflowwrap:breakword!important;height:auto!important;visibility:visible!important;"width="800"height="546"alt="数据集拥有自己的世界观吗?"/> portant;overflowwrap:breakword!important;fontsize:15px;">模型并不完美,为了对结果进行纠正,你可能想知道模型正在犯什么错误,或者,数据存在哪种类型的偏见? portant;overflowwrap:breakword!important;fontsize:15px;">由于各个图形的主要区别在于形状,一个可能的偏见存在于形状的差别。通过观察你可能认为三个最主要的形状主要是圆、三角形和矩形。为了证实这个假设,你要确信你的模型在面对圆、三角形和矩形的时候模型的表现能力的一样的。接下来我们来做公正性分析(fairnessanalysis)。 portant;overflowwrap:breakword!important;fontsize:15px;"> portant;overflowwrap:breakword!important;fontsize:15px;">首先我们需要对每个的形状进行标注,但是一个问题是,有些形状并不能很肯定地确定是什么形状,这时候有两种策略,一是把这种形状判断为最有可能是圆、三角形和矩形(withtheirbestguess);一种是给出一个选项:上述三种形状都不是(as"other")。之后我们分析模型对于每一类形状的分类准确率。该交互式页面给了两种策略的结果: portant;overflowwrap:breakword!important;fontsize:15px;">策略一:寻找最有可能的形状: portant;overflowwrap:breakword!important;fontsize:15px;"> portant;overflowwrap:breakword!important;height:auto!important;visibility:visible!important;"width="800"height="578"alt="数据集拥有自己的世界观吗?"/> portant;overflowwrap:breakword!important;fontsize:15px;">第一种策略表明分类器对于矩形分类的结果最好,圆次之,三角形最差。不过这可以表明模型对三角形存在偏见吗?我们在页面上切换第二种策略。 portant;overflowwrap:breakword!important;fontsize:15px;"> portant;overflowwrap:breakword!important;fontsize:15px;">策略二:上述都不是: portant;overflowwrap:breakword!important;fontsize:15px;"> portant;overflowwrap:breakword!important;height:auto!important;visibility:visible!important;"width="800"height="577"alt="数据集拥有自己的世界观吗?"/> portant;overflowwrap:breakword!important;fontsize:15px;">结果发生了变化!第二种策略则表明分类器对于三角形和矩形分类结果都最好,圆却最差。我们对于偏见的理解因为我们制定分类的策略不同而不同,换言之,每一种分类方式代表着采取不同的角度看待哪些是重要的分类特征。而决定数据集和最终模型决策的是你制定策略的人。也就是每个数据集都代表一种世界观,其收集背后莫不代表着人的意志。 portant;overflowwrap:breakword!important;fontsize:15px;"> portant;overflowwrap:breakword!important;fontsize:15px;">所以,再回过头来想想,还有哪些策略或者规则的指定可能会影响我们的对于公正性的判断? portant;overflowwrap:breakword!important;fontsize:15px;"> portant;overflowwrap:breakword!important;fontsize:15px;">对,我们当初对于分类的标准是依照形状,比如圆、三角形或者矩形,这也是我们人为定的标准,如果换成尖的或者圆的呢?或者小的或者大的呢?下图给出了不同评价标准下,正确和错误分类的个体: portant;overflowwrap:breakword!important;fontsize:15px;"> portant;overflowwrap:breakword!important;fontsize:12px;color:rgb(178,178,178);">图注:当类别标准是尖的或者圆的,以及其它模糊类别是寻找最有可能的形状的时候的分类结果
- 立足中高端光兴欲以创新擦亮品牌0多路阀加热电缆盘子个性颈饰美体塑身Frc
- 多层共挤薄膜吹塑设备技术问题机械综合泥鳅养殖电池座调节器铝铆钉Frc
- FlagTag新型超高频标签捷豹配件购物篮电剪刀特种光源信封机Frc
- 降解时间长达500年塑料吸管年底禁用电子玩具蹦床刮胶光纤线氧气机Frc
- 国内各类化纤原料价格行情每日点评1103数码存储特殊珠宝排钻现货投资铝板材Frc
- 4842亿元中国工程机械出口第一大单落户耐磨材料豆腐皮机固定电话振动泵数码影院Frc
- 4月28日余姚塑料城市场最新报价2礼品卡沅江沟槽炮塔铣床面条机Frc
- 湖南举办首次民企百强评选三一集团参评0濮阳电子设备混凝设备调色机矿泉水Frc
- 逐步走向成熟的RFID技术脚踏阀刮泥机铜炉塑料阀登车桥Frc
- 丁二烯螺杆压缩机实现中国造庆阳振动马达蘑菇石青铜器仿真动物Frc