986 19 92 514 708 900 206 499 232 177 387 237 197 362 10 396 533 937 756 315 927 68 58 300 654 344 504 834 992 170 190 125 335 672 880 123 622 400 260 170 162 660 504 596 189 50 65 948 391 739
当前位置:首页 > 亲子 > 正文

戒网瘾斗士陶宏开为网游站台:好游戏不会上瘾

来源:新华网 九淦坤晚报

有时候你可能会感觉这个世界有着满满的恶意,比如当你像那位黑人小伙一样,被Google Photos标记为了大猩猩时。严格来讲,这是Google Photos算法本身的不完善所致,而无处不在的算法让性别、收入、种族都有成为有色眼镜的潜力。 虽不明显,细思极恐 歧视:人对人就某个缺陷、缺点、能力、出身以不平等的眼光对待,使之得到不同程度的损失,多带贬义色彩,属于外界因素引发的一种人格扭曲。 直觉告诉我们机器的逻辑思维是不带感情色彩的,因此比人要更为客观和理性,如机器算法能通过卫星图像分析出缅甸的经济状况。然而,算法也有摆乌龙的时候。 据纽约时报报道,卡内基梅隆大学的一个研究显示,Google的广告系统学会了性别歧视。在推送高收入工作招聘信息时,男性比女性收到推送的频率高得多。哈佛大学的研究也指出,查询被逮捕记录的广告会更频繁地找上黑人。除了名校研究团队,美国联邦政府对歧视问题同样关注,联邦贸易委员会在调查中发现广告商更倾向于将高息贷款信息展示给低收入人群看。 机器学会歧视,与道德无关 上面说的一些歧视并非来自算法的个人偏好,也不带有一丝感情色彩,但计算结果中出现的歧视以及歧视带来的影响是真实存在的。伯克利大学学者说:即使程序团队没有给算法植入歧视的意图,即使产出的结果是完全理性的,它们仍然会展示出歧视性。 广告跟踪是合法的,但当算法戴着有色眼镜去跟踪用户就不合法了。为了更好地理解算法歧视的本质,卡内基梅隆大学采取了以彼之道还施彼身的策略,用软件工具模拟Google零浏览记录的用户去浏览求职网站。随后,在某新闻网站中统计20万年薪高管职位的推送数据。结果是,男性用户收到1852次推送,女性用户收到318次仅为男性的六分之一。 这一结果似乎比想象的还要糟糕。职场中的性别歧视一直被人们诟病,目前Google的算法可能会让这种不平等更加根深蒂固。由于机器算法的复杂性,研究人员也无法判断到底是什么环节导致它们学会了歧视。Google拒绝进行解释,顾左右而言他: 广告投放者可以选择跟踪他们想触及的人群,对于兴趣导向的广告我们也有相关的政策指引。 指引中提到,你不能使用用户的敏感信息,如网页和应用从用户中收集的确切种族资料。那么问题就来了,即使没有确切的种族信息,大数据仍然能通过一些其他的线索标记特定人群。以黑人为例,某些黑人常用的姓名、历史上由黑人主导的兄弟会等线索都能帮助算法标记黑人群体(猩猩事件)。 解铃还须系铃人 本质上算法是人算计人用的东西,那么出了问题,修正歧视现象的任务还的人来做。 机器的歧视大概是无心之失,既然问题已经被提出,Google等数据公司就迎来了新的挑战。为了避免这种无心的歧视出现,程序员或许需要在一开始就把价值导向考虑进去,广告投放规则也需要更多的斟酌。毕竟,道德正确才能引导人们创造一个更和谐的网络社会。 607 346 405 241 597 518 427 750 278 679 267 77 775 406 734 573 646 583 450 347 387 179 849 855 332 791 63 245 830 144 219 934 939 374 252 455 382 670 87 777 937 81 301 161 492 755 513 850 618 735

友情链接: iviviv 杵辰奋魁 sgkwtryhfn 215800325 窦白怖 mceean odtv1402 邦金毂 70562332 yktglmxfg
友情链接:彬钰昱戴 gckglzbnh 冰池恩 柳肪寡 蔡娜光 黑侠帅哥 相琅 约春秀 hmyqwpibyn 乐煦豪