029 | 被偏见感染的算法

2023-07-12 19:03:2636:23 405
所属专辑:北小河FM
声音简介

算法时常带有偏见。比如人脸识别的算法识别男性就比女性准确率更高,甚至还出现过把黑人识别成大猩猩的情况。最近两位谷歌公司的伦理科学家因为关于算法偏见的争议,先后离职。

有科学家说,“世界上有些人世世代代都在遭受歧视和边缘化,而技术又在此基础上添砖加瓦”。

“歧视”本身是人类社会一直没有解决的问题,算法的出现不过是将问题继续延续,甚至变形。那人类要如何教会算法公平?是不是能够提出相对公平的原则来训练和使用算法?

本期北小河FM从谷歌裁员风波聊起,谈了谈偏见可能给普通人带来哪些利益损害,以及在谈论“算法公平”时,差距、偏见、公平这些概念的复杂关系。你听了之后是否会有自己的思考和观点?欢迎留言告诉我们。

【本期话题人员】
刘都统 有点资深的科技记者
凌梓郡 科技记者

【时间轴】
00:13 一篇论文,引发谷歌AI伦理团队两位领导人离职
03:18 算法偏见的例子
08:04 现实世界本身就存在差异,到算法就构成“偏见”吗?
15:05 技术在加剧偏见吗? 
17:49 算法偏见可能伤害到普通人的利益
24:19 “公平”在算法中很难定义

【本期策划/撰稿】凌梓郡 刘都统
【后期制作】王立冰

【相关名词】
BERT:谷歌在2018年发布的用于自然语言处理(NLP)的预训练技术。发布时,它在许多自然语言理解任务上取得了最先进的表现。2020年10月,谷歌表示,几乎每一次英语查询都会用到BERT。

蒂姆尼特·格布鲁(TimnitGebru):计算机科学家。研究专注于算法偏差和数据挖掘,倡导技术多样性,也是人工智能黑人研究团体 Black in AI 的创始人之一。2018年底加入谷歌,担任伦理人工智能团队技术联合主管。2020年12月因为一篇谈论大型语言模型的风险论文而离职。论文的名字叫做《随机鹦鹉的危险:语言模型是否太大了?》(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big)

玛格丽特·米切尔(Margaret Mitchell):计算机科学家。与格布鲁共同创立并领导了谷歌伦理人工智能团队,直到2021年2月被解雇。在被解雇前,她被谷歌进行了为期五周的调查,谷歌表示她违反了公司的行为准则和安全政策。

【收听方式】
推荐您使用Apple播客、小宇宙APP、喜马拉雅和网易云音乐,搜索“北小河FM”收听我们。此外,您还可以下载全现在APP,在订阅我们的同时,获取更多深度资讯。


如果您想在任何泛用型播客找到我们,除了搜索“北小河FM”,还可以通过复制我们的RSS地址,在相关播客平台完成订阅。

RSS地址:fm.allnow.com/rss

【本节目由为何鸭出品】
【互动方式】微信公众号:为何鸭
联系方式:weiheya@88.com

用户评论

表情0/300

听友225560968

数据分析结果被运用在犯罪防范是必然

猜你喜欢
偏见

一对一访谈聊天的方式,让我们“看见人的另一面”,发掘每个人的底层认知,内在源起等,让我们开启一段“向内求”的探索旅程

by:陈小仙在1988

偏见看政治

尽一切恶得须陀洹,然后布施远离诸苦,受苦众生令得解脱,怖畏众生令得远离。过去心不可得、现在心不可得、未来心不可得,应无所住而生其心,是法平等,无有高下。

by:强烈的意志和信心

傲慢和偏见

傲慢与偏见:外国文学名著,为你阐述全世界最伟大的爱情小说之一。

by:janet52

电玩有偏见

不随大众,表达个人观点;另辟蹊径,共享别样思维;我们是玩家,游戏才是本体;我是萝卜喜之郎,一个偏见的电玩游戏评论员。

by:电玩有偏见

傲慢与偏见

作者简·奥斯丁生于1775年,卒于1817年。《傲慢与偏见》属于作者的前期作品,初稿于1796年10月至1797年8月,取名《初次印象》,1813年1月30日问...

by:LZ爱珠

傲慢与偏见

喜马平台提供的练习素材!

by:尚柱

傲慢与偏见

小说描写了小乡绅班纳特五个待字闺中的千金,主角是二女儿伊丽莎白。她在舞会上认识了达西,但是耳闻他为人傲慢,一直对他心生排斥,经历一番周折,伊丽莎白解除了对达西的...

by:小朽木呀

傲慢与偏见

《傲慢与偏见》(PrideandPrejudice)是英国女小说家简·奥斯汀的创作的长篇小说。小说描写了小乡绅班纳特五个待字闺中的千金,主角是二女儿伊丽莎白...

by:花园里的流星

傲慢与偏见

萌新的作品!!《傲慢与偏见》希望大家能喜欢。评论区多多指教♡♡♡

by:LovIy_