|
其实不完全算偏题,因为人脸识别也是算法…… |
|
私有制下的很多深入浅出的角度和表达,主要是在人脸识别监控下的不同人种、肤色、贫富的现实情况,内容整体是比较丰富的。 |
|
当年刚入职前东家的时候,师傅说,我们现在做的这些项目,说小了必须要经过Algorithmic Impact Assessment,说大了要做好准备随时上国会hearing的,所以每次选择你们的模型调整你们的代码的时候都要想好怎么解释。那句话我记到现在。 |
|
嚼了长达俩小时的蜡 严谨性上非常差 巨大的eurocentrist凝视令人感到无法下咽 |
|
seminar reading | 有点无聊 叙事夸张 |
|
我们中国人头顶着信用分数交朋友👭 |
|
很有啟發作用的一部電影。01:12:39,080 in the age of automation is one of the largest civil rights concerns we have(在自动化时代,算法正义是我们最大的民权问题之一)。從世界範圍(要減去東亞窪地)來看,人面識別以及AI產生的糾紛和錯誤很多,不是隨機性的錯誤而是系統地存在偏差bias的錯誤,亦即不滿足“無偏性”的判斷方法,在統計學的標準中是根本沒有存在資格的。東亞窪地之內,根本不存在討論這個問題的必要性。此處的人們不配。 |
|
我寻思单独提到拆尼斯的导演团队你们何尝又不是一种coded bias呢。 |
|
哈哈感觉在观察美国人观察中国的目光 plus感觉主要强调的是人脸识别以及相关技术算法背后的歧视和对监管的缺乏,我觉得有道理,但是在这个问题上扯上中国就有点make no sense |
|
给的例子密度不够高,在不同的social context做的对比很二元,讲的事情很直白所以有点撑不起这个时长 因此说教感确实挺重的。但是大家也跳脚跳得太厉害了吧!!!!!! |
|
最喜欢的教授week3必看片单,引人深思却又细思恐极,完美结束这周! |
|
政治正确得不知道怎么评价好 |
|
要求ai不biased的时候先自己做到不biased吧 |
|
如果技术成为了彻底的黑箱,在没打开之前至少应该有监控手段。当然这部片会有强烈且偏颇的政治倾向,但一个感想是很多国外纪录片的最后都是以法案通过为结尾的,我不知道实际执行怎么样,但是至少看起来像是一个可以争取博弈的空口。遗憾的是我想不出这一点在这里落实的可行性……难道要当人大代表来争取权益吗…… |
|
有偏见有真实 |
|
有些东西超出我们的认知,我们就会觉得是真的。 |
|
歧视的确很明显了…… |
|
拿中国举例之前,麻烦多做一些田野调查,不要觉得拍摄里放一个中国人,说一些中国话,就能代表全中国。另外,花钱请个正经翻译。没钱的话去社交网站问问网友,也不至于把match confidence翻译成比赛信心。 |
|
本来以为是个很福柯的纪录片,分析ai和算法的偏见与权力,看到最后继续感叹福柯的厉害,黑人白人的关系最终变成了一种simple refusal,黑人变成权力关系中的pervert。(原本黑人脸,女人脸相比于白人脸,男人脸的脸部识别率低很多)为了创造一个更“包容”的社会,“反抗”这个不公平的社会现状,大家开始发明新的技术让黑人脸和白人脸拥有了相近的识别率。“problems” extend the power。 |
|
确实非常不严谨 |
|
一些老生常谈的东西,目的是传递情绪,而不是传递信息,一堆碎片拼接起来,一会是人脸识别训练集太狭隘,认不出黑人,一会是 Twitter 机器人接触太多真实信息,满嘴政治不正确,那么到底应该更多人工干预,还是更多放任自流?啥建议也没给出。不过少数群体是主流人群的缓冲区,尤其是积极维权的少数群体,他们的努力保障了社会不会太过偏激,至少保持着一点反省的态度 |
|
What the actual fuck?! netflix纪录片真的越来越不想看…流水线生产 |
|
Oliver作为课前作业推荐的Doc。作为教材确实提供了一些事实性的信息增量,适合对算法没有任何认知的入门者观看。但作为一部纪录片实在是太不合格了,这是纪录片还是presentation配音画啊,只有非常主观的视角和一堆做作的摆拍和采访。 |
|
课内作业。very superficial,麻麻地 |
|
辩证的看待所有事物,以及永远对互联网保持警惕 |
|
只接受过一种教育、或者觉得这个世界只有一种真理、觉得没有democracy就是错误的人,真是可怜。一个讲coded bias的所谓纪录片,也带着coded bias来仇视中国、仇视富人、仇视成功的人,在反对中国用科技保证社会秩序的同时还在抱怨自己的社会不安全,真是可笑。多给一颗星告诉你们这些打四星五星的人:好好用用脑子来思考吧,不是所有英文的东西都要学的。 |
|
老大哥在看着你,论点基本都是常年争论点。 |
|
靠信用评分交友真的有脑子吗。。。 |
|
片中试图涵盖多元视角,但每个视角都只是浅浅带过,使人不禁疑惑,你说得也有道理,可是事物永远有两面性,全面禁用新技术就一定是最优解吗?结尾的那个苏联例子,本质就是在说,美国向苏联投原子弹,苏联方面不反击等着挨打亡国才是正义的?反复看了几遍实在没有其他角度可以理解,敢情还是白人西方中心主义思想,结合本片前面政治正确的种种作秀式自恋,只能说剖开典型自以为是的白左大脑大概就是本片这样了:自相矛盾而经不起审视,当然,他们的优越感太强了不需要自我审视。两年前不能理解为什么朋友如此反感白左,时至今日发现我和他的反感强度不相上下,可能这也是我们为什么是朋友的原因吧。 |
|
biased |
|
我们需要公平的算法(纪录片中主要是指人脸识别的算法),不带有种族歧视、性别歧视、残障人士歧视等,算法需要被监管,要能对社会做出有益的事,而不是被商业机构用来赚钱。 |
|
你以為大數據是準的是中立的嗎? 不! 大數據就沒脫離數據本質, Garbage in, garbage out, 很多時候, 我們太多人有太多偏見, 有意的無意的惡意的, 都是偏見, 這些都丟給AI學習, 自然他們就是更糟糕的AI, 這一點是我之前沒有思考過的, 也是看完此片學習到的新的視角! 片中舉了許多美國的慘痛案例, 值得深思. |
|
居然是在公司DEI组织的watching party上看完的。其实拍的还可以,关于algorithms black box和实际上是对人类自己bias的反射的思考挺好的。最扯的是test confidence奈飞翻译成“比赛信心”… |
|
there is bias in coded bias, bias is just fking everywhere |
|
太散了,大部分在讲人脸识别带来的个人隐私问题,和编码歧视不切题。 |
|
感觉视频里也存在bias… |
|
讲了算法歧视但又什么都没讲,原来是个新闻综述 |
|
在享受大数据,高科技和算法带来便利的同时很少会注意到,我们又为此付出了什么,是否被滥用的信息,是否被机器误判的结果。我们一边调侃着大数据就像我们肚子里的蛔虫,一边又在享受其中的便利而不思考为此我们付出了什么,我认为这是非常可怕的。同时影片中提到,人工智能是通过历史数据来推测未来,从而得出结论来推动事件发展,如此一来,社会进步是否会停滞不前。大数据是否出现不平等都不会被消除,但是大数据和人工智能是会加剧不平等,我认为是每个在享受大数据的普通人应该被告知和思考的 |
|
算法影响选票、算法分配信用额度、算法监控罪犯、算法解雇员工、算法让骑手闯红灯;但是没有人知道算法是怎样工作的 |
|
关于现在和未来的一部,好复杂的问题,只选择了一个面,但没有拍出事件感,还是比较琐碎。
|
|
还行,又不太行 |
|
太琐碎了,专题纪录片,老生常谈的话题,没做出太多新意 |
|
不太行 一个道理反复说 |
|
有被冒犯到 但不得不说一针见血 |
|
热评第一把我想说的都说了 |
|
Intelligence without ethics is not real intelligence.
多數人可能覺得AI具有前瞻性和先進性,但人工智能基於數據,而數據承載著過去。所以歷史中的一切不平等如種族歧視、性别歧視等也存在於算法中。很典型的一个例子是微软在推上搞了个bot叫Tay,让它不断学习推上的数据,然后不到24小时Tay就变得厌女和歧视犹太人和黑人…看完整个纪录片后,问题来了,该如何在一個我們不知道算法如何運作的系統里獲得公平?或许用法律阻挡人脸识别的滥用是第一步,可是下一步呢? |
|
“机器只是简单复制已存在的世界,它没有做出符合道德伦理的决定,它们只会做出符合数学定律的决定。如果我们用机器学习模型来复制今天的世界,社会是不会有任何进步的。” |
|
you can't experiment with people's rights |
|
2022年5月12日看过 |
|
編碼誰寫的?我們都知道人類存在於演算法之前,那就會有意識形態,因為程式碼只要是人類編寫就不存在公平,種族、性別等缺陷的歧視行為永遠存在。 |