{}
您的位置:首页 » 资讯 » 文化科技 » 这是一个看脸的世界:根据相貌,AI就能测出你的观点和智商

这是一个看脸的世界:根据相貌,AI就能测出你的观点和智商

阅读:590  评论:0  收藏:0 文/     发布于 2017/09/18

标签: 人工智能AI人脸识别智商麦乐网

{}

摘要: 我只不过长得粗犷点,AI 就说我有暴力倾向?

编者按:人们的面部已经被相关研究人员给“琢磨”透了。做出来利用人工智能检测人们性取向研究的教授Michal Kosinski表示,用人们的面部来检测出来性取向只是一个非常小的方面。利用人工智能对人们的面部进行检测,还能判断他们的政治倾向、犯罪倾向、智商等等等等。本文发表在《卫报》,原题为“Face-reading AI will be able to detect your politics and IQ, professor says”,由36氪编译。

这是一个看脸的世界:根据相貌,AI就 能测出你的观点和智商

一些研究人员表示,不久之后,计算机程序就能准确地判断出美国选民是自由派还是保守派。所需要的仅仅是他们面部的照片。

Michal Kosinski是斯坦福大学的教授,他因前不久的研究——表明人工智能能够根据照片检测人们是同性恋还是异性恋而迅速出名。他说,性取向只是算法能够通过面部识别来预测的许多特征之一。

通过照片,人工智能将能够识别人们的政治观点,他们是否拥有高智商,他们是否有犯罪倾向,是否有特定的性格特征,以及许多其他私人的个人信息,这些细节可能会给社会带来巨大的影响,他说。

Kosinski表示,他预计在不久的将来,面部识别技术会引发了复杂的道德问题,即隐私受到侵蚀,以及可能会滥用人工智能以攻击弱势群体。

他说:“面部是汇集了多种因素的可观测指标,比如你的生活史、你的发展因素,以及你是否健康。”

面部包含大量信息,使用大型的照片集,复杂的计算机程序可以发现趋势,并学习如何将关键特征与较高的准确性区分开来。在Kosinski的“同性恋者”AI中,算法使用在线约会的照片创建一个程序,可以在极高的正确率下识别人们的性取向(男性91%,女性83%),只不过是通过查看几张照片而已。

Kosinski的研究极富争议性,并面临LGBT权利团体的强烈反对,他们认为人工智能存在缺陷,反对同性恋的政府可以使用这种软件来对付同性恋者并迫害他们。不过,Kosinski和其他研究人员认为,强大的政府和企业已经拥有这些技术能力,而在努力推动隐私保护和监管方面的保护措施方面,至关重要的是要揭露可能存在的危险,因为在这些保护措施与人工智能的发展没有同步。

Kosinski是教组织行为学的助理教授,他说他正在研究面部特征和政治偏好之间的联系,初步结果显示,人工智能通过人们的面部特征来猜测政治倾向是有效的。

他说,就像研究显示的那样,这可能是因为政治观点似乎是可以遗传的。这意味着,政治倾向可能与基因或发育因素有关,这些都可能会导致面部差异。

Kosinski说,之前的研究发现,美国保守派政客往往比自由派更有吸引力,这可能是因为长相好看的人有更多的优势,更容易在生活中取得成功。

这是一个看脸的世界:根据相貌,AI就 能测出你的观点和智商

Kosinski说,人工智能在监测那些极度偏左或偏右的人的时候表现最好,对大量中立的美国选民来说,并不是那么有效的。“一个较高的保守分数……会是一个非常可靠的预测,这个人是保守的。”

Kosinski也因其在心理测量方面的争议性研究而闻名,包括使用Facebook的数据来推断性格。数据公司Cambridge Analytica也用类似的工具为支持特朗普竞选的选民提供支持,这引发了关于在竞选中使用个人选民信息的辩论。

Kosinski说,面部识别也可以用来推断智商,这表明未来学校招生时时可以考虑使用面部扫描的结果。这一应用引发了一系列伦理问题,特别是如果人工智能正在研究某些孩子是否在基因上更聪明的时候,他说:“我们应该考虑如何做,来确保我们不会出现类似于‘一个更好的基因,意味着更好的生活’的论断。”

Kosinski的一些建议让人想起了2002年的科幻电影《Minority Report(少数派报告)》,在这部电影中,警察在根据预测就把那些未来有谋杀可能的人给逮捕起来了。这位教授认为,社会的某些领域已经以类似的方式运作。

他说,当学校的辅导员在观察那些表现出攻击性行为的孩子时,他们会进行干预。他说,如果算法可以用来准确预测哪些学生需要帮助和早期支持,这可能是有益的。“这些技术在表面上听起来很危险,也很吓人,但如果使用得当或合乎伦理,它们真的可以改善我们的生存。”

然而,越来越多的人担心人工智能和面部识别技术实际上是依赖于有偏见的数据和算法,并可能对人们造成巨大的伤害。在刑事司法的背景下,这尤其令人担忧。在刑事司法体系中,机器可以根据法庭和警察系统中的偏颇数据作出审判,比如刑期的长短,或者是否释放某人的保释。这些数据来自法院和警察系统,每一步都带有种族偏见。

Kosinski预测,如果有大量的个人面部图像,算法就可以很容易地检测出这个人是否是精神病患者,或者是否有较高的犯罪倾向。他说,这尤其令人担忧,因为犯罪倾向并不会转化为犯罪行为:“即使是有高度犯罪倾向的人也不太可能犯罪。”

他还引用了《经济学人》中提到的一个例子,在人工智能用于性取向研究被报道出来之后,夜总会和体育场馆可能会面临压力,要求人们在进入之前扫描面部,以发现可能存在的暴力威胁。

Kosinski指出,在某些方面,这与人类安全警卫对他们认为危险的人做出主观决定并没有太大不同。

卡尔加里大学环境设计和计算机科学教授Thomas Keenan说,法律通常认为人们的面孔是“公共信息”,并指出法规并没有跟上技术的发展:“当使用某人的面部来产生新信息时,没有任何法律认为这是建立在侵犯隐私的情况上。”

Keenan说,可能需要发生一场悲剧来引发改革,比如一个同性恋青年被殴打致死,因为恶霸用一种算法来攻击他:“现在,你把人们的生命置于危险之中。”

即使人工智能能够做出准确的预测,也有一定比例的预测是不正确的。

Keenan说:“你正沿着一个非常滑的斜坡走下去,不管是二十分之一,还是一百分之一……预测都不是完全准确的。”

原文链接:https://www.theguardian.com/technology/2017/sep/12/artificial-intelligence-face-recognition-michal-kosinski

麦乐网,暨青年创意科技文化社区,国内首家面向文创科技领域的职业社交平台。第一时间播报文化创意、文化科技产业资讯,深度解读文化创意、文化科技产业模式,为文化创意、文化科技人才提供产业资讯、职业社交、作品共享、IP交易等综合职业服务。关注微信公众号:mediaclubcc,或登录网站:www.mediaclub.cc投稿。欢迎致电:010-85786221。

【本文只为传播信息之目的,不代表麦乐网认同其观点和立场,以及认同文中所述皆为事实】

  • 收藏
  • 点赞 1
登录 | 注册  
相关文章
最新更新
最新创客
麦乐网  青年创意文化社区
麦乐网
关于我们
权益声明
帮助中心
合作服务
网站地图
友情链接
新华网
人民网
央视网
凤凰网
钛媒体
虎嗅网
36Kr
CreativeBoom
InspirationGrid
uFunk
DLL下载
古诗网
私信
  • 最近联系人
  • 我的麦友