人工智能机器人没有感情,也会区别对待人类?
人有七情六(liù)欲,所(suǒ)以在对待一些事情上,很多(duō)虽然说好是(shì)秉公(gōng)办理,公事公办,但多少都会有所偏(piān)差(chà),会(huì)感情用(yòng)事,这(zhè)个无可避免,智能尽量减少,但在大众的认知中(zhōng),人工智能的决策都(dōu)是绝对理性与客观的,因为(wéi)我们知道背后驱使(shǐ)它的是冷(lěng)冰冰却比千言万语更接近事实的数据,然(rán)而,近期(qī)专(zhuān)家发现,人工智能其(qí)实也会带着有色眼镜去看(kàn)人。
据国外媒体(tǐ)报道,斯坦福大学的一项(xiàng)研究显示,亚(yà)马逊、苹果(guǒ)、谷歌、IBM和微软的语音识别系统存在种族差异,在(zài)白人用户中(zhōng)出(chū)现的错(cuò)误,要(yào)比在(zài)黑人(rén)用户中(zhōng)少得(dé)多。
研究显示,这五大科技(jì)公司的语音识别系统在白人中错误识别单(dān)词的概率为19%。而在黑人用户中(zhōng),则提(tí)升至35%。此外,大约2%的白(bái)人音频片段被这(zhè)些(xiē)系统认为(wéi)是(shì)不可读的。而在黑人用户中,这一(yī)比(bǐ)例(lì)却高达20%。
美国国家标准与技术研究所(NIST)也曾测试(shì)了两种(zhǒng)最常见的人脸识(shí)别算法,得出(chū)了四点结论:
1. 在(zài)一对一匹配(pèi)中,大多数系统对亚裔和非裔(yì)美国人比对白人面孔的假阳性(xìng)匹配率更高,有时是(shì)10倍(bèi)甚至100倍。
2. 这种情况在(zài)亚洲国家发展(zhǎn)的人脸识别算法中有所改变,在亚洲(zhōu)和白人之间,假阳性的差(chà)异非常小。
3.美国开发的算法(fǎ)始终(zhōng)不擅长匹配亚洲(zhōu)、非洲裔美国人(rén)和美洲原住民的面孔。美国(guó)原(yuán)住民得到的是错误率最高(gāo)。
4. 在一对(duì)多(duō)的配对中,非裔美国女性的(de)假阳性率最低,这使她们被错误指控犯罪的风险(xiǎn)最高。
事实上,早在(zài)2015年就已经(jīng)存在计算机视觉技术犯错的例子,表(biǎo)明人(rén)工智能技(jì)术存在对女性和有色人种(zhǒng)的偏见(jiàn),实(shí)例包括Google 等科技业巨(jù)头所(suǒ)提供的高人气网络服务,Google 照片应用程序(Google Photos app)被发现将非裔美国(guó)人标记为「大(dà)猩猩」,谷歌曾也为(wéi)此(cǐ)进行公开道歉。
在探讨如何消除人工智能的不客观之前,我们先来看(kàn)看AI的(de)有色眼镜(jìng)到底从何而来(lái)。
数据是“罪魁祸(huò)首”
现阶段让AI提升认知世界能力的最(zuì)有效途径(jìng)仍然是监督学习,而(ér)目前AI算法能学习的(de)数据(jù),几乎全部都(dōu)是(shì)通过人力逐一进(jìn)行标注而得来(lái)的,数据(jù)集质量(liàng)的高低直接决定最终模型的(de)效果。
数据标注者通常是人类,而人类是“复杂”的生物。这也是导致AI产生(shēng)偏见的一个主(zhǔ)要因(yīn)素,大多数机器学习任务(wù)都是使用大型、带标注(zhù)的数据集来训练,AI会基于(yú)开发者提供的训练数(shù)据推(tuī)断出(chū)规律(lǜ),再将规律套用在(zài)某些资料中(zhōng)。
打个比(bǐ)方,在人脸识别应用中,如果用(yòng)于训(xùn)练的(de)数据里(lǐ)白人男(nán)性比黑人女性更(gèng)多,那(nà)白(bái)人男性的(de)识别率(lǜ)将会更高。
导致AI产生偏见另一个原因可以归于算法本身,一个常(cháng)见的机(jī)器学习(xí)程序会试图最大化训练(liàn)数据集的整体预测准(zhǔn)确率。
有缺(quē)陷的算法还(hái)会(huì)造成恶性循环,使偏见越(yuè)发严重(chóng)。例(lì)如谷歌(gē)翻译,会默认使用男(nán)性代词,这是因为英语语(yǔ)料库(kù)中(zhōng)男性代词对女(nǚ)性代(dài)词的比例为2:1。
算法的原则是由AI自行进行学习,乍看之下很有(yǒu)效(xiào)率。不过(guò),一(yī)但提供的资料不够全面,或开发者没有想(xiǎng)方设法避(bì)免歧视,AI推导出的结(jié)果(guǒ)便很容(róng)易带有偏见。
AI并不理解“偏见”
偏见这(zhè)个(gè)词是人类创造的,也是人类定义的,AI并不能理解偏见的(de)含义。
机(jī)器(qì)学习的(de)方法会让AI带上了有色眼(yǎn)镜(jìng),但是改变 AI 学习的方(fāng)式也不(bú)是好(hǎo)的解决方式。
或许我们应(yīng)该(gāi)从(cóng)自己身上找找原因,毕竟导致AI产生偏见的(de)原因,有(yǒu)部分要归咎于他们(men)所使用的语言。人们需要弄清楚什(shí)么(me)是(shì)偏见,以及偏见在语言(yán)中的传递过程,避(bì)免这些偏见在(zài)日(rì)益(yì)强大的 AI 应用中(zhōng)更大范(fàn)围(wéi)的(de)传播。
前微软副(fù)总裁沈向洋(yáng)博士曾在(zài)公(gōng)开课(kè)《打(dǎ)造负责(zé)任的AI》中指(zhǐ)出:“人工智能已经开始做出人类无法(fǎ)理解(jiě)的决定了,我们(men)需要开启人工智能的黑(hēi)箱,了解AI做出决(jué)定背(bèi)后的原因。”
算法之(zhī)所以会对人类进行区别对待,原因(yīn)在于训练算法用的基(jī)准(zhǔn)数据集(jí)通常是(shì)来自新闻和网页(yè)的数据,就存在(zài)着由语言习惯造成(chéng)的“性别偏见(jiàn)”,算法也自(zì)然“继(jì)承”了人(rén)类对这些词汇理(lǐ)解的性别差异。
AI技术距离完全消除技术偏(piān)见还有很长的一段路,但各大巨头也已(yǐ)经在技术层面(miàn)做出努力。
谷歌开源了一(yī)项名为“What-If Tool”的探(tàn)测工(gōng)具,IBM将(jiāng)研发的(de)偏见检(jiǎn)测工具—AI Fairness 360 工具包开(kāi)源(yuán),包(bāo)括超过 30 个公平性指标(fairness metrics),和 9 个偏差缓(huǎn)解算法(fǎ),研究人员和开发者可将工具整合至自己的机器(qì)学习模型里,检测并减少可能产生(shēng)的偏见(jiàn)和歧视。
人类的行为是收到外界影响的(de),而这种语(yǔ)言传统中出现的偏见(jiàn),是(shì)在人文历史中不断加深嵌入的,在“偏见”通过(guò)代码传(chuán)播之际,我们必须弄清(qīng)楚,是(shì)否简单的语言学习就足(zú)以(yǐ)解释我们观(guān)察到传播中出现的偏见。
最重要的是(shì)大众需(xū)要了解“偏(piān)见”从何而来,从而在(zài)社(shè)会中(zhōng)消除这(zhè)种不(bú)文明的“偏见”。