“通用人工智能可(kě)能无法(fǎ)被治理,因为传统的责任分配和惩罚(fá)执行(háng)方法并不适用。”
近日,美国路易斯维尔大(dà)学教授罗曼·扬波尔斯基(Roman Yampolskiy)就人工(gōng)智能(néng)治理问(wèn)题接受了澎湃新闻(www.thepaper.cn)记者专访。
他认为,在某些重要方面,我们无法治理(lǐ)比人类更(gèng)聪(cōng)明的人(rén)工(gōng)智能。“一个能力强大、富有创造力且不受控制的通用人(rén)工智能最终可能(néng)会隐式甚至明确地(dì)控制管(guǎn)理此类智能软(ruǎn)件的一些(xiē)机构和个人。”
罗曼(màn)·扬波尔斯基是(shì)美国路易(yì)斯维尔大学网络安全实验室的(de)创始人和主任,著(zhe)有《人工超级智能:未来(lái)的方法(fǎ)》等书籍。他的主要研究兴(xìng)趣有人工智能安全、模式识别、生(shēng)物行为识(shí)别等。扬波尔斯基曾受邀出席2020年首届清华大学人工智能合作与治理国际论坛(tán)。
通往通用人工智能的尝试
通用(yòng)人工智能( Artificial general intelligence,简称(chēng)AGI),有时也被称作强人(rén)工智能,它(tā)所描述的机器智能可以理解或学习人(rén)类所能完成的(de)任何智(zhì)力任务。
多智能体系统教父、牛津大(dà)学计算机科学系主(zhǔ)任(rèn)Michael Wooldridge在接受澎湃新闻(www.thepaper.cn)采访时表示,如(rú)果我们(men)能构建(jiàn)具有人类全(quán)部能(néng)力(lì)和智(zhì)力的程(chéng)序,那我们(men)就(jiù)将实现通用(yòng)人工智能。但当前,“我们连通用人工智能的皮毛都还(hái)没有(yǒu)碰到(dào)”。
关于人工通用(yòng)智能能否实现、何时实现的问题,业内有不同(tóng)的观点。部(bù)分人工(gōng)智能学者认为(wéi),人工(gōng)通用(yòng)智能的概念并(bìng)不严肃,在(zài)实践中基本不可(kě)能实现。另一些(xiē)人则十(shí)分看好人(rén)工通用智能的发展(zhǎn),认为它有可能(néng)塑造人类的发展轨迹。
例如,图灵奖得主拉吉·雷迪(Raj Reddy)认(rèn)为,研究通(tōng)用用途的(de)人工智能(néng)毫无用处。“用(yòng)AI能(néng)开发(fā)出的东西是无穷无尽的,但研究人员(yuán)应专注研究(jiū)如(rú)何用AI增强人的能力,而不只是增强AI的能力(lì)”。 清华(huá)大学类脑计算中心主任施(shī)路平则表示,从未(wèi)来发展(zhǎn)的角(jiǎo)度看,人工(gōng)通用智能是一个必然的(de)趋势。
尽管学界对是否应发展(zhǎn)通用人工智(zhì)能存(cún)在(zài)分歧,科研公司和(hé)高校已经开始相关尝试(shì),通用人(rén)工智(zhì)能的伦理(lǐ)问题也日渐显现。
2019年(nián)7月,微软宣(xuān)布向非营利性人工(gōng)智能研究(jiū)公司(sī)OpenAI投资10亿美元研发(fā)人工(gōng)通用智(zhì)能。2019年8月,清华(huá)大学在(zài)学术期刊(kān)《自(zì)然》发表《面向(xiàng)人工通用智能的异构天机芯片架构》研究。2021年1月,谷(gǔ)歌(gē)和(hé)微软相继在(zài)一份权威自然语言理解榜单(dān)中表现超(chāo)越人类(lèi),微软(ruǎn)宣称这“标志着(zhe)迈向通用人工(gōng)智能(néng)的重(chóng)要里程(chéng)碑。”
在采访中,扬波尔(ěr)斯基(jī)介(jiè)绍,为了使未来的人(rén)工(gōng)智能造福于全人类(lèi),针对人工智能的治理计划试图通过(guò)建立监管(guǎn)框架和行(háng)业标准等方式,使(shǐ)人(rén)工(gōng)智能(néng)可以被各国政府、国际组织和跨国公(gōng)司控制(zhì)。
但(dàn)他(tā)指出(chū),直接治理人工智能是没有(yǒu)意义的,“‘人工智(zhì)能治理’这个术(shù)语暗示的是,通过规(guī)定(dìng)允许开发什么样产品和服务以(yǐ)及如何开发,来管理人工(gōng)智能研究员和创造者”。
他认为,无论(lùn)对从事人工智能研(yán)究的科学家(jiā)和工程师实施(shī)何种(zhǒng)管理,都取决于(yú)创(chuàng)建人(rén)工(gōng)通用智能(AGI)的(de)难度。
“如果创造通用人工(gōng)智(zhì)能所必需的计算资源和数(shù)据收集工(gōng)作,在(zài)资(zī)金和人力资本方面与美国的曼(màn)哈顿计(jì)划(美国(guó)研制原子弹的计(jì)划)相当,那(nà)么(me)各(gè)国(guó)政府就有许(xǔ)多(duō)‘胡萝卜加大棒’,可以用来指导研究人(rén)员,并按(àn)照自己(jǐ)的规(guī)范塑造未来的人工智能。”
但另一(yī)种情况(kuàng)下,他分(fèn)析道,如果(guǒ)有更有效的(de)方法来(lái)创造第一个通用人工智(zhì)能,那么政府的监管尝(cháng)试可(kě)能是徒劳的。“例(lì)如,一个(gè)青少年(nián)在车库里用(yòng)一台(tái)价值仅(jǐn)1000美(měi)元的笔记本电脑创造出第一个通用人(rén)工智能。虽(suī)然可能(néng)性很小(xiǎo),但这(zhè)种情况也需要考虑。”
总而言之,“历史上,很多对软件治理的尝试,例如垃(lā)圾邮(yóu)件、计算机病(bìng)毒(dú)和深(shēn)度伪造技术(Deepfake)等,都(dōu)只取(qǔ)得了非(fēi)常有限的成功。而作为一个独(dú)立代理,通(tōng)用人工智能可能无法被(bèi)治(zhì)理,因为传统的责任分配和惩罚执行方法并(bìng)不适用。”
扬波尔斯基认为,即使遇(yù)到第(dì)一种(zhǒng)情况,即(jí)创造通用人工智能(néng)需要密集的资源,我们仍然(rán)对人工智能的可预测性、可解释(shì)性和(hé)可(kě)控(kòng)制性存在一些既(jì)定的技术限制(zhì)。“至少需(xū)要这三种能力(lì)才能够(gòu)部分实现对(duì)人(rén)工智能(néng)的成功监管,这(zhè)也就意味着,在某些重要方(fāng)面,我们无(wú)法治理比人类更聪明的人工智能。”