博鱼官方网页版-博鱼(中国)




  1. 咨询热(rè)线:021-80392549

    博鱼官方网页版-博鱼(中国) QQ在线 博鱼官方网页版-博鱼(中国) 企业微(wēi)信
    博鱼官方网页版-博鱼(中国)
    博鱼官方网页版-博鱼(中国) 资讯 > 人工智能 > 正文

    人工智能不应成为法(fǎ)律主体

    2024/08/16中国(guó)网(wǎng)282

    | 孙(sūn)良国(guó) 大连海事大学法学院教(jiāo)授(shòu)

    人工智能的治理(lǐ)是一项复杂的(de)系统工(gōng)程(chéng),也(yě)是(shì)人类面对(duì)的核心问题之一。我国(guó)人工智能的发展要引(yǐn)领世界,就必须设计能(néng)够支(zhī)撑人工智(zhì)能(néng)可持续发展的治理机制。其(qí)中,法律作(zuò)为治国之重器,应当在人(rén)工智能的治理中发挥重要作用(yòng)。在人工智能(néng)的法(fǎ)律(lǜ)治理中,一个重要议(yì)题是,人工(gōng)智能是否应当成为(wéi)法律(lǜ)主体。在世界(jiè)范(fàn)围内(nèi),此问题引起(qǐ)了巨大的学术争论(lùn)和社会争议,不同甚或对立的观点不断登场,远未达成共识。笔者的观点(diǎn)是,人工智(zhì)能不应当成为(wéi)法律(lǜ)主(zhǔ)体。

    从实证法的角(jiǎo)度看,立法机关可以通过法律认(rèn)可任何组织、实体或(huò)者(zhě)其(qí)他事物作为法律主体。任何突破传统法律(lǜ)制度的(de)新制度,都必须是经过(guò)价值判断后(hòu)的恰当结果。人工智能是否应当成为法律主体,取决(jué)于(yú)如下价值判断:既能够(gòu)促进人(rén)工智能的发展(zhǎn),同(tóng)时也(yě)能够消除(chú)人工智能的不当(dāng)风险。技术变(biàn)革往往会伴随风险(xiǎn),但只要风险可控且不会对人类价值产生(shēng)不(bú)可接受的影响,那(nà)么法律就应(yīng)采取最优措施来抑(yì)制风险。考(kǎo)虑当下功用,兼顾(gù)长远影(yǐng)响,总体来看(kàn),维持目前(qián)法(fǎ)律制度,不赋予人工(gōng)智能以法律主体地位,是人(rén)工(gōng)智能法律(lǜ)治理的最优解。

    人(rén)工智能(néng)的(de)发展(zhǎn)并不需要其成为法律主体

    人工智能是概括(kuò)性术语,从机器学习到大规模(mó)语言模型等均包括在内。人工智能是(shì)否需要成(chéng)为法律主体(tǐ),可以从法律主体的历史演进规(guī)律获得启示。

    整体而言,法律主体演(yǎn)进(jìn)的(de)基本规律可概括为从“人可非人”到“非人(rén)可人”。即使到近代社会,自然人(公民)之间的权利(lì)也是有差别的。只有在现代法(fǎ)治国家,自然人才享有平等(děng)的民事权(quán)利。不仅如此,法(fǎ)律主体也已经不再限于生物学意义(yì)上的人,公司等实体也获(huò)得了法(fǎ)律的明确(què)承认,同时(shí)附(fù)之(zhī)以股东或者出资人以自己对(duì)公司的出资(zī)为限承担责任。此(cǐ)种承认促进了现代科学技术和组织形式的(de)跨越式变革,推进了人类的文明进步。尽管部(bù)分学者列举(jǔ)或者设想了目前人(rén)工智能应当作为法律(lǜ)主体的具体场景,然而经过(guò)仔细(xì)分析,这些场景都(dōu)没有显(xiǎn)示出人工(gōng)智能需要作为法律主体的真正客观需(xū)求,也没有显示出既(jì)有的法(fǎ)律制度(dù)(如(rú)代理、公司法等)阻碍了人工智能的发展而通过使人工(gōng)智能成(chéng)为法律主体会扫清(qīng)该障碍(ài)。

    有(yǒu)学者认(rèn)为(wéi),对社会生活的参(cān)与是判断是否设(shè)定法(fǎ)律主体的重要因素。这一(yī)说法值(zhí)得商榷。因为参(cān)与社会(huì)生(shēng)活的身份有主(zhǔ)体和客(kè)体之分,人工智能(néng)是作为客体如机器、软件、程序(xù)或(huò)系统而参与的。即(jí)使客体(tǐ)很智能,甚至可以在既有技术设计下(xià)做出(chū)独(dú)立判断,但此种独立判断所归责的主体(tǐ)仍旧是设置、控制或使用该机器(qì)的主体(tǐ),所代表的依然是设(shè)置(zhì)、控制或(huò)使用该客体的主体的(de)意(yì)志。事物很重(chóng)要与法律赋予其(qí)法(fǎ)律主体资格是(shì)两个(gè)完全不(bú)同的问题(tí)。例如,对很(hěn)多人来(lái)说,宠物已经成为社会生(shēng)活的重要(yào)部分,其中部分(fèn)人对宠物的依赖性要远高于其他事物,但这并不能证成宠物成为法律主体。同理,虽然人工智(zhì)能非常(cháng)重要,但法律仍然没有使之成为法律主体的内在需(xū)求。

    从责(zé)任能(néng)力视(shì)角看,人工智(zhì)能(néng)不能成为法律主体(tǐ)

    在民法上赋予法(fǎ)律主体资格(gé)的一个(gè)重要条件是责任(rèn)能力。承担责任意味(wèi)着,法律主体承受(shòu)不利的财产负担,而(ér)且该法律主体通常应(yīng)当是(shì)最终的责任承担者。责任(rèn)能力的一个前(qián)提条件是(shì),法律(lǜ)主体必(bì)须有独立的财产。如果没有(yǒu)独立的财产(chǎn),那么使(shǐ)人工智能承担责任就(jiù)没有实质意义。到目前(qián)为止甚或是(shì)在相当长的未来,我们都很难设想人工智能需要或者(zhě)能够拥有(yǒu)独立财(cái)产。由(yóu)于这(zhè)一前提条件并不(bú)具(jù)备,那么人工智能成为(wéi)法律(lǜ)主体也就(jiù)没(méi)有必要或者可能。从既有的媒体公开报道的人(rén)工智能(néng)导致(zhì)人身或(huò)者财产损害的案(àn)件中,我们均可以根据既有法律规定找到需要承担责任的主体——开发人、设计者、所有者或使用者等。换言之(zhī),既有的法律制(zhì)度能够解决目前(qián)人(rén)工(gōng)智(zhì)能所引发的人身或财产损害问题。

    进一步说,人工智能成为法律主体(tǐ)甚至有潜在的不可(kě)预计的风险。人工智能成为法律主体的一(yī)个自然推论是,它能够独(dú)立承担(dān)责任。由于人工(gōng)智能的确会导致伤害甚(shèn)或大规(guī)模伤害,如隐私泄露、数据毁坏、人身损害等——到目前为止,即使是专家也很难完全了(le)解大规模模(mó)型的内(nèi)在(zài)运行机(jī)制(zhì),并准确预测未来可(kě)能(néng)发生的伤害及其规(guī)模,而且对如何抑制(zhì)未来(lái)的大模型(xíng)伤害尚未形成共识。不仅如此,更危险的情(qíng)形可能是,人工智(zhì)能会有意或无意生成执(zhí)行危险行为的能(néng)力,甚至(zhì)“学习(xí)掌握”如何(hé)影(yǐng)响(xiǎng)人类使用者,进而鼓(gǔ)动(dòng)特(tè)定群(qún)体(tǐ)以破(pò)坏性甚或毁灭式方式行动(dòng)。此时,人(rén)工智能承(chéng)担责任就意味着(zhe)开发、设(shè)计、运(yùn)行、使用人工智能的主体将(jiāng)可以逃避(bì)法(fǎ)律(lǜ)制(zhì)裁,这是(shì)极不可取的(de)结果,必须予以避免。尽管“刺穿人工智能面纱”制度(dù)可以减缓上述(shù)不利后果,但是该制度(dù)应当(dāng)有严格的适用要件,不可常(cháng)规性地使用,否则(zé)就有违人工智能作为(wéi)法律主体的设计初(chū)衷。

    情感、理性、意志不证成(chéng)人工智能成为法律(lǜ)主体

    情(qíng)感(gǎn)、理性、意志与人工智能的法(fǎ)律(lǜ)主体(tǐ)问题有内在关(guān)联。一种观点认为,赋予法律主体的一(yī)个传统要素是(shì),其必(bì)须能够有情感(gǎn)、理性、意志。尽管人工智能是以(yǐ)深(shēn)度学习为基础,然而,既有的人工智能(néng)大都不(bú)存在情感。尽管有些人(rén)工智能的(de)技术领(lǐng)导者认为,人(rén)工(gōng)智能很快就向有情(qíng)感的方向(xiàng)发展(zhǎn)。然而,即(jí)使(shǐ)有(yǒu)情感,甚或是自主情感(gǎn),人工智能(néng)也不应当成为法律主(zhǔ)体。因为相(xiàng)比很多人工智能而言(yán),很多动物已(yǐ)经(jīng)具有丰富(fù)的情感甚至(zhì)一定的自我意(yì)识。尽管动(dòng)物可以获(huò)得某(mǒu)些权(quán)利,然而从主导价值观审视,动(dòng)物依然不能获(huò)得和人一样完全相同或者高度相似的法律主体身份。我(wǒ)国民(mín)法典也采纳了此种立(lì)场。从规范意义上评价,情感(gǎn)、理性、意志并非赋予法律主体的必备要素。与此相关的是,即使人(rén)工智能的推(tuī)理能力已经超过了人类,也无法证成赋予其法律主体地位(wèi)是一(yī)种必备或者最优的解决方案(àn)。

    在比(bǐ)较法上,的确有(yǒu)一些事物尤其是自然资源被赋予了法律(lǜ)主体资格,如部(bù)分国家通(tōng)过立法赋(fù)予(yǔ)了珊瑚礁、河(hé)流或机器(qì)人以法律主体资格。然而我们发现,这些特殊(shū)事物都没有在民(mín)事法律中成(chéng)为法律主体,更没有在民事(shì)基(jī)础性法律——民法典中成为法律主(zhǔ)体。2017年新西兰通过立(lì)法赋予(yǔ)了旺格(gé)努伊河的法律(lǜ)主体资(zī)格,该(gāi)法是与(yǔ)旺格努伊河毛(máo)利人妥(tuǒ)协的一部分,是因为毛利(lì)人一直认(rèn)为(wéi)该河有生命力,该法的通过能够给(gěi)毛利人带来希(xī)望。在(zài)特别的(de)法律中赋予其某些特(tè)殊利益或者(zhě)权利,并不能在一般意义上证成其应当成为法律主(zhǔ)体。

    人工智能不作为法律主体(tǐ)并不影响人(rén)工智能法律制度(dù)的变革

    可以(yǐ)预见的是,人工智能已经(jīng)或者在未来可能会经受(shòu)伤害。基于人类的价值判断以及现(xiàn)代法治文明,法律制度也不应故步自封,一个可能(néng)的(de)预备解决方案是,尽管人(rén)工智能不应当成为(wéi)或者不(bú)是(shì)法律主体,但是有情感的人工智能机器人或者其他产品未来可(kě)能会受到法律的(de)特殊规制,以保(bǎo)护人类对它们的(de)某(mǒu)些情感利益(yì)和其他利益。

    人工智(zhì)能(néng)的(de)复杂(zá)性也会(huì)产生(shēng)一些现行法(fǎ)很难(nán)有效解决的问题。例如,大多数人工智能系统都是诸多开发人(rén)、设计者、所有人、经营者、用户之间通过复杂的跨国协议产生的产品,在这(zhè)一相互独立的关系的国际化网(wǎng)络中,确定(dìng)某个或者(zhě)某(mǒu)几个主体(tǐ)来承担(dān)责(zé)任几乎不可(kě)能。不仅如此,基(jī)于不透(tòu)明性以及一些人工智能系统(tǒng)的(de)自我学习(xí)性,伤害的风险可能是以一种负责开发的主体(tǐ)所不(bú)可预见的方式导致的,确(què)定特定实体来承担责任(rèn)更是难(nán)上加难(nán)。这就需要人工智(zhì)能法律制(zhì)度的持续(xù)变革(gé)。更好拥抱(bào)人工智能的方式是设(shè)定适应性的治(zhì)理框架,以保护人类的文明(míng)成果。人(rén)工智能促进人类向好的方向发展,就需要通过多(duō)层次制度为基础(chǔ)的有效治理(lǐ)来促使其具有可(kě)解释性、可预测(cè)性(xìng)、可信赖性。

    关键词: 人工(gōng)智能




    AI人工智能网声明:

    凡资讯来源注明为其他媒体来源的(de)信息,均为转载自其他(tā)媒体(tǐ),并不代表本网站赞同其观点(diǎn),也不代表(biǎo)本网站对其真实性负责。您(nín)若对该文章(zhāng)内容有任(rèn)何(hé)疑问或(huò)质疑,请立(lì)即(jí)与网(wǎng)站(www.baise.shiyan.bynr.xinxiang.zz.pingliang.ww38.viennacitytours.com)联系,本网站将(jiāng)迅速给您回(huí)应(yīng)并(bìng)做处理。


    联(lián)系电话:021-31666777   新闻、技(jì)术文章投(tóu)稿(gǎo)QQ:3267146135   投(tóu)稿邮箱:syy@gongboshi.com

    精选资讯更多

    相关资(zī)讯更多(duō)

    热门(mén)搜索

    工博士人工智能网
    博鱼官方网页版-博鱼(中国)
    扫描二维码关注(zhù)微信
    扫(sǎo)码反馈

    扫一扫,反(fǎn)馈当前页面

    咨(zī)询反馈
    扫码关(guān)注(zhù)

    微信公众号

    返回顶部

    博鱼官方网页版-博鱼(中国)

    博鱼官方网页版-博鱼(中国)