欧盟委员会21日提出(chū)一套人工智能(néng)的法律框(kuàng)架,以期对人(rén)工(gōng)智能的应用进行(háng)规范和限制,保护(hù)人们日常生活和正当(dāng)权利(lì)不(bú)受侵害。
按(àn)照风(fēng)险高低,欧委会将人(rén)工(gōng)智能应用场(chǎng)景分为“最(zuì)低、有限、高、不可接受”四(sì)个(gè)风险(xiǎn)等级,等级(jí)越(yuè)高的应用场景受到的限制越严格。
风(fēng)险等级最低的应用场景包(bāo)括基(jī)于人(rén)工智能的电子游(yóu)戏和垃圾(jī)邮件识别软件等,目(mù)前欧盟绝大部分人工智(zhì)能(néng)系统都属于该类别,欧委会提出的(de)法(fǎ)律(lǜ)框架对此不(bú)做约束;风险有限的场景包括聊天机(jī)器人等,欧盟建议应(yīng)让(ràng)用户知(zhī)晓自己在与(yǔ)机器互动,并有权决(jué)定继续对话(huà)还是退出。
高风(fēng)险应用场景指可(kě)能(néng)对人们生命、生活造成严重影响的场景,如交(jiāo)通(tōng)设备、教育培训(xùn)、医疗辅助、信用(yòng)评级等。欧委会(huì)建议,这(zhè)类功(gōng)能在启用前(qián)应履行(háng)严格义务,如足够的风险评估、高质量的数据交换、确保(bǎo)可追踪(zōng)的活动记录以及必要的人(rén)工监督等。
欧委会强调,所有远(yuǎn)距离(lí)生物识别系统(tǒng)都被(bèi)认为具有高风(fēng)险,禁止执(zhí)法部门在公共场合使用这一技(jì)术,只有(yǒu)少数情况例外,如寻(xún)找失踪儿童或防止(zhǐ)个(gè)别恐怖袭(xí)击(jī)、甄(zhēn)别犯罪分子和可疑人员(yuán)等(děng)。这类应用需(xū)得(dé)到司法部门或独立机构授权(quán)。
某(mǒu)些明(míng)显威胁人们安全(quán)和(hé)生(shēng)活以及侵犯(fàn)人们权利的系统(tǒng)被划为不可接受(shòu)风(fēng)险的场景,包(bāo)括(kuò)利用(yòng)人类行为来误导用户、违反(fǎn)其自由意志的(de)应用(yòng),如使(shǐ)用(yòng)语音(yīn)助手诱导未成年人做出危(wēi)险行为的玩具等,这类应用(yòng)须禁止(zhǐ)。
欧委(wěi)会执行副主席玛格丽特·韦斯塔格在(zài)新闻发布会上说,若有商(shāng)家(jiā)不遵守规定(dìng),首先是受到(dào)警告,然后产品可能(néng)会被下架,如(rú)屡犯不改则可罚没(méi)其年收入的(de)6%。
除了法律框架外,欧委会当(dāng)天还公(gōng)布了针对机器(qì)人、3D打印机等的人工智(zhì)能机器条例,以(yǐ)及人工(gōng)智能协调计划,旨在(zài)加(jiā)强对人工智能研发的鼓励和扶持。这(zhè)套政策建议尚需经过欧洲议会和(hé)欧盟理事会批准。