AIGC:一(yī)种生产力的变革
面对互联网内容生产效率提升(shēng)的迫切需求,是(shì)否能够利用人(rén)工智能去辅助(zhù)内容生产?这种(zhǒng)继专(zhuān)业(yè)生产内(nèi)容(PGC)、用户生(shēng)成内容(UGC)之后形成的、完(wán)全(quán)由人工智能(néng)生成内(nèi)容的创作形式被(bèi)称为AIGC。最初的(de)AIGC通(tōng)常基于小模型展开,这(zhè)类模型一般需要(yào)特殊的标注(zhù)数(shù)据训练,以解决特定的场景(jǐng)任务,通用性较差,很难被迁(qiān)移(yí),而且高度依赖人工调参。后来,这种形式(shì)的(de)AIGC逐渐被基于大数据量、大参数量(liàng)、强(qiáng)算法(fǎ)的大模型取代,这种形式的AIGC无须经过调整或只经过少量(liàng)微调就可(kě)以迁移到多种(zhǒng)生成任(rèn)务。
2014年诞(dàn)生的生(shēng)成对抗网络(GAN)是AIGC早期(qī)转(zhuǎn)向大模型的重要(yào)尝试,它利用生成器和判别器的相互对(duì)抗并结合其他技术模块,可以实(shí)现各种模态内容(róng)的(de)生成。而到了2017年,变(biàn)换(huàn)器(qì)( Transformer)架构的提出,使得深度学习模型参数在后续的发(fā)展中得以突破1亿大关。2022年11月30日,开放人工(gōng)智(zhì)能研究实验室(shì)(OpenAI)发布了名为(wéi)ChatGPT的超级人工智能(néng)(AI)对话模型。ChatGPT不仅可以清(qīng)晰地理解用户的问题,还能如同人类(lèi)一般(bān)流(liú)畅地回(huí)答用户的问题,并完(wán)成一(yī)些复杂任务,包括按照特定文风撰写(xiě)诗歌(gē)、假扮特(tè)定角色(sè)对(duì)话(huà)、修改(gǎi)错误代码等。此外(wài),ChatGPT还表现出一(yī)些人(rén)类特质,例如承(chéng)认自己的错误,按照设定的道德准则拒绝不怀好(hǎo)意的请(qǐng)求(qiú)等。ChatGPT一上线,就引发网民争相(xiàng)体验,但(dàn)也有不少人对此(cǐ)表示担忧,担心(xīn)作家、画家(jiā)、程序员等职业在未来都将被人工智能所取代。
虽然存在这些担忧,但人类(lèi)的创造物终究会帮(bāng)助人类自身的发展,AIGC无疑是一种生产(chǎn)力的变革(gé),将(jiāng)世(shì)界(jiè)送入智能创(chuàng)作(zuò)时代。在智(zhì)能创作时代(dài),创作者(zhě)生产力的提升主要表现(xiàn)为三(sān)个(gè)方面:一是代替创作中的重(chóng)复环节,提升创作效率;二是将(jiāng)创意与创作相分离,内容(róng)创作者(zhě)可以从人工智能的(de)生成作品中找寻(xún)灵(líng)感与思路;三是综合(hé)海(hǎi)量预训练(liàn)的数据和(hé)模型中引入的(de)随(suí)机性,有利于拓展创新(xīn)的边界,创作者可以生(shēng)产(chǎn)出过去无法想出(chū)的杰出创意。
技术(shù)伦理成为发展的重要关注点
AIGC技术的发(fā)展无疑是革(gé)命性的。它可(kě)以改善我们(men)的日(rì)常生活,提高(gāo)生产力,但也面临(lín)着诸多技术伦理方面的挑战。
一个典型的AIGC技术伦理问(wèn)题是AI所(suǒ)生成(chéng)内容的危险性。科学(xué)家正尝试运用(yòng)一些技(jì)术手段避免这些(xiē)具有潜(qián)在(zài)风险的事件发(fā)生。通过改善数据集,增加更多的限制性条件以及对模型进行微(wēi)调,可以使得人工智能减少对于(yú)有害内容的学习,从(cóng)而降低人工(gōng)智能本身的危险(xiǎn)性。甚至我们可以(yǐ)“教会”人工(gōng)智能如何更尊重他人,减少判断当中(zhōng)的偏见(jiàn),更好地和人类相处。借(jiè)鉴强化学习(xí)思(sī)想(RLHF)方法就是减少(shǎo)人(rén)工智能生成危害性内容的典(diǎn)型措施(shī),ChatGPT就是采用这种方(fāng)式训练(liàn)的。在RLHF的框架(jià)下,开发人(rén)员会在人(rén)工智(zhì)能做出(chū)符(fú)合人类预期回答时给予奖励,而(ér)在(zài)做出有害内容的回答时(shí)施加惩罚(fá),这(zhè)种根据人类(lèi)反(fǎn)馈信号直接优(yōu)化语言(yán)模型的方法(fǎ)可以给予AI积极的引导。然(rán)而,即便采用这种(zhǒng)方式,AI生成(chéng)的内容也有可能在刻意(yì)诱导的情况下具有(yǒu)危(wēi)害性。以ChatGPT为(wéi)例,在一(yī)位工(gōng)程师的诱(yòu)导下,它写出(chū)了步骤详细的毁灭人类计划书(shū),详细到入侵各(gè)国计算机系(xì)统、控制武器、破(pò)坏通讯和交通(tōng)系统等(děng)。还有一些人表达了对(duì)RLHF这类安(ān)全预防性技术措施的质疑,他们担忧足够聪明的人工智(zhì)能可能会通过模仿(fǎng)人类(lèi)的伪装行为来绕过(guò)惩(chéng)罚,在(zài)被监视的时候假装(zhuāng)是好人,等待(dài)时机,等(děng)到没有监视的时(shí)候再做坏(huài)事。
除了从(cóng)训练角度(dù)对AIGC潜在技术伦理问题进行预(yù)防(fáng)外,在使用上及时告警停用的技术措(cuò)施更显必要(yào)。AIGC产(chǎn)品应该对生(shēng)成(chéng)的内容(róng)进行一(yī)系列合理检测,确保其创(chuàng)作内容(róng)不被(bèi)用(yòng)于有害或非法目的,一旦发现此类(lèi)用途,人工智(zhì)能应该可以(yǐ)立刻识别,停止(zhǐ)提供服务,并且给(gěi)出警(jǐng)告甚至联系(xì)相关监管或者(zhě)执法机(jī)构。
监管法律正(zhèng)待完善(shàn)
随(suí)着全球范(fàn)围(wéi)内的相关法律法规的不(bú)断完善,无论是赋能(néng)产业升级还是自主释放(fàng)价(jià)值,AIGC都(dōu)将(jiāng)在健康有序的发展中得到推进。标(biāo)准规范为AIGC生态构建(jiàn)了一个技术、内容、应用(yòng)、服务和监管的全过程一(yī)体化标准(zhǔn)体系,促进AIGC在合理(lǐ)、合(hé)规和合法的框架下进行良性发展。
以美(měi)国(guó)为例,虽然美国在AIGC技术领(lǐng)域起步(bù)较早,且技术(shù)布局一直处于全球(qiú)领先(xiān)地位,但(dàn)迄今为止还没有关(guān)于AIGC的全面联邦立法。考(kǎo)虑(lǜ)到AIGC所涉及(jí)的风险以及滥用可能造(zào)成的严重后果,美国正在加速(sù)检查和制定AIGC标(biāo)准的(de)进程。例如(rú)美(měi)国国家标(biāo)准(zhǔn)与技术研究(jiū)院(NIST)与公共和私营(yíng)部门(mén)就联邦标(biāo)准的制定进行了(le)讨论,以创建可靠、健(jiàn)全和值得信赖的人(rén)工(gōng)智能系统的(de)基(jī)础。与此同时,州立法(fǎ)者(zhě)也在(zài)考(kǎo)虑AIGC的(de)好(hǎo)处和(hé)挑战(zhàn)。根据不完全统计,2022年,至少有17个(gè)州提出了AIGC相关的法(fǎ)案或决议,并在(zài)科(kē)罗拉多州(zhōu)、伊利诺伊州、佛(fó)蒙特州和华盛顿州(zhōu)颁布。
目前,白宫科(kē)技政策办公室(shì)已经(jīng)颁布了10条关于人工智能法律法规的原则(zé),为(wéi)制定AIGC开发和(hé)使(shǐ)用(yòng)的(de)监管和(hé)非监管方法提供参考(kǎo),包括建立公众对人工智能的信任;鼓励公众(zhòng)参与并提高(gāo)公众对人工智能(néng)标准和技(jì)术的认识;将高标准的科学完整性和(hé)信息质量应用于(yú)AI和AI决策(cè);以跨学(xué)科(kē)的方式使(shǐ)用透明的风险(xiǎn)评估和风险(xiǎn)管理方法;在考(kǎo)虑人工智能的开发和部署时(shí)评估全部社会(huì)成本、收(shōu)益和其他外部因素;追求基于(yú)性能的(de)灵(líng)活方法(fǎ),以适应(yīng)人工智能快速变化的性质(zhì);评(píng)估人(rén)工智能应用中的公平和非歧视问题;确定适当的(de)透(tòu)明度和(hé)披露(lù)水(shuǐ)平以增加公众信任;保持控(kòng)制以确保AI数据的机密性、完整性和可用性,从而使开发的AI安全可靠;鼓(gǔ)励机构间协调,以帮助确保人工智能政策(cè)的一(yī)致性和可预测性(xìng)。根据上述原则框架以及(jí)AIGC领域后(hòu)续发(fā)展中的监管实践,在不远的未来,将会(huì)有更(gèng)多具体的监管条(tiáo)例落地。