博鱼官方网页版-博鱼(中国)




  1. 咨(zī)询热线:021-80392549

    博鱼官方网页版-博鱼(中国) QQ在线 博鱼官方网页版-博鱼(中国) 企业微信
    博鱼官方网页版-博鱼(中国)
    博鱼官方网页版-博鱼(中国) 资讯 > 人工智能(néng) > 正文

    人工智(zhì)能医疗技术的隐忧如何解

    2019/06/26428

    “无论至(zhì)于何(hé)处,遇男或女,贵人及奴(nú)婢,我之唯一(yī)目的(de),为病(bìng)家谋(móu)幸福……凡我所见所闻,无论有无(wú)业(yè)务关系,我愿保(bǎo)守秘密。”希波克拉底誓言是(shì)每一个医学生入行时要(yào)立下的(de)誓词。数千年以(yǐ)来,这个宣言以一种亘古不变的精(jīng)神在医学技术的(de)发展中传承。它(tā)明确了医学的基(jī)本伦理规范,也赋予了医生“健康所系(xì),性命(mìng)相托”的(de)责(zé)任感。

    科学技术的飞(fēi)速发展(zhǎn),给人(rén)类社会带来了巨大的(de)便(biàn)利,也带来了新的伦理挑战。在医学领域,尤其是人类基因(yīn)组测序、转基因技术(shù)、克隆技术、胚胎干细胞、合成生物学等前沿领域,科技(jì)进步引发的(de)伦理、法律、社会问题已成为学(xué)术界(jiè)和(hé)社会普遍关注的热点问(wèn)题。

    专家预测(cè),到2024年,AI医疗(liáo)将是(shì)一个近(jìn)200亿美元的市场。人工智能有望成(chéng)为医(yī)疗实(shí)践的福(fú)音(yīn),能够改善(shàn)诊(zhěn)断(duàn)效果、提供个性化(huà)治疗,并(bìng)及时发现未来的公共医疗风险。即便(biàn)如此(cǐ),该技术仍然引发了一系列(liè)棘手的道德难题(tí)。当(dāng)AI系统决策失误时会(huì)出现哪些问题?如果有问题(tí)的话,该(gāi)谁(shuí)负责?临床医生如何验证甚至了解AI“黑匣子”的内容?他们又(yòu)该如(rú)何(hé)避(bì)免AI系统的偏见并保护患(huàn)者隐(yǐn)私?

    虽然AMA在指南(nán)中表示,人工智能应该设计(jì)用于识别和解决偏(piān)见(jiàn)、保障弱(ruò)势群体(tǐ)需(xū)求、实现过(guò)程透明性并保护(hù)患者隐(yǐn)私(sī),但在具体实施中,这些要求很难得到(dào)满足。以下是医(yī)学从业者、研究人员和(hé)医学伦理(lǐ)学家需要面对且最为(wéi)紧(jǐn)迫的道德挑战(zhàn)。

    人工智能(néng)医疗技术(shù)的隐忧如何解

    2017年,芝加哥大(dà)学医学院(UCM)的数据(jù)分析团队使用人工智能来预测患者可能的(de)住院时长。其(qí)目标(biāo)是确定可以提前(qián)出院的患者,从而释放医院资源并(bìng)为新的患者提供救治。然后,医院还会指派一名案例管理人员来帮助患者处理保险事宜,确保患者及时回家,并为其早日出院铺平道路(lù)。

    在测试系统时,研究小组发现,预测患(huàn)者住院时(shí)间最准(zhǔn)确的因素是他们(men)的邮政编码,这立刻(kè)给研究(jiū)团队敲响了警(jǐng)钟。他们知道,邮编与患者的种族和社会经济地位(wèi)密切相关。依靠(kào)邮政编码做预测,会对芝加(jiā)哥最(zuì)贫困社区的非裔美国人造成不良影响(xiǎng),这些人(rén)往往(wǎng)住院时间更(gèng)长。因(yīn)此该团队认为使用该算法分配案例管理员将是有偏(piān)见和不道德的。

    这个案例指出了(le)基于人工智能的医疗保健工具的(de)弱点:算(suàn)法通(tōng)常可以反映(yìng)现有的种(zhǒng)族或性(xìng)别健康差异。这个问题如果没有得到解决,就(jiù)可(kě)能会导致长期性偏见并固化医疗保健领域现有的不平等现(xiàn)象。偏(piān)见还会影(yǐng)响罕见病或新(xīn)疾病的治疗,这些疾病(bìng)的治(zhì)疗数(shù)据(jù)有限。人工智能(néng)系(xì)统可(kě)能会直接给出一般治(zhì)疗方案,而不考虑患者的个人情况。这时,人工智能拟议的治(zhì)疗方案是无效的。

    第二个道德挑战是,通常(cháng)情况下,研究(jiū)人员并不(bú)了解AI系统是如何计(jì)算出结果的(de),即所谓的黑匣(xiá)子问题。先(xiān)进的机器学(xué)习(xí)技术可以在没有明确指(zhǐ)示的情况下(xià)吸收大量数据并(bìng)识别统计模式,整(zhěng)个过程(chéng)人类尤其难以(yǐ)验证。盲目遵循这种系统的医生可(kě)能会在无意(yì)中(zhōng)伤害患(huàn)者。

    其中(zhōng)一个模型(xíng)是“基(jī)于规(guī)则”的系统(tǒng),其决策过程对研究人员来说是透明的,却(què)预(yù)测出违(wéi)反直觉的结果:患有肺(fèi)炎和哮喘的患者比仅(jǐn)患有(yǒu)肺炎的患者(zhě)存活机会更大(dà),因此患有两种(zhǒng)疾病的患者可(kě)以推(tuī)迟治疗。显而易见,医护人员(yuán)能够清楚(chǔ)的判断患有两种疾病的患者具有(yǒu)更高(gāo)的死亡风险,但算法不(bú)能(néng)。所以仅仅(jǐn)依靠这种算法,意味着最(zuì)危急的病人将不能及时得到(dào)他们所(suǒ)需要的治(zhì)疗。

    人(rén)工智能医疗技术的隐(yǐn)忧(yōu)如何解

    另一种使(shǐ)用神经网络和机器学习算法的模型产生了更准确的结果,但其推理过(guò)程是(shì)不透明的,因此研究人员无(wú)法及时发现(xiàn)其中的问题(tí)。该研究的(de)负责人、微软公司(sī)研究员(yuán)理查德(dé)卡鲁阿纳得出结论(lùn):神经网络模型风险太大,无法进入临床试验(yàn),因为(wéi)没有办法判断它(tā)是否犯了类似的错误。根据AMA的医学伦理基本原则,医生必(bì)须完全对患者负责。但是,当(dāng)人工智能进入等式时,责任又(yòu)该如何(hé)划分?这(zhè)个(gè)问题的答案仍(réng)在由伦理学(xué)家、研究人员(yuán)和监管机构制定。

    人工智能打破了提供医疗(liáo)服务(wù)的群体限制(zhì),一些传统上不受(shòu)医学伦理约束(shù)的人,比如数据科学家,也可以为患(huàn)者提供(gòng)医(yī)疗服务(wù)。此(cǐ)外,正如(rú)黑匣子问(wèn)题所示(shì),人们并(bìng)不总是能够确切地知道人工智能系统是如何做出诊断或开出治疗处方的。有缺(quē)陷的算法(fǎ)可能对患者造成重大伤害,从而导(dǎo)致医疗事故。

    但为了做出准(zhǔn)确(què)的(de)预测,机器学习(xí)系统必须要访问大量的患者数据。如果没有个人的(de)医疗(liáo)记录,人(rén)工智能将无(wú)法(fǎ)提(tí)供准确的诊断或有用的治疗方法,更无法实现更(gèng)加个(gè)性(xìng)化的(de)治疗。更重要的(de)是,如果数以百万(wàn)计(jì)的病(bìng)人隐瞒他(tā)们的医(yī)疗数据,关键的(de)公共卫(wèi)生趋势(shì)可能会被忽(hū)视,这将是每个人的损失。

    一个潜在(zài)的解决方案是从(cóng)用医疗记录(lù)中单独删除(chú)个人(rén)识别信息(xī)来保(bǎo)护患者隐私。然而(ér),最近由加(jiā)利福尼亚(yà)大学牵头的一项研究表示,目前(qián)的匿名化技术还不够成(chéng)熟,并不能保(bǎo)证数据的有效清除。不过,未来可以开发更(gèng)复杂的数(shù)据收集方法,以更好地保(bǎo)护(hù)隐私。


    不管技术能力如何,医(yī)学专(zhuān)家建(jiàn)议医学界重(chóng)新考虑患(huàn)者(zhě)隐私的(de)整(zhěng)个概(gài)念。随着(zhe)医疗系统变得更加复杂,将有更多(duō)的机构有合法(fǎ)合理(lǐ)的需求(qiú)去访问敏(mǐn)感的患者信(xìn)息。Char在论文中写道:“机器学习系统的实现,意味着我们需要重(chóng)新(xīn)认识医疗数据隐(yǐn)私(sī)和其他职业道(dào)德(dé)核心原则。”在实(shí)践中,医院和机构需要赢得患者的信任。患(huàn)者(zhě)有权利了(le)解他们的医疗隐私数据是(shì)如何被使用的,以及数(shù)据(jù)是会使他们自(zì)身(shēn)受益或只能让未来的患(huàn)者受(shòu)益。

    关键(jiàn)词:




    AI人工智能网声明:

    凡资讯(xùn)来源(yuán)注明(míng)为其他媒体来源的(de)信(xìn)息,均为转(zhuǎn)载自其他媒(méi)体,并不代表本网站赞同(tóng)其观点,也不代表本网(wǎng)站对其真实性负责。您若对该(gāi)文章内容有任何疑问或质疑(yí),请立即与(yǔ)网站(zhàn)(www.baise.shiyan.bynr.xinxiang.zz.pingliang.ww38.viennacitytours.com)联系(xì),本网站将迅速给您回(huí)应并做处理。


    联(lián)系电话:021-31666777   新闻、技术文章投稿QQ:3267146135   投稿(gǎo)邮箱:syy@gongboshi.com

    精选资讯(xùn)更多

    相关资讯(xùn)更多

    热(rè)门搜索

    工博士(shì)人工智能(néng)网
    博鱼官方网页版-博鱼(中国)
    扫(sǎo)描二(èr)维(wéi)码关注微信
    扫码反馈

    扫(sǎo)一扫,反馈当前页(yè)面

    咨询反馈(kuì)
    扫码关注

    微信公众号

    返回顶(dǐng)部

    博鱼官方网页版-博鱼(中国)

    博鱼官方网页版-博鱼(中国)