成人国产精品一级毛片视频,毛片三级在线观看,中国黄色在线观看,婷婷久久综合九色综合九七,久久久免费视频观看,国产99在线播放,日本成人福利

產(chǎn)品分類(lèi)導航
CPHI制藥在線(xiàn) 資訊 技術(shù)與倫理的博弈 醫療AI隱憂(yōu)如何解?

技術(shù)與倫理的博弈 醫療AI隱憂(yōu)如何解?

熱門(mén)推薦: 技術(shù)與倫理 博弈 醫療AI
作者:王悅  來(lái)源:動(dòng)脈網(wǎng)
  2019-06-11
即便如此,該技術(shù)仍然引發(fā)了一系列棘手的道德難題。當AI系統決策失誤時(shí)會(huì )出現哪些問(wèn)題?如果有問(wèn)題的話(huà),該誰(shuí)負責?臨床醫生如何驗證甚至了解AI“黑匣子”的內容?他們又該如何避免AI系統的偏見(jiàn)并保護患者隱私?

       在希波克拉底誓言奠定醫學(xué)倫理基礎的2400年后,人工智能的出現可能給醫學(xué)倫理帶來(lái)史上的挑戰。

       專(zhuān)家預測,到2024年,AI醫療將是一個(gè)近200億美元的市場(chǎng)。人工智能有望成為醫療實(shí)踐的福音,能夠改善診斷效果、提供個(gè)性化治療,并及時(shí)發(fā)現未來(lái)的公共醫療風(fēng)險。

       即便如此,該技術(shù)仍然引發(fā)了一系列棘手的道德難題。當AI系統決策失誤時(shí)會(huì )出現哪些問(wèn)題?如果有問(wèn)題的話(huà),該誰(shuí)負責?臨床醫生如何驗證甚至了解AI“黑匣子”的內容?他們又該如何避免AI系統的偏見(jiàn)并保護患者隱私?

       2018年6月,美國醫學(xué)會(huì )(AMA)發(fā)布了首個(gè)關(guān)于如何開(kāi)發(fā)、使用和調節人工智能的指南。值得注意的是,該協(xié)會(huì )將人工智能稱(chēng)為“augmented intelligence”(智能增強),而非我們廣泛認為的“artificial intelligence”。這表明,美國醫學(xué)會(huì )認為人工智能的作用是增強而非取代醫生的工作。

       雖然AMA在指南中表示,人工智能應該設計用于識別和解決偏見(jiàn)、保障弱勢群體需求、實(shí)現過(guò)程透明性并保護患者隱私,但在具體實(shí)施中,這些要求很難得到滿(mǎn)足。以下是醫學(xué)從業(yè)者、研究人員和醫學(xué)倫理學(xué)家需要面對且最為緊迫的道德挑戰。

       背后的偏見(jiàn),怎么克服?

       2017年,芝加哥大學(xué)醫學(xué)院(UCM)的數據分析團隊使用人工智能來(lái)預測患者可能的住院時(shí)長(cháng)。其目標是確定可以提前出院的患者,從而釋放醫院資源并為新的患者提供救治。然后,醫院還會(huì )指派一名案例管理人員來(lái)幫助患者處理保險事宜,確保患者及時(shí)回家,并為其早日出院鋪平道路。

       在測試系統時(shí),研究小組發(fā)現,預測患者住院時(shí)間最準確的因素是他們的郵政編碼,這立刻給研究團隊敲響了警鐘。他們知道,郵編與患者的種族和社會(huì )經(jīng)濟地位密切相關(guān)。依靠郵政編碼做預測,會(huì )對芝加哥最貧困社區的非裔美國人造成不良影響,這些人往往住院時(shí)間更長(cháng)。因此該團隊認為使用該算法分配案例管理員將是有偏見(jiàn)和不道德的。

       “如果你要在實(shí)踐中實(shí)施這個(gè)算法,你會(huì )得到一個(gè)矛盾的結果,那就是把更多(病例管理)資源分配給更富裕的白人患者,”UCM內科醫生、醫療倫理學(xué)教授Marshall Chin說(shuō)道。

       最終數據分析團隊刪除了郵政編碼這個(gè)預測因素。該算法仍在開(kāi)發(fā)中,尚未測試出新模型。

       這個(gè)案例指出了基于人工智能的醫療保健工具的弱點(diǎn):算法通常可以反映現有的種族或性別健康差異。這個(gè)問(wèn)題如果沒(méi)有得到解決,就可能會(huì )導致長(cháng)期性偏見(jiàn)并固化醫療保健領(lǐng)域現有的不平等現象。

       偏見(jiàn)還會(huì )影響罕見(jiàn)病或新疾病的治療,這些疾病的治療數據有限。人工智能系統可能會(huì )直接給出一般治療方案,而不考慮患者的個(gè)人情況。這時(shí),人工智能擬議的治療方案是無(wú)效的。

       最近,斯坦福大學(xué)**學(xué)助理教授Danton Char在一篇關(guān)于機器學(xué)習的論文中指出,因為嚴重腦損傷患者或極早產(chǎn)兒的存活幾率很低,因此醫生常常停止對他們的護理。而即使某些患者個(gè)體預后良好,機器學(xué)習算法仍然可能會(huì )直接得出結論:所有類(lèi)似病例都是致命的,并建議撤回治療。

       “黑匣子”問(wèn)題,路在何方?

       第二個(gè)道德挑戰是,通常情況下,研究人員并不了解AI系統是如何計算出結果的,即所謂的黑匣子問(wèn)題。先進(jìn)的機器學(xué)習技術(shù)可以在沒(méi)有明確指示的情況下吸收大量數據并識別統計模式,整個(gè)過(guò)程人類(lèi)尤其難以驗證。盲目遵循這種系統的醫生可能會(huì )在無(wú)意中傷害患者。

       “我們通常很難理解算法的'思想'過(guò)程是什么。”聯(lián)合國大學(xué)政策研究中心新興網(wǎng)絡(luò )技術(shù)研究員Eleonore Pauwels表示。

2015年的一項研究強調了該問(wèn)題。在這項研究中,研究人員比較了不同AI模型預測肺炎患者死亡風(fēng)險的程度。預測之后,那些風(fēng)險較高的人將被送往醫院,而低風(fēng)險的病人可以轉入門(mén)診治療。

       其中一個(gè)模型是“基于規則”的系統,其決策過(guò)程對研究人員來(lái)說(shuō)是透明的,卻預測出違反直覺(jué)的結果:患有肺炎和哮喘的患者比僅患有肺炎的患者存活機會(huì )更大,因此患有兩種疾病的患者可以推遲治療。顯而易見(jiàn),醫護人員能夠清楚的判斷患有兩種疾病的患者具有更高的死亡風(fēng)險,但算法不能。所以?xún)H僅依靠這種算法,意味著(zhù)最危急的病人將不能及時(shí)得到他們所需要的治療。

       另一種使用神經(jīng)網(wǎng)絡(luò )和機器學(xué)習算法的模型產(chǎn)生了更準確的結果,但其推理過(guò)程是不透明的,因此研究人員無(wú)法及時(shí)發(fā)現其中的問(wèn)題。該研究的負責人、微軟公司研究員理查德卡魯阿納得出結論:神經(jīng)網(wǎng)絡(luò )模型風(fēng)險太大,無(wú)法進(jìn)入臨床試驗,因為沒(méi)有辦法判斷它是否犯了類(lèi)似的錯誤。

       決策失誤誰(shuí)來(lái)買(mǎi)單?

       根據AMA的醫學(xué)倫理基本原則,醫生必須完全對患者負責。但是,當人工智能進(jìn)入等式時(shí),責任又該如何劃分?這個(gè)問(wèn)題的答案仍在由倫理學(xué)家、研究人員和監管機構制定。

       人工智能打破了提供醫療服務(wù)的群體限制,一些傳統上不受醫學(xué)倫理約束的人,比如數據科學(xué)家,也可以為患者提供醫療服務(wù)。此外,正如黑匣子問(wèn)題所示,人們并不總是能夠確切地知道人工智能系統是如何做出診斷或開(kāi)出治療處方的。有缺陷的算法可能對患者造成重大傷害,從而導致醫療事故。

       斯坦福大學(xué)**學(xué)家Char將人工智能比作處方藥。查爾表示,雖然不能指望臨床醫生了解他們開(kāi)出的藥物的每一個(gè)生化細節,但基于他們的臨床經(jīng)驗和醫學(xué)文獻知識,他們至少需要知道這些藥物是安全有效的。至于人工智能系統,除非經(jīng)過(guò)仔細研究,他確信這是選擇,否則他不會(huì )使用。Char說(shuō)道:“當你對工具的了解并不充分時(shí),你不愿讓任何患者的生命處于危險之中。”

       患者隱私何去何從?

       美國醫學(xué)協(xié)會(huì )曾發(fā)出警告:人工智能必須保護患者信息的隱私和安全。對醫患保密的承諾,是自希波克拉底立誓以來(lái)醫學(xué)倫理存在的基石。

       但為了做出準確的預測,機器學(xué)習系統必須要訪(fǎng)問(wèn)大量的患者數據。如果沒(méi)有個(gè)人的醫療記錄,人工智能將無(wú)法提供準確的診斷或有用的治療方法,更無(wú)法實(shí)現更加個(gè)性化的治療。更重要的是,如果數以百萬(wàn)計的病人隱瞞他們的醫療數據,關(guān)鍵的公共衛生趨勢可能會(huì )被忽視,這將是每個(gè)人的損失。

       一個(gè)潛在的解決方案是從用醫療記錄中單獨刪除個(gè)人識別信息來(lái)保護患者隱私。然而,最近由加利福尼亞大學(xué)牽頭的一項研究表示,目前的匿名化技術(shù)還不夠成熟,并不能保證數據的有效清除。不過(guò),未來(lái)可以開(kāi)發(fā)更復雜的數據收集方法,以更好地保護隱私。

       不管技術(shù)能力如何,醫學(xué)專(zhuān)家建議醫學(xué)界重新考慮患者隱私的整個(gè)概念。隨著(zhù)醫療系統變得更加復雜,將有更多的機構有合法合理的需求去訪(fǎng)問(wèn)敏感的患者信息。Char在論文中寫(xiě)道:“機器學(xué)習系統的實(shí)現,意味著(zhù)我們需要重新認識醫療數據隱私和其他職業(yè)道德核心原則。”

       在實(shí)踐中,醫院和機構需要贏(yíng)得患者的信任。患者有權利了解他們的醫療隱私數據是如何被使用的,以及數據是會(huì )使他們自身受益或只能讓未來(lái)的患者受益。

       倫敦大學(xué)學(xué)院健康信息學(xué)研究所的高級研究員Nathan Lea表示:“如果患者更好地了解人工智能是如何改善個(gè)人和公共健康的,他們可能愿意放棄傳統的隱私觀(guān)念。隱私本身并不是絕對的,我們不能以保護患者隱私為借口而拒絕數據背后的龐大價(jià)值。”

       動(dòng)脈網(wǎng)有話(huà)說(shuō)

       醫學(xué)科技與道德倫理的沖突一直存在,從人體解剖的人權問(wèn)題,到克隆技術(shù)的身份爭議;從人工流產(chǎn)的人道質(zhì)疑,到如今人工智能的人倫思辨,圍繞醫學(xué)技術(shù)創(chuàng )新與社會(huì )道德倫理的爭論從未停息。正是這些對人性、人道、人類(lèi)尊嚴、人的價(jià)值的關(guān)注,才使醫學(xué)體現了人文的關(guān)懷,保持了人性的張力。

       AI醫療技術(shù)的應用和普世的倫理道德觀(guān)念本不矛盾,關(guān)鍵在于在權衡取舍中找到更合理的打開(kāi)方式。我們期待人工智能在倫理思考的鞭策下迭代轉型,最終能夠以自己的方式協(xié)同解決人類(lèi)社會(huì )的復雜問(wèn)題。

       點(diǎn)擊下圖,觀(guān)眾預登記成功送20元話(huà)費

預登記

相關(guān)文章

合作咨詢(xún)

   肖女士    021-33392297    Kelly.Xiao@imsinoexpo.com

2006-2025 上海博華國際展覽有限公司版權所有(保留一切權利) 滬ICP備05034851號-57
洞口县| 正镶白旗| 南漳县| 宽甸| 开鲁县| 建平县| 通榆县| 四平市| 新河县| 营山县| 汝阳县| 陆川县| 沂水县| 大安市| 无锡市| 治多县| 将乐县| 横山县| 阿图什市| 衢州市| 伊春市| 安顺市| 宜丰县| 兴城市| 新巴尔虎左旗| 新乡县| 贵溪市| 溆浦县| 永安市| 沁水县| 东兴市| 冀州市| 黄冈市| 舒兰市| 伊川县| 深泽县| 固安县| 南平市| 南昌县| 星座| 玛曲县|