亚洲无线卡一卡二

<acronym id="x0t5e"></acronym>

<ol id="x0t5e"></ol>

<cite id="x0t5e"><li id="x0t5e"></li></cite>
<acronym id="x0t5e"></acronym>
<strong id="x0t5e"></strong>
歡迎光臨~板式家具生產線品牌廠家

公司新聞

劉建利:醫療人工智能臨床應用的法律挑戰及應對

  隨著人工智能技術的不斷發展與進步,醫療AI的臨床應用逐漸普及,在疾病診斷、治療、護理、健康管理等方面大顯身手,對于提高醫療效率、改善醫療資源配置、降低醫療成本等發揮著重要作用。但是,AI背后的“技術黑箱”和“自主學習”使得醫療AI的臨床應用蘊藏著巨大的風險,給現行法律規制提出了眾多挑戰,尤其是醫療損害發生后的法律責任承擔以及醫療數據的保護和利用等問題亟需探討解決。我國應當在明確醫療AI法律地位的基礎上,通過加強解釋和完善立法,建立醫療AI的技術準入標準,完善醫療損害的法律歸責制度,平衡好患者、醫務人員、醫療機構、醫療AI設計者和生產者的利益與責任。在數據保護上,出臺專門的醫療信息保護法,在保護好患者隱私的基礎上,充分發揮醫療大數據的價值,造福國民健康。

  隨著《“互聯網+”人工智能三年行動實施方案》《新一代人工智能產業發展規劃》和《促進新一代人工智能產業發展三年行動計劃(2018-2020年)》等文件的相繼出臺,人工智能發展迎來重大機遇。人工智能在疾病診斷、治療、護理、健康管理等醫療領域大顯身手,對于提高診斷效率和治療效果、改善醫療資源配置、降低醫療成本等發揮著重要作用。然而,人工智能背后的“技術黑箱”和“自主學習”使得醫療人工智能(下為:醫療AI)在臨床應用上蘊藏著巨大風險。醫療AI診斷失誤以及手術損害等不良事件的發生引發理論界和實務界對醫療AI的法律地位、醫療損害的責任承擔等法律問題展開激烈熱議。此外,醫療AI的“自主學習”離不開巨量醫療大數據的喂投,涉及醫療數據的保護和利用,但我國目前對醫療大數據的保護和利用等還未有明確的法律規范?;诖?,筆者在歸納和提煉醫療AI在臨床應用中所引發的法律問題基礎上,重點分析醫療AI的法律地位,探討其引發醫療損害時的法律責任,明確醫療AI背景下的醫療信息的保護和利用的邊界,為我國醫療AI的發展與完善提供建議。

  目前,醫療AI在醫學診療、治療、護理以及健康管理等環節均已實現臨床應用。利用AI影像輔助診斷,可以幫助醫生提高癌癥或心臟疾病的診斷準確率。日本的CAD(電腦輔助診斷)系統,通過胸部CT照片分析,能以較高的準確率檢查出肺結核等疾病。在日本2016年舉辦的一次轉移性乳腺癌診斷比賽中發現,病理醫生的誤診率為3.5%,但醫生借助此系統可以將誤診率降低至0.5%。AI影像診斷的升級就是輔助診斷。醫療AI通過學習海量的醫學數據和專業知識,模擬醫生的診斷方式,可在短時間內提供出高效、精準的診斷結果和個性化的治療方案。此領域最為出名的IBM的Watson for Oncology(沃森腫瘤學)系統。Watson通過對大量的癌癥臨床知識、基因組數據、癌癥病例信息的“學習”后,可以為臨床醫師提供治療方案,是AI輔助診斷的典范。只要輸入患者的電子病歷等信息,Watson能夠快速挖掘醫學知識和患者的個人記錄,在不到三秒鐘的時間內完成診斷,并根據病人的病歷提出有針對性的個性化治療?,F在Watson已經可以查出至少13種器官中的腫瘤。在日本,Watson曾經只用10分鐘就將病人的基因變化信息與2000萬篇癌癥科研論文的數據進行了比較,準確鑒定了罕見白血病類型,成功挽救了一位60歲婦女的生命。

  醫療AI不僅可以進行診斷,還可參與手術等外科治療。當下,外科醫生可以遠離手術臺操縱AI對心臟和前列腺實施外科手術。手術AI的杰出代表是“達芬奇手術AI”?!斑_芬奇”是目前世界上最先進的手術AI(內窺鏡手術器械控制系統),可以在醫生的操作下,利用手術器械模擬醫生的手術過程,完成精細化的手術操作?!斑_芬奇”具有輔助成像系統,能將手術的視覺放大10至15倍,使手術畫面更清晰,操作精度更高。此外,“達芬奇”的手臂能進行大角度自由旋轉,達到醫生手術刀達不到的位置,而且操作穩當,不會出現人工操作的顫抖等情況。達芬奇機器人曾經在一個玻璃瓶里給葡萄縫合葡萄皮,這是人手難以達到的境界??傊?,“達芬奇”為外科醫生的手術精度提高了一個數量級,能減小傷口創傷面,減輕病人痛苦,加快術后恢復。數據顯示,“達芬奇”僅在2016年即完成11445例手術,截至2017年3月,國內“達芬奇”已裝62臺,且全球機器人手術量以年均15%的速度增長。

  隨著全球老齡化加速和慢性病患者的激增,AI護理存在巨大的市場需求。國外在臨床上已經出現護理機器人。護理機器人是將傳統的護理工作與先進的機器人技術相結合的體現,目前已有康復機器人和生活護理機器人??祻蜋C器人有外骨骼機器人和兒童上肢康復機器人??祻蜋C器人能有效提高需要康復訓練患者的訓練強度和效率,幫助殘障人(包括老年人、殘疾人、傷病人)提高生存質量和社會生活參與能力。日本研究機構Riken開發的機器人Robear,能將病人從床上抬起,幫助行動不便的病人行走、站立等,能為老年及癱瘓患者提供喂飯等服務。還可以通過超聲波,實時掌握老年人及癱瘓患者膀胱內的尿量變化,有效預測被護理者的排泄時間,即可保護這類人員的尊嚴,也可減輕看護者的負擔。澳大利亞養老院用機器人做護工,通過給機器人輸入程序,可以使其與老年人一對一交流,消減老年人的苦悶。

  醫療AI通過動態,可對個人健康進行精準把握,結合健康大數據給予用戶精準指導,能有效降低疾病發病率和患病率。具體而言,AI通過可穿戴設備監測患者的活動水平、藥房數據、服藥依從性、呼吸和脈搏率狀況、甚至是所處環境的污染程度等動態信息。結合使用者的年齡、病史、健康狀況、臨檢報告、醫學影像資料以及DNA基因編碼等醫療信息,通過計算機的超算和學習模型來篩選和解析患者數字化信息,從而為用戶提供健康預警,并在飲食、起居等各方面提供健康建議,幫助用戶規避患病風險。此外,通過區域健康管理可作,AI通過大量實時搜索分析某一區域內人群的健康數據,對比歷史數據,深度分析,可跟蹤、預判傳染病病在該區域中爆發及流行趨勢,為衛生行政主管部門提供應對決策預警。在臨床運用上,Welltok公司與IBM沃森合作,已通過“Cafe?Well健康優化平臺”推出幫助用戶管理壓力、調節情緒、控制營養以及糖尿病護理,并且會在用戶保持健康生活習慣時給予獎勵。同時,為用戶提供靈活、全方位的健康促進方案,包括階段性臨床護理、長期保持最佳健康狀態等多個方面的服務。

  醫療AI在診斷、治療、看護以及健康管理領域的應用呈逐漸擴大和深入之趨勢,考慮其進步潛力及醫學應用前景,法律應鼓勵這種創新技術的發展。隨著醫療人工智在臨床上的不斷應用,法律責任問題必然產生。首先,醫療AI診斷必須達到一定的標準,才能進入臨床應用環節。問題是,醫療AI在診斷、治療、護理環節中運用時,行為主體是醫療器械還是醫生,這兩者的準入標準并不相同,究竟達到何種標準才能進入臨床使用?其次,大數據與AI技術本身帶有不確定性,技術自身的發展以及技術應用的結果都可能產生無法控制或預測的風險。醫療AI誤診或誤操作等現象難以避免,當對病人造成損害的,顯然需要追究法律責任。但是,追責對象究竟是AI本身,還是醫務人員和醫療機構,還是醫療AI的生產者(包括軟件或硬件)?換言之,醫療AI在法律上是人還是物?這是探究醫療服務AI法律責任最基本也是最重要的問題。只有在法律上界定了AI診斷的法律身份,其他的相關問題才能迎刃而解。

  實踐證明,醫療AI誤診或誤操作等現象難以避免。由于Watson背后的“技術黑箱”和“自主學習”,它無法解釋它的決策理由,即為什么會為特定的患者推薦特定的治療方案,有時甚至是??漆t生們也會疑惑Watson為何會提出他們不會提出的治療方案。此時,醫生對于究竟是否需要采納Watson的方案將陷入兩難的境地,如果因采納Watson的方案而導致誤診的,或者明明可以使患者獲得救助,卻因未采納Watson的方案而導致患者誤診受到損害的,是否需要承擔法律責任?再如,“達芬奇”這樣的手術AI雖然出色,但也仍然存在安全風險。在英國2015年首例“達芬奇”心瓣修復手術中,機械手臂亂動打到醫生的手,還把病人心臟放錯位置,戳穿了患者的大動脈。由于手術AI沒有觸覺反饋,醫生無法感知到在手術過程中的病人的身體反饋情況,難以根據臨床現狀及時調整手術方案,一旦碰上手術AI出現硬件故障或程序漏洞,很容易造成醫療事故。醫療AI在護理和健康管理中同樣存在因AI硬件故障或程序漏洞而導致患者遭受醫療損害的問題。那么,這類手術AI的安全標準是什么,一旦發生醫療事故責任主體是誰,此類問題亟須法學界給出答案。

  發展醫療AI,特別是發展醫療AI健康管理,需要利用大量醫學數據。醫療AI的服務質量取決于喂投給它的醫療數據的量,兩者呈成正比關系。為了更好地提供精準化、個性化的健康管理服務,往往需要采集使用者全時段,全方位,長周期,海量的生理和生活數據,其中絕大部分屬于隱私數據,對這些數據進行簡單地大數據分析就可得知使用者的敏感信息,一旦被有意或無意地泄露,會給使用者造成重益侵害。而且,醫療AI不同于醫生,系統收集到的患者信息保存于云端或存儲器,就算人工刪除也能被輕易恢復。而且,AI的“保密性”不像人那樣存在情感,任何人均可從中調取信息,加密措施也無法完全阻止黑客的信息調取。完全摒棄保護隱私,全部數據均用于發展AI,或者追求隱私的絕對保護,全面禁止AI使用醫療大數據,顯然均不可取。需要在這兩者之間尋找到平衡點。此外,通過對大量醫療數據的加工可以形成新的有用數據,此時不僅需要保護被搜集人的個人信息權,還要保護數據開發者、合法利用者的數據權,迄今為止,如何對數據進行確權并且構建起權利內容和權利轉移制度尚未解決。這為法律對醫療數據的保護和利用提出了較高的要求。

  我國尚無法律法規用于界定AI的法律地位。但是,從外觀而言,醫療是AI具有特定物理形態的醫療工具,與其他手術器械相比,并無顛覆性的改變。從內在而言,醫療AI是一套能夠按照內設程序進行操作的系統,該系統由人類設計,并受人類控制,并未做到完全獨立自主地從事醫療行為。而且,醫療AI無法像人類醫生那樣和病人進行情感交流,或許永遠無法超越專業人員對疾病和病人人生觀和價值觀的理解。從AI的發展階段來看,當前醫療AI還缺乏自我意識,不會像人類一樣思考,仍然處于弱AI階段。當下,最終做診斷結論和手術操作(或下達動作指令)的仍然是醫生。因此,此階段的醫療AI不應具有法理主體地位,仍然屬于醫療器械。其不僅不具備產生民事法律關系的主體資格,更不能成為承擔刑事責任的主體,難以獨立承擔法律責任。

  當然,隨著AI技術不斷發展與進步,真正到達強AI階段,人機界限模糊且人機共存狀態成為新的社會特征,出現具有法律人格或類法律人格的智能機器人,以人際社會關系作為調整對象的法律制度將出現顛覆性的變革。在將來醫療AI確實達到能夠獨立診斷或獨立手術的地步,通過立法賦予其一定的法律主體地位也未嘗不可。其實,早在2016年,歐盟委員會的法律事務委員就建議將最先進的AI人的身份定位為“電子人”。如果醫療AI要作為獨立主體進行診斷或治療等活動,為了保證醫療水準以及醫療安全,就應當向人類醫生一樣,讓其必須要獲得相關的行醫的資格。到那個階段,法律就不能將其簡單地定義為人或者物,而應是一定條件下的物或一定條件下的人,即應當以醫療AI的具體應用場景對其作出人或者物的定性。醫療AI不僅要滿足作為醫療設備的各項指標,更要達到作為主體“醫生”的各項要求,在出現醫療損害時甚至成為承擔法律責任的主體。

  “沒有責任就沒有刑罰”是現代刑法的一個基本原理。責任的本質特征是非難可能性,只有在具有非難可能性的情況下,行為人才能對不法行為承擔責任。由于我國目前尚未出臺專門針對醫療AI的法律法規,有必要在既有的法律框架內探討醫療AI在診斷和治療過程中引發醫療事故時的法律責任。如上述,醫療AI目前仍是輔助醫療工具,還不具有法律上的主體地位,因此,當下醫療AI造成醫療事故時,責任主體仍是研發者、生產者以及使用者。法律責任通常包括民事責任和刑事責任。

  根據《侵權責任法》第54條和57條的規定,患者在診療活動中受到損害,醫療機構及其醫務人員有過錯的,或者醫務人員在診療活動中未盡到與當時的醫療水平相應的診療義務的,由醫療機構承擔賠償責任。此外,根據《刑法》第335條規定,醫務人員由于嚴重不負責任,造成就診人死亡或者嚴重損害就診人身體健康的,構成醫療事故罪,醫務人員需要承擔刑事責任??傊?,不管追究醫療事故的民事責任還是刑事責任,問題的核心都是相關人員是否存在過失。相對于民事侵權,構成醫療事故罪則要求醫務人員存在重過失。

  目前,在診斷領域,AI的數據分析結果或判斷,起的作用和傳統醫療中的驗血、B超檢查結果同樣,僅僅是輔助醫務人員進行疾病診斷。因此,發生誤診造成患者損害的責任主體仍然是醫務人員。使用AI系統的醫生在選擇該系統時必須采取合理的謹慎態度,而不能以表面數據來做直接判斷,醫生應該盡可能地核實結果,否則如疏忽大意參照AI的建議最終給出了錯誤的診斷,從而耽誤了患者治療并造成患者受到損害的,自然需要根據情節承擔民事或刑事責任。如果醫生未能使用AI系統來避免醫療錯誤,也同樣有可能被認為是疏忽大意。因為,醫生為病人提供診斷服務,應當符合當時的醫學水準。如果在某個領域,AI系統已經完善且已有令人滿意的治理效果,此時醫生拒絕使用AI系統使得特定的患者承受錯誤的診斷,并造成了損害,這種情況下,醫生有可能需要承擔過失責任。當然,AI被設計出來就是為了讓其發現新的聯系并創造創新性的解決方案,由于AI算法具有不透明性,在某些情形下,可能無論是醫生還是開發人員都不知道AI建議背后的邏輯,由于不具有預見可能性,此時因不采納醫療AI的建議而誤診的不應當被視為存在過失。

  在治療和護理領域,醫療AI均有可能引發醫療事故?,F階段醫療手術環節的主要角色仍然是醫生,因醫療AI引發醫療事故的,首先要追究醫務人員的過失責任。其過失的判斷構成與上述出現誤診時的情形基本相同。醫務人員因未盡到注意義務而造成醫療事故的,需要承擔過失責任。當然,從醫術正當性的角度而言,醫務人員應當履行謹慎操作的義務。為了實現這一目的,應在正確掌握操作技能的基礎上才能使用醫療AI,在未能掌握操作技能的情況下魯莽操作,或者未按照使用說明步驟誤操作,給患者造成損害的,當然要承擔侵權責任,如果情節嚴重,給患者造成了死亡或者嚴重損害就診人身體健康的行為,甚至需要承擔醫療事故罪的刑事責任。

  AI系統很復雜,不可能不存在任何缺陷。因硬件故障或電氣噪音、代碼錯誤等都可造成產品缺陷。此外,系統沒有得到合理的維護和更新,也會直接產生錯誤的判斷或命令執行。醫療AI沒有經人的過失行為直接導致患者損害結果發生的,其自主決策能力帶來的不可預測性將中斷醫療機構與患者損害之間的因果關系,在醫務人員根據相關手冊正確操作智能醫療機器人后,難以認定醫療機構在診療活動中未盡到合理注意義務而存在過錯。因此,此情形之下可以考慮的追責對象只能是醫療AI儀器的生產者(包括程序的開發者)。

  醫療AI的生產者需要履行告知使用者培訓后再使用的義務,否則制造商存在過失。如果因為機器本身的設計缺陷而導致損害結果發生,理應適用產品責任規定。醫療AI屬于醫療器械,依照《侵權責任法》第41條的規定,因產品缺陷而導致他人生命、身體和財產法益遭受損害的,即使無法證明生產者存在過失,仍然可以追究生產者的賠償責任。而且,依照《刑法》第145條的規定,生產不符合保障人體健康的國家標準、行業標準的醫療AI、或者銷售明知是不符合保障人體健康的國家標準、行業標準的醫療AI,足以嚴重危害人體健康的,將構成“生產、銷售不符合標準的衛生器材罪”,需要承擔刑事責任。為了明確責任,國家應當制定統一的醫療AI安全標準,以提供缺陷判斷依據。

  如果是確實已經過充足而嚴格的實驗,通過權威機構的相關安全認證,僅僅因科技水平的限制,人的認識能力不足等原因而導致AI造成醫療事故的,可以認定為醫療意外,生產者無須承擔責任。但有必要引入責任保險制度。這樣可以在高效救濟受害人的同時,分減輕生產者的負擔,分散事故風險,有利于醫療AI的創新和發展。

  醫療大數據是醫療AI的應用基礎。醫療數據中幾乎包含了公民的所有個人信息,除了姓名、年齡、身高、體重等基本信息外,還有現在及以前的健康狀況、甚至是基于基因檢測而獲得的基因信息。負面的醫療信息,特別是敏感度極高的負面基因信息,一旦被泄露,將使受害人在就學、就業、加入保險等方面受到歧視。我國無論是憲法、民法還是行政法都規定醫務人員具有守密義務,違反了這些規定,如果不存在正當化事由,會被追究民事責任、行政責任,情節嚴重的,還有可能構成“侵害公民個人信息罪”,受到刑事處罰。但刑法不應成為社會管理法,法定犯不應成為社會治理中的利器,罪刑法定原則也不應成為社會治理失范的犧牲品;法定犯時代堅守法治國的罪刑法定原則具有更加特殊的意義。

  醫學的傳承和發展離不開醫學研究。每一個人享受的醫療服務都是建立在前人貢獻自己醫學數據的基礎上。人是社會的人,從人類社會群體之間具有“連帶性”的角度出發,為了維護和促進人類健康,患者有義務在自己不受傷害、或者受益與傷害成比例的情況下,配合醫務人員開展醫療AI的開發與使用。但這是道德義務而非法律義務,不能強求患者提供醫療數據?,F實可行的辦法是,在使用醫療數據時,應當對其進行匿名化處理,實在難以進行充分匿名化處理的,則必須要獲得患者本人的同意。當然,也要堅決限制數據壟斷,堅持AI決策透明化。國務院《關于促進和規范健康醫療大數據應用發展的指導意見》(2016),已經把醫療大數據列為國家的基礎戰略資源。因此,我國將來應當通過完善包括醫療信息在內的個人信息保護立法,在保護公民隱私的基礎之上,充分利用醫療大數據,建設國家級醫療大數據資源庫。

  AI在醫療保健領域的出現同時帶來了希望和恐慌。一方面,它帶來了更準確的診斷、建議、更多的個性化治療和更少的不必要診斷、治療以及保健。另一方面,為醫學誤診以及醫療事故的責任分配提出了法律挑戰。不同的處理方式會造成不同的影響,因為它可以加速或阻礙新技術的引進。目前,我國尚未出臺法律法規對AI醫療進行有效監管,因未建立醫療AI適用的質量標準評估體系,無法對AI按數據和算法進行有效驗證和評價,且未完善對醫療數據的保護和利用的法制框架。因此,我國應盡快補充完善相關法律法規,建立完善的技術標準和法律歸責制度,平衡好患者、醫務人員、醫療機構、醫療AI的設計者、生產者的利益與責任。要在綜合衡量醫療AI風險和利益的基礎上,結合各方注意義務的關系去認定各方的過失責任。在數據保護上,出臺專門的醫療信息保護法,在保護好患者隱私的基礎上,充分實現醫療數據的價值,造福國民健康??傊?,對于醫療AI這一擁有重大應用前景的新技術,我們應當秉承包容的心態和審慎的態度,堅持以“前端預防”代替“末端懲治”,通過“法法銜接”,以體系性的法律規制去應對其所帶來的挑戰。

欄目導航

聯系我們

聯系人:劉經理

手機:15169028800

電話:15169028800 ( 微信同號)

郵箱:21241043@qq.com

地址: 山東省濟南市

亚洲无线卡一卡二

<acronym id="x0t5e"></acronym>

<ol id="x0t5e"></ol>

<cite id="x0t5e"><li id="x0t5e"></li></cite>
<acronym id="x0t5e"></acronym>
<strong id="x0t5e"></strong>