上一篇文章中,IHI Lucian?。蹋澹幔穑逖芯克偌藖碜詠嗰R遜、谷歌、微軟等大型科技公司以及哈佛醫(yī)學(xué)院、Leapfrog?。牵颍铮酰稹『汀。耍幔椋螅澹颉。校澹颍恚幔睿澹睿簦宓膶<医M,針對(duì)生成式AI在醫(yī)療領(lǐng)域的三大用例展開了分析,并就生成式AI對(duì)于患者安全的影響展開了全面評(píng)估。
*相關(guān)閱讀:生成式AI與患者安全(上):專家組詳解三大應(yīng)用場(chǎng)景與挑戰(zhàn)
那么,如何最大限度地發(fā)揮生成式AI 的優(yōu)勢(shì),消除患者安全和質(zhì)量方面的“慢性問題”,并最大限度地降低技術(shù)對(duì)患者和患者安全的風(fēng)險(xiǎn),一些關(guān)鍵群體必須深入思考相應(yīng)的策略。
本文將詳細(xì)分析醫(yī)療活動(dòng)中不同群體的角色、責(zé)任、他們面臨的挑戰(zhàn),以及如何負(fù)責(zé)任地采用生成式AI。
01患者和患者權(quán)益倡導(dǎo)者
患者是醫(yī)療保健服務(wù)的直接受益者,他們對(duì)生成式AI的引入持有重要的發(fā)言權(quán)。
專家組建議,患者和患者權(quán)益倡導(dǎo)者需要確保醫(yī)療機(jī)構(gòu)在應(yīng)用生成式AI時(shí)保持透明。在目前的初級(jí)階段,醫(yī)療機(jī)構(gòu)必須制定披露和同意的最低標(biāo)準(zhǔn),以確?;颊吡私庠谄溽t(yī)療過程中使用生成式AI 的情況?;颊邞?yīng)有權(quán)選擇拒絕使用生成式AI,并在拒絕時(shí)獲得適當(dāng)?shù)奶娲桨??;颊咝枰谥榈那闆r下同意使用其數(shù)據(jù)。
02臨床醫(yī)生
臨床醫(yī)生是生成式AI應(yīng)用的直接參與者。他們必須要了解這些新技術(shù),并合理地將它們?nèi)谌肴粘at(yī)療實(shí)踐中。
專家組建議,臨床醫(yī)生應(yīng)將生成式AI節(jié)省下來的時(shí)間,部分用來改善患者護(hù)理,提高醫(yī)療質(zhì)量和安全性。同時(shí),臨床醫(yī)生需要了解生成式AI的局限性和挑戰(zhàn),倡導(dǎo)持續(xù)改進(jìn),運(yùn)用專業(yè)知識(shí)理解和改善現(xiàn)有的問題,如偏見、數(shù)據(jù)集代表性不足、缺乏透明度或可解釋性等。努力學(xué)習(xí)新技能,包括基本的生成式AI知識(shí)、人工智能與倫理、臨床生成式AI工具的模擬練習(xí),以及醫(yī)療保健系統(tǒng)實(shí)踐和政策指導(dǎo)等。
此外,臨床醫(yī)生應(yīng)將生成式AI工具視為輔助工具,而非替代品,在臨床決策中保持最終決策者的角色。小心謹(jǐn)慎,確保對(duì)AI工具的使用進(jìn)行監(jiān)督,從而實(shí)現(xiàn)實(shí)際的安全,而不僅僅是表面安全。
03安全與質(zhì)量專業(yè)人員
患者安全和質(zhì)量專業(yè)人員負(fù)責(zé)監(jiān)控流程、識(shí)別風(fēng)險(xiǎn)和實(shí)施最佳實(shí)踐,以防止差錯(cuò)和減少傷害。他們需要利用生成式AI來加強(qiáng)對(duì)患者安全問題的檢測(cè)和監(jiān)控,并提高報(bào)告的效率。
安全與質(zhì)量專業(yè)人員必須確保,通過這些AI技術(shù)所獲得的時(shí)間能夠被用來高效分配安全管理任務(wù),制定有效的戰(zhàn)略來減少反復(fù)出現(xiàn)的安全風(fēng)險(xiǎn)和危害,而不是僅僅優(yōu)先考慮降低成本。
在使用人工智能加強(qiáng)事件報(bào)告流程之前,應(yīng)當(dāng)重新思考患者安全的關(guān)鍵模式,在實(shí)際傷害發(fā)生之前進(jìn)行識(shí)別和預(yù)防。
與其他關(guān)鍵群體進(jìn)行合作(如患者和臨床醫(yī)生、信息技術(shù)和信息學(xué)人員、數(shù)據(jù)科學(xué)家和分析師、領(lǐng)導(dǎo)者),以促進(jìn)安全、高質(zhì)量的醫(yī)療,避免僅僅名義上的參與。
04醫(yī)療保健系統(tǒng)
雖然生成式AI有望簡(jiǎn)化運(yùn)營(yíng)和提高醫(yī)療水平,但醫(yī)療系統(tǒng)的領(lǐng)導(dǎo)者必須把握好相關(guān)風(fēng)險(xiǎn)。包括以負(fù)責(zé)任、合乎道德和公平的方式開發(fā)、實(shí)施和使用人工智能系統(tǒng),確保其可信度和準(zhǔn)確性,并降低網(wǎng)絡(luò)安全風(fēng)險(xiǎn)。
醫(yī)療系統(tǒng)及其領(lǐng)導(dǎo)者必須確保生成式AI的使用滿足現(xiàn)有需求。制定和實(shí)施計(jì)劃時(shí),需考慮可能出現(xiàn)的錯(cuò)誤結(jié)果和意外后果,并營(yíng)造重視患者安全、公平和負(fù)責(zé)任地使用生成式AI的氛圍,以提高醫(yī)療服務(wù)質(zhì)量。
同時(shí),專家組強(qiáng)調(diào),應(yīng)用生成式AI的同時(shí),應(yīng)將時(shí)間效率重新分配,以減少臨床醫(yī)生的倦怠感。
此外,需要在教育、培訓(xùn)和保障措施方面進(jìn)行投資,以培養(yǎng)有效使用生成式AI工具的能力,并確保臨床醫(yī)生和其他人員保持基本的醫(yī)療能力。
建立健全的人工智能管理,促進(jìn)跨學(xué)科合作。建立管理、評(píng)估和監(jiān)控程序,指導(dǎo)基因人工智能的使用,并制定明確的隱私、安全(包括網(wǎng)絡(luò)安全)、數(shù)據(jù)所有權(quán)和管理政策,以及基于AI工具的內(nèi)部開發(fā)指南等,在快速部署的愿望與謹(jǐn)慎的需要之間取得平衡。內(nèi)部開發(fā)的AI工具要能夠支持和加強(qiáng)臨床醫(yī)生與患者之間的關(guān)系,進(jìn)行以人為本的設(shè)計(jì)。
05生成式AI 開發(fā)人員
生成式AI的開發(fā)者在創(chuàng)新與人類福祉和安全之間必須取得平衡。需要優(yōu)先考慮透明、可解釋的人工智能設(shè)計(jì),使患者和臨床醫(yī)生能夠理解并信任其輸出結(jié)果。
與醫(yī)療保健專業(yè)人員、安全領(lǐng)導(dǎo)者、患者和患者權(quán)益倡導(dǎo)者密切合作,收集反饋并不斷改進(jìn)人工智能工具。開發(fā)者還必須主動(dòng)了解和降低患者安全風(fēng)險(xiǎn),對(duì)AI工具進(jìn)行持續(xù)監(jiān)測(cè),避免偏差。
此外,還需整合先進(jìn)的數(shù)據(jù)安全措施,保護(hù)敏感的患者數(shù)據(jù),直面隱私和數(shù)據(jù)所有權(quán)問題。在產(chǎn)品的整個(gè)生命周期中遵循現(xiàn)有的網(wǎng)絡(luò)安全準(zhǔn)則,主動(dòng)識(shí)別數(shù)據(jù)的潛在風(fēng)險(xiǎn),隨時(shí)了解并遵守醫(yī)療法規(guī)和指導(dǎo)方針,確保人工智能工具符合管理機(jī)構(gòu)制定的安全、隱私和道德標(biāo)準(zhǔn)。
06研究人員
研究人員在建立生成式AI研究基礎(chǔ),以及縮短科研與實(shí)踐的鴻溝中,扮演著關(guān)鍵角色。他們需要研究如何減輕數(shù)據(jù)集的偏差問題,提高AI工具的可信度。
以人為本的設(shè)計(jì)需要進(jìn)行大量的研究,包括與患者偏好、警報(bào)疲勞,以及技術(shù)對(duì)醫(yī)患關(guān)系的影響等相關(guān)的人為因素問題。
此外,另一個(gè)關(guān)鍵的研究領(lǐng)域是如何確保人類對(duì)AI工具進(jìn)行有效監(jiān)督,研究人員可以幫助制定相關(guān)策略,以克服生成式AI的潛在風(fēng)險(xiǎn)。
07監(jiān)管者和決策者
促進(jìn)負(fù)責(zé)任的生成式AI采用,監(jiān)管者和政策制定者起著至關(guān)重要的作用。他們需要制定明確的指導(dǎo)方針,制定全面的法規(guī),重點(diǎn)關(guān)注患者安全、數(shù)據(jù)保護(hù)和合乎道德地使用技術(shù)。與開發(fā)者和用戶合作,規(guī)定生成式AI 系統(tǒng)的透明度,以確保用戶了解人工智能是如何做出決策的,并在出現(xiàn)錯(cuò)誤或不利結(jié)果時(shí)建立問責(zé)機(jī)制。
監(jiān)管者和決策者還有責(zé)任促進(jìn)人工智能掃盲,提高公眾意識(shí)。
此外,應(yīng)當(dāng)激勵(lì)那些將安全放在首位的人工智能開發(fā)和研究,并促進(jìn)本地化決策,同時(shí)為總體人工智能安全和道德標(biāo)準(zhǔn)提供框架。