超過三分之二的醫(yī)療保健高管預測 人工智能將在未來三年內(nèi)對他們的組織產(chǎn)生重大影響,醫(yī)生和技術(shù)之間的關(guān)系似乎將在近期到中期發(fā)生變化,。
為了準備和影響這些變化,,AMA在其年會上采納了大量政策和建議,。一些政策以醫(yī)生培訓為中心,。另一套政策建議更廣泛地涉及醫(yī)療保健人工智能系統(tǒng)的開發(fā),,采用和監(jiān)督。
這兩套策略都具有與AI系統(tǒng)開發(fā)人員相關(guān)的要點,。采納這些政策建議后,,AMA將倡導AI開發(fā)人員,而非醫(yī)生,,在使用該技術(shù)時出現(xiàn)問題時要對其負責,。鑒于人工智能開發(fā)人員“處理直接因系統(tǒng)故障或誤診而引起的責任問題”,AMA認為這是公平的,。
雖然AMA明確誰應該負責,,但其他當局仍在辯論這個話題。在今年早些時候的一次會議上,,一位歐洲政客問道,,“如果機器人在手術(shù)中犯了錯誤,或者自動駕駛汽車崩潰,,誰將負責,,”他補充說這些問題給監(jiān)管機構(gòu)帶來了新的挑戰(zhàn)。
AMA希望看到制定的政策可以降低導致危害進入市場的AI應用程序的風險,。醫(yī)學協(xié)會倡導“基于傷害和利益風險”的規(guī)定以及影響安全性,,有效性,隱私性和安全性的報銷決策,。AMA認為,,付款人的報道應該有助于醫(yī)生過渡到新的系統(tǒng),并為他們提供反饋的機會,,并補充說,,在情況“不穩(wěn)定”的情況下,沒有人應該因為沒有使用AI而受到懲罰,。
培訓政策旨在確保希望使用AI的醫(yī)生能夠這樣做,。具體的AMA政策包括推動提供教育材料,以“防止無意中傳播人工智能系統(tǒng)中可能存在的偏見”,。