Дальневосточный государственный медицинский университет Поиск | Личный кабинет | Авторизация
Поиск статьи по названию
Поиск книги по названию
Каталог рубрик
в коллекциюДобавить в коллекцию

Потенциальная ответственность врачей, использующих искусственный интеллект

Текст статьи доступен по ссылке: http://www.fesmu.ru/dmj/20241/2024113.aspx

Полный текст
Александр Алексеевич Мельников
Потенциальная ответственность врачей, использующих искусственный интеллект
Филиал № 3 ФГКУ "1477 ВМКГ", Вилючинск, Россия, Snoymen@mail.ru, https://orcid.org/0009-0000-3550-6827
Аннотация:
В данной статье рассматривается актуальная и важная проблема сферы здравоохранения - использование искусственного интеллекта (ИИ) в медицинской практике и связанные с этим потенциальные юридические вопросы и ответственность врачей. Анализируются теоретические и практические аспекты применения ИИ в медицинской диагностике, лечении и принятии решений. Статья рассматривает риски, связанные с возможными ошибками ИИ в медицинской практике, выявляет преимущества и ограничения использования ИИ в медицине. Освещает проблемы по принятию медицинских решений с участием ИИ, которые могут принести как вред, так и пользу. Обсуждается, какие меры могут быть приняты для минимизации этих рисков и меры по скорейшему внедрению ИИ в медицинскую практику. Эта статья представляет интерес для специалистов в области медицины, права и информационных технологий, а также для всех, кто интересуется вопросами взаимодействия медицины и искусственного интеллекта и их юридической стороной. Для цитирования: Мельников А.А. Потенциальная ответственность врачей, использующих искусственный интеллект / А.А. Мельников // Дальневосточный медицинский журнал. - 2024. - № 1. - С. 77-80. http://dx.doi.org/10.35177/1994-5191-2024-1-13.
Ключевые слова:
искусственный интеллект, тактика лечения, ответственность

Alexander Alekseevich Melnikov
Potential liability of doctors using artificial intelligence
Branch № 3 of FGKU "1477 VMKG", Vilyuchinsk, Russia, Snoymen@mail.ru, https://orcid.org/0009-0000-3550-6827
Abstract:
This article discusses an urgent and important problem of the health care sector - the use of artificial intelligence (AI) in medical practice and related potential legal issues and the responsibility of doctors. The theoretical and practical aspects of the use of AI in medical diagnostics, treatment and decision-making are analyzed. The article examines the risks associated with possible AI errors in medical practice, identifies the advantages and limitations of using AI in medicine. The article highlights the problems of making medical decisions involving AI that can bring both harm and benefit. It discusses what measures can be taken to minimize these risks and measures to introduce AI into medical practice as soon as possible. This article is of interest to specialists in the field of medicine, law and information technology, as well as to anyone interested in the interaction of medicine and artificial intelligence and their legal issues. For citation: Melnikov A.A. Potential liability of doctors using artificial intelligence / A.A. Melnikov // Far Eastern medical journal. - 2024. - № 1. - P. 77-80. http://dx.doi.org/10.35177/1994-5191-2024-1-13.
Key words:
artificial intelligence, treatment tactics, responsibility
Введение

Искусственный интеллект (ИИ) со смесью надежды и ажиотажа быстро проникает в медицинскую практику, особенно в формах, основанных на машинном обучении.

В настоящее время Указ Президента РФ № 490 от 10.10.2019 г. "О развитии искусственного интеллекта в Российской Федерации" устанавливает национальную стратегию развития ИИ, в том числе и в сфере здравоохранения. Правовую основу национальной стратегии развития искусственного интеллекта составляет: Конституция Российской Федерации, Федеральный закон от 28 июня 2014 г. № 172-ФЗ "О стратегическом планировании в Российской Федерации", указы Президента Российской Федерации от 7 мая 2018 г. № 204 "О национальных целях и стратегических задачах развития Российской Федерации на период до 2024 года", от 9 мая 2017 г. № 203 "О Стратегии развития информационного общества в Российской Федерации на 2017-2030 годы", от 1 декабря 2016 г. № 642 "О Стратегии научно-технологического развития Российской Федерации" и иные нормативные правовые акты Российской Федерации, определяющие направления применения информационных технологий в Российской Федерации. 25 ноября 2022 года Минздрав России запустил платформу искусственного интеллекта в здравоохранении. С помощью ИИ предполагается повысить качество услуг, включая профилактические обследования и диагностику, основанную на анализе изображений. Технологии позволят прогнозировать возникновение и развитие заболеваний, подбирать дозировки лекарств и сокращать угрозы пандемий [1]. Также искусственный интеллект должен автоматизировать хирургию и сделать ее более точной.

Системы здравоохранения и больницы все чаще внедряют системы на основе искусственного интеллекта. Например, медицинский искусственный интеллект может поддерживать клинические решения, такие как рекомендация лекарств или дозировок, или интерпретация рентгенологических изображений.

Одним из ключевых отличий от большинства традиционных программ поддержки принятия клинических решений является то, что некоторые медицинские ИИ могут передавать результаты или рекомендации медицинской бригаде, не имея возможности сообщить основные причины этих результатов.


Обсуждение

Медицинский искусственный интеллект может обучаться в неподходящих условиях, с использованием несовершенных методов или на основе неполных данных. В этих гибридных системах интегрированы нейронные сети и прогрессивные правила, а выводы строятся на основе теорий нечеткой логики [5, 6]. Даже если алгоритмы обучены настолько хорошо, насколько это возможно, они могут, например, пропустить новообразование на рентгенологическом снимке или предложить неправильную дозу лекарственного средства или неподходящий препарат. Результатом этого может явиться неправильная тактика лечения пациента. А врач, принявший во внимание тактику лечения ИИ может быть привлечен к ответственности в соответствии с действующим законодательством.

Из-за того, что искусственный интеллект "новичок" в клинической практике, по сути, не существует прецедентного права об ответственности, связанной с медицинским ИИ. По мнению Н.В. Антоновой, С.Б. Бальхаевой традиционные режимы правового регулирования слишком забюрократизированы, чрезмерно жесткие и довольно сложны для имплементации в существующую систему права для регулирования такой динамичной отрасли как искусственный интеллект в сфере здравоохранения [4]. Тем не менее, можно понять, как действующее законодательство, вероятно, будет трактовать эти ситуации, исходя из более общих принципов права.

Таблица - Потенциальные результаты взамодействия врача и ИИ
Сценарий Рекомендация ИИ Рекомендации искусственного интеллекта Действие врача Исход лечения Юридический исход (вероятный)
1 стандарт лечения правильные следует хороший никакого вреда и никакой ответственности
2 отвергает плохой вред здоровью и ответственность
3 неправильные следует плохой вред здоровью, но никакой ответственности
4 отвергает хороший никакого вреда и никакой ответственности
5 Нестандартное лечение неправильные (стандарт лечения неверен) следует хороший никакого вреда и никакой ответственности
6 отвергает плохой вред здоровью, но никакой ответственности
7 правильные (стандарт лечения неверен) следует плохой травма и ответственность
8 отвергает хороший никакого вреда и никакой ответственности
В таблице представлены потенциальные результаты простого взаимодействия - например, когда искусственный интеллект рекомендует лекарство и дозировку пациентке с раком яичников. Предположим, что стандартом лечения этого пациента было бы введение химиотерапевтического препарата в дозе 15 мг/кг каждые 3 недели. Первый вопрос (колонка 2) - это то, что рекомендует ИИ. Для упрощения предположим, что ИИ дает 1 из 2 рекомендаций (в клинической практике их может быть гораздо больше): стандартная доза или гораздо более высокая доза: 75 мг/кг каждые 3 недели. Рекомендации ИИ могут быть правильными или неправильным в любом случае (колонка 3). Несмотря на то, что стандартная доза для лечения составляет 15 мг/кг каждые 3 недели, возможно, по какой-то причине для данного конкретного пациента подходит более высокая доза. Такая рекомендация соответствовала бы одной из целей некоторых ИИ - персонализации лечения. Далее врач может либо последовать рекомендации ИИ, либо отклонить ее (колонка 4). В настоящее время врач сохраняет это право на своё усмотрение, хотя в будущем система здравоохранения или пациент могут ограничить это право врача. В колонке 5 представлен результат лечения пациента. Если врач следует правильной рекомендации или отклоняет неправильную рекомендацию, результат хороший; если наоборот, результат плохой (в этом очень стилизованном примере). В результате получается восемь возможных сценариев (колонка 6). Закон трактует их по-разному, и понимание этих различий основывается на некоторых основных элементах законодательства Российской Федерации. Во-первых, если нет вреда здоровью, то и ответственности не будет (зеленые прямоугольники в таблице); это хороший результат, независимо от того, происходит ли это потому, что врач принимает правильную рекомендацию (сценарии 1 и 5) или отклоняет неправильную рекомендацию (сценарии 4 и 8). Во-вторых, законодательное право обычно отдает предпочтение стандарту оказания медицинской помощи, независимо от его эффективности в конкретном случае, т. е. от того, приводит ли предоставление такой помощи к хорошему или плохому результату. Когда врачи соблюдают стандарты лечения (например, 15 мг/кг химиотерапевтического препарата каждые 3 недели; сценарии 1, 3, 6 и 8), они, как правило, не будут нести ответственности за плохой исход, даже если другой курс лечения был бы лучше для конкретного пациента в конкретном случае (желтые прямоугольники в таблице). Таким образом, согласно действующему законодательству, врач сталкивается с опасностью только в том случае, если он не соблюдает стандарты оказания медицинской помощи и это приводит к вреду для здоровья [2] (красные прямоугольники в таблице). Этот анализ имеет важное значение для врачей, использующих медицинский ИИ для принятия клинических решений: поскольку действующее законодательство защищает врачей от ответственности до тех пор, пока они соблюдают стандарты оказания медицинской помощи, "самый безопасный" способ использования медицинского ИИ с точки зрения ответственности - это его использования для подтверждения существующих стандартов оказания медицинской помощи, ускорения процессов принятия решений, но ни как не способ улучшения стандартов лечения. Хотя многие врачи могут быть довольны таким подходом, проблема заключается в том, что действующий закон стимулирует врачей сводить к минимуму потенциальную ценность искусственного интеллекта.

По данным, из журнала British Medical Journal, исследование Университета Джона Хопкинса показало, что более 250 000 смертей в год в США происходят из-за врачебной ошибки, что делает его третьей ведущей причиной смерти в стране после болезней сердца и рака [7]. Если подходить обдуманно и взвешенно к рекомендациям и развитию медицинского ИИ, то в будущем можно избежать множество врачебных ошибок, а некоторые медицинские ИИ будут работать гораздо эффективнее, чем даже лучшие врачи, например, будут рекомендовать более высокую дозировку лекарства, которая отличается от результатов стандартного лечения и назначений врача, что может дать положительные результаты в лечении. Это и является целью некоторых алгоритмов. Например, уже сейчас учёные из Оксфорда добились наивысшей степени точности диагностики - разработанная ими нейросеть распознала злокачественные образования на коже в 95 % случаев, в то время как группа опытных дерматологов из 53 человек - только в 88,9 % [3].

Но поскольку угроза ответственности побуждает врачей соблюдать стандарты оказания медицинской помощи, они могут отклонять такие рекомендации и, таким образом, не осознавать всю ценность искусственного интеллекта, в некоторых случаях даже в ущерб пациентам. Правовой стандарт оказания медицинской помощи является ключом к ответственности за медицинский ИИ, но он не является неизменным навсегда. Со временем стандарты лечения могут измениться.

Что произойдет, если медицинская практика достигнет точки, когда искусственный интеллект станет частью стандарта оказания медицинской помощи, общепринятого представления о надлежащей медицинской практике? Если это когда-нибудь произойдет, (сценарии 6 и 7): врачи могут понести ответственность за отклонение правильных, но нестандартных рекомендаций ИИ и, наоборот, могут быть подвержены риску причинения вреда, если они следовали неправильным рекомендациям ИИ. Поскольку законодательство по своей сути консервативно, вторая альтернатива (сценарий 7) является более вероятным развитием сценария: так как отклонение от известных стандартов оказания медицинской помощи, скорее всего, станет защитой от ответственности задолго до того, как врачи будут привлечены к ответственности за отклонение рекомендаций ИИ. Но врачи должны следить за этим законодательным пространством, потому что оно может быстро измениться.

Что же должны делать врачи? Врачи играют существенную роль в решении вопроса об ответственности. В своей практике врачи должны научиться тому, как лучше использовать и интерпретировать алгоритмы искусственного интеллекта, в том числе в каких ситуациях следует применять доступный медицинский искусственный интеллект и насколько следует доверять алгоритмическим рекомендациям. Это непростая задача, и инструменты оценки все еще находятся в стадии разработки. В рамках оказания медицинской помощи, в больницах и других системах здравоохранения врачи также должны стимулировать свои организации предпринимать активные шаги по оценке алгоритмов, специфичных для конкретной практики, а также следить за тем, чтобы административные усилия по разработке и внедрению алгоритмов отражали то, что действительно необходимо в клинической помощи. Проверка и оценка искусственного интеллекта, проведенная врачами, обеспечит гарантию качества и поможет обществу быстрее внедрить и принять продукты искусственного интеллекта в повседневную практику врача. При закупке внешних продуктов искусственного интеллекта врачам следует выступать за гарантии того, что такие продукты проходят тщательную проверку перед закупкой, как и в случае с другими новыми медицинскими устройствами. Подобно тому, как общество определяет и принимает стандарты оказания медицинской помощи при конкретных заболеваниях, общество может определить практику внедрения и использования медицинского ИИ надежно, безопасно и эффективно. Кроме того, при введении в стандарты оказания медицинской помощи ИИ следует ввести страхование врачей и тщательно проконсультироваться со страховщиками, чтобы определить, как страховщики будут покрывать ошибочное использование медицинского искусственного интеллекта на практике. Покроется ли лечение, основанное на рекомендациях искусственного интеллекта, в случае ошибки? В совокупности врачи и администрация, возможно, смогут потребовать изменений в плане страхового покрытия, чтобы лучше соответствовать потребностям будущей медицины с поддержкой искусственного интеллекта. Хотя действующее законодательство, касающееся ответственности врачей и медицинского искусственного интеллекта, является сложным, проблема становится гораздо более серьезной с признанием того, что ответственность врачей является лишь частью более широкой экосистемы ответственности. Системы здравоохранения, которые приобретают и внедряют медицинский ИИ, производители медицинского ИИ и, возможно, даже плательщики - все они могут столкнуться с ответственностью.

Сценарий 5, описанный в таблице, и фундаментальные вопросы, выделенные здесь, повторяются и взаимодействуют для каждой из этих форм ответственности. Более того, закон может измениться; в дополнение к тому, что искусственный интеллект станет стандартом медицинской помощи, что может произойти в результате обычной правовой эволюции, законодательные органы могли бы ввести совсем другие правила, такие как система без ошибок, подобная той, которая в настоящее время выплачивает компенсацию лицам, перенесшим тяжелые побочные эффекты от вакцины. Поскольку искусственный интеллект входит в медицинскую практику, врачам необходимо знать, как закон будет определять ответственность за последствия, возникающие в результате взаимодействия между алгоритмами и практикующими врачами. И эти проблемы могут возникнуть уже в ближайшее время с учетом темпов развития ИИ.


Список источников

1. Указ Президента РФ от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации".
2. Федеральный закон "Об основах охраны здоровья граждан в Российской Федерации" от 21.11.2011 № 323-ФЗ.
3. Финансовая газета: Перспективы лечения и диагностики с помощью искусственного интеллекта. [Электронный ресурс]. URL: https://fingazeta.ru/people/eksperty/457390.
4. Антонова Н.В., Бальхаева С.Б., Гаунова Ж.А. и др. Юридическая концепция роботизации: монография / Ответственные редакторы Ю.А. Тихомиров, С.Б. Нанба. - М.: Проспект, 2019. - С. 232.
5. Chandana S., Mayorga V.R., Chan Ch.W. Automated Knowledge Engineering // International Journal of Computer and Information Engineering. - 2008, - Vol. 2, № 3. - Р. 751-760.
6. Min H., Manion F.J., Goralczyk E., Wong Y.N., Ross E., Beck J.R. Integration of prostate cancer clinical data using an ontology // Journal of Biomedical Informatics. - 2009. - Vol. 42, № 6. - Р. 1035-1045.
7. Forbes: The Risks And Benefits Of AI In Medicine [Electronic resource]. URL: https://www.forbes.com/sites/forbestechcouncil/2021/03/23/the-risks-and-benefits-of-ai-in-medicine/?sh=2b467d1458d8 (accessed: 10.05.2022).

Аннотация:

В данной статье рассматривается актуальная и важная проблема сферы здравоохранения - использование искусственного интеллекта (ИИ) в медицинской практике и связанные с этим потенциальные юридические вопросы и ответственность врачей. Анализируются теоретические и практические аспекты применения ИИ в медицинской диагностике, лечении и принятии решений. Статья рассматривает риски, связанные с возможными ошибками ИИ в медицинской практике, выявляет преимущества и ограничения использования ИИ в медицине. Освещает проблемы по принятию медицинских решений с участием ИИ, которые могут принести как вред, так и пользу. Обсуждается, какие меры могут быть приняты для минимизации этих рисков и меры по скорейшему внедрению ИИ в медицинскую практику. Эта статья представляет интерес для специалистов в области медицины, права и информационных технологий, а также для всех, кто интересуется вопросами взаимодействия медицины и искусственного интеллекта и их юридической стороной.

Авторы:

Мельников А.А.

Издание: Дальневосточный медицинский журнал
Год издания: 2024
Объем: 4с.
Дополнительная информация: 2024.-N 1.-С.77-80. Библ. 7 назв.
Просмотров: 6

Рубрики
Ключевые слова
Ваш уровень доступа: Посетитель (IP-адрес: 18.222.121.24)
Яндекс.Метрика