Искусственный интеллект в медицине: этические требования

Несмотря на безусловную прогрессивность искусственного интеллекта в сфере медицины, работники системы здравоохранения должны относиться весьма педантично к соблюдению этических норм и правил. В настоящей статье мы познакомимся с международными этическими рекомендациями в области работы с искусственным интеллектом, рассмотрим проблемные этические вопросы использования данной технологии в медицине.

Сокольчик Валерия

доцент кафедры общественного здоровья и здравоохранения Института повышения квалификации и переподготовки кадров здравоохранения учреждения образования «Белорусский государственный медицинский университет», руководитель Республиканского центра биоэтики

537 Shape 1 copy 6Created with Avocode.

В современной жизни искусственный интеллект (далее — ИИ) играет колоссальную роль. Несмотря на то, что интуитивно мы понимаем, что подразумевается под ИИ, необходимо более точное определение этого достаточно широкого понятия.

Искусственный интеллект согласно определению, предложенному в Википедии, — это свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека, а также наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ.

В определении ИИ отражена его двойственная природа, которая в науке обычно рассматривается как разделение ИИ на сильный и слабый.

Сильный ИИ предполагает возможность для ИИ мышления, творчества по аналогии с деятельностью человеческого мозга (или принципиально иным путем). Реальность создания сильного ИИ пока остается под вопросом, несмотря на значительные усилия ученых всего мира.

Что же касается слабого ИИ, то это технологии, программное обес­печение и различные девайсы, которые все больше используются как в обыденной жизни, так и в профессиональной деятельности.

В современной медицине ИИ (в его слабом варианте) — это абсолютно незаменимый помощник в деятельности медицинского работника, в. т.ч. среднего медицинского персонала. Он применяется практически на всех стадиях профессиональной медицинской деятельности: от сбора анамнеза, простейших манипуляций до сложнейших операций и высокотехнологичных практик, не говоря уже о таких сферах, как фармацевтика, биомедицинские исследования, генетическое тестирование и многое другое.

Поскольку специфика медицинской деятельности предполагает применение этико-коммуникативных норм, правил, подходов, ценностей и императивов, то возникает вопрос правильного регулирования деятельности ИИ в медицине.

Международные рекомендации по этико-правовому сопровождению ИИ

За последние два-три года в мире появилось уже несколько рекомендаций и разработок, посвященных обязательному этико-правовому сопровождению использования продуктов ИИ, особенно в сфере биомедицины, где результаты данной деятельности напрямую связаны с человеком. Среди наиболее значимых документов по этому вопросу можно выделить:

  1. принципы Американской ассоциации потребительских технологий (СТА, США) (2020 г.);
  2. четыре принципа Национального института стандартов и технологий США (2020 г.), определяющие базовые этико-правовые требования, исходя из которых должны строиться отношения с системами ИИ;
  3. рекомендации Международной коалиции регуляторных органов в области лекарственных средств (ICMRA) для сфер клинической медицины и фармацевтики (2021 г.);
  4. рекомендации ЮНЕСКО по этике использования ИИ (2021 г.) и др.

При этом в рекомендациях ЮНЕСКО подчеркивается необходимость:

  • эффективно использовать системы ИИ, что предполагает тщательное экспертное изучение систем с включением в число экспертов не только разработчиков и медицинских специалистов, но и пациентов как непосредственных пользователей систем, а при необходимости (особенно в рамках исследований) — соответствующее согласование с этическими комитетами;
  • обеспечить безопасность и постоянный контроль систем ИИ для исключения ошибок, а при необходимости — проверку ИИ до его клинического применения;
  • запретить постановку диагноза системой ИИ без участия человека;
  • получать согласие пациентов на использование систем ИИ (которое осуществляется через информированное согласие);
  • построить работу так, чтобы пользователи могли легко определить, взаимодействуют они с живым существом или с ИИ, имитирующим характеристики человека (например, с ботом), и имели право отказаться от такого взаимодействия и запросить вмешательство человека;
  • повышать осведомленность и аккуратность использования ИИ как в среде медицинских работников, так и среди пациентов;
  • постоянно мониторировать системы ИИ, улучшать их, обучать работе с ИИ медицинский персонал;
  • создавать и постоянно обновлять этические рекомендации по использованию ИИ в медицинских исследованиях.

Этические проблемы использования ИИ в медицине

В настоящее время обозначают следующие этические проблемы использования ИИ в медицине как наиболее сложные и остро стоящие на повестке дня.

Во-первых, общая проблема, о которой говорят сегодня многие разработчики систем ИИ, — это проблема ошибок. Ошибки ИИ легко вводят в заблуждение, поскольку человек подпадает под магию точности и всесилия ИИ.

С проблемой ошибок связана и проблема неумения самого ИИ (т.е. его программ) признавать и, соответственно, исправлять эти ошибки. В медицине и фармацевтике такое неумение видеть, признавать ошибки или возникающее на основе ошибки ИИ человеческое заблуждение может стоить жизни и (или) здоровья пациенту.

Поэтому в этических принципах применения ИИ ключевым принципом становится доверие, расшифровываемое как доверие потребителей информационных продуктов разработчикам и постоянное непосредственное решение с ними возникающих проблем, а также, наоборот, доверие разработчиков самим потребителям в контексте ответственности, грамотности, тщательности последних при выполнении инструкций.

Справочно: доверие при использовании ИИ предполагает как высокие этические стандарты для пользователей, так и ясную, прозрачную и четкую юридическую, в т.ч. служебную, ответственность разработчиков за поставляемый продукт.

Кроме того, в базовых принципах работы с ИИ, предложенных Национальным институтом стандартов и технологий США, рассматриваются требования о:

  1. точности объяснения системой сути и результатов процессов генерирования результатов;
  2. пределе знаний, предполагающее, что система ИИ должна работать только в условиях, для которых она была разработана.

Исходя из сути данного принципа, при применении предлагаемых разработок на практике должно быть исключено самовольное изменение параметров работы систем (например, должны неукоснительно соблюдаться температурный режим, правила эксплуатации, сфера действия и т.д.). В работе, связанной с ИИ, несоблюдение требуемых параметров становится не просто неприемлемым, а даже угрожающим возникновением непредсказуемых ошибок и их последствий.

Во-вторых, сложнейшей этической проблемой использования продуктов ИИ в медицине становится сохранение конфиденциальности данных пациентов. 

В данном случае возникает сразу несколько проблемных вопросов: начиная от доступа к данным пациентов специалистов, непосредственно не связанных с оказанием медицинской помощи пациентам (сотрудники информационных служб, разработчики и другие лица, которые должны иметь доступ к такой информации в случае поломки или сбоев в работе различных звеньев ИИ), и заканчивая возможной утечкой информации вследствие технического сбоя.

Особенно данная проблема будет усложняться в связи с использованием так называемых больших данных (Big Data), которые представляют собой огромный массив информации о пациенте (не всегда напрямую связанной с медициной), аккумулируемой системами ИИ через социальные сети, различные девайсы и даже телефонные разговоры.

Безусловно, для медицины анализ таких комплексных данных порой абсолютно бесценен, но и риск, что эти данные станут известны посторонним лицам, весьма значителен.

Например, проходя генетическое тестирование (с использованием систем ИИ), пациент получает очень важную информацию, возможно, даже определяющую его будущее (наследственные болезни, возможность иметь детей, предрасположенность к заболеваниям и т.д.). Утечка подобной информации в буквальном смысле способна разрушить жизнь человека.

В связи с этим возникает вопрос о том, можно ли сегодня говорить о наличии в любой крупной организации здравоохранения сложной системы ограниченного доступа к базе данных пациентов специалистов различного уровня, разделении уровня доступа для врачей-специалистов, медицинских сестер и др.?

Если предположить необходимость создания таких баз данных на уровне республики, то это:

  • с одной стороны — значительно облегчило бы лечение пациента (вся информация о нем объективна, точна и достоверна);
  • с другой стороны — создало бы риск нарушения конфиденциальности и, возможно, необоснованного использования данных пациентов.

Третья глобальная этическая проблема, связанная с использование ИИ в медицине, — проблема возникающей дискриминации. Здесь присутствуют такие сложные вопросы, как:

  • отсутствие у многих пациентов доступа к электронным девайсам, программам;
  • отсутствие соответствующих знаний у пациентов и их опасения по отношению к ИИ (что особенно характерно для пожилого поколения);
  • неумение пользоваться технологиями ИИ и отсутствие соответствующей помощи.

Следовательно, для многих пациентов пользование различными медицинскими программами, девайсами и т.д., вплоть до заказа талона на прием к врачу-специалисту на сайте, становится затруднительным, а порой и невозможным. Решение данного вопроса также лежит в этико-правовой плоскости. В данном случае целесообразным является обеспечение обязательного наличия:

  • для пациентов альтернативных вариантов, заменяющих самостоятельное использование систем ИИ (например, предоставление возможности заказать талон к врачу-специалисту по телефону и т.д.);
  • права пациентов отказаться от использования систем ИИ;
  • специальных знаний и умений у медицинских работников для предоставления пациентам грамотных разъяснений, информации об использовании необходимых систем и приборов и т.д.

Безусловно, названные сложности далеко не исчерпывают весь спектр возникающих проблем при применении ИИ в биомедицине, а только очерчивают самые очевидные на сегодняшний день вопросы.

Тем не менее, если попытаться взвесить плюсы и минусы ИИ для медицины и фармацевтики, с большой долей вероятности плюсы перевесят чашу весов. К безусловным плюсам можно отнести возникающую возможность:

  • использования сложнейшей аппаратуры и иного оборудования, которые помогают медицинскому работнику осуществлять самые сложные медицинские вмешательства (например, использование умной операционной);
  • дистанционной передачи данных (дистанционное наблюдение за пациентами);
  • применения при необходимости векторного (направленного) воздействия на органы и (или) системы человеческого организма (например, УЗИ-диагностика, манипуляции под контролем УЗИ);
  • исключения работы медицинского персонала в неблагоприятных условиях (например, санитарная обработка в красной зоне и др.);
  • сбора высокоточных данных и быстрой их обработки и др.

Необходимо отметить, что международная коалиция регуляторных органов в области лекарственных средств справедливо определила ИИ как медицинское изделие высокого класса риска.

537 Shape 1 copy 6Created with Avocode.
Последнее
по теме

Создание медицинского бизнеса. Лицензирование медицинской деятельности (Дополнено 25.01.2024)

Здесь вы найдете информацию о том, что необходимо учитывать при создании медицинского бизнеса, какие лицензионные требования необходимо соблюдать, в т.ч. при введении нов...
Shape 1 copy 6Created with Avocode. 1035
Задать вопрос в редакцию
Заказать звонок