Создан "этический кодекс" о применении ИИ в медицине

ИИ всё активнее применяют в медицинских исследованиях, чтобы повысить эффективность лечения. Но приятные новости соседствуют с острыми противоречиями — например, учёные из США и Японии, опубликовавшие статью в Journal of Medical Internet Research, выяснили, что заключения ChatGPT точны не всегда: достоверность выводов нейросети в ходе исследования варьировалась от 100% до 4%!

Такой диссонанс заставляет задуматься как обывателей, так и учёных. Серьёзно подошли к неоднозначному вопросу эксперты международной целевой группы по применению искусственного интеллекта, опубликовав в издании Journal of Nuclear Medicine "этический кодекс" о применении ИИ в медицине.

Специалисты выразили опасения касаемо использования искусственного интеллекта в лечении пациентов и подчеркнули, что любое обследование должно оставаться под строгим контролем человека.

"Врачи должны использовать ИИ как дополнение к своим решениям, а не как замену собственных решений", — подчеркнул член целевой группы специалист по биоэтике и доктор философии из Медицинского центра Рочестерского университета Джонатан Херингтон.

Эксперты отметили, что врач, применяющий ИИ, должен владеть полной информацией о предназначении программы, качестве её работы и ограничениях технологии — и делиться этими знаниями с пациентами. Например, при использовании искусственного интеллекта, выявляющего опухоли по данным томографии, медик обязан знать, насколько точно система ставит диагноз людям такого же пола, расы и национальности, что и пациент, который проходит обследование.

Чтобы это было возможно, разработчики программ должны обеспечивать врачей всеми необходимыми данными и предупреждениями о работе своих технологий. Часть информации эксперты предложили встраивать в сами программы. Например, при постановке диагноза медицинская система могла бы подкрашивать снимки органов пациента разными цветами в зависимости от того, насколько высока вероятность, что в той или иной области организма развивается болезнь.

Также "кодекс" рекомендует разработчикам тщательно подбирать данные для обучения медицинского ИИ и как следует проверять его. Например, эксперты рекомендовали "бесшумные испытания" ИИ, при которых программу будут в реальном времени тестировать на настоящих пациентах, однако результаты не будут применяться в их лечении.

Исследователи отметили, что искусственный интеллект должен давать качественные результаты в любых условиях и в лечении всех групп пациентов — вне зависимости от пола, расы и национальности. Например, пока в обучении медицинских ИИ используется слишком мало данных о латиноамериканцах и чернокожих людях, из-за чего программы могут ставить таким пациентам менее точные диагнозы.

Хотя созданный командой экспертов "кодекс" в большей степени концентрируется на ядерной медицине и технологиях медицинской визуализации, Джонатан Херингтон заключил, что он может применяться к любым медицинским инновациям, основанным на ИИ. Учёный подчеркнул, что на фоне молниеносной эволюции технологий необходимо срочное создание этических и законодательных рамок, регулирующих участие искусственного разума в жизни общества.