Ученые создали ИИ-модель для анализа медицинских снимков

By | 15 апреля, 2024

Исследователи из Массачусетского технологического института (MIT) разработали ИИ-модель для определения неоднозначных результатов на медицинских изображениях.

По словам разработчиков, даже при использовании нейросетей для диагностики заболеваний по рентгеновским снимкам или данным МРТ всегда существует риск ошибок. Это связано с тем, что изображения могут быть нечеткими или содержать артефакты.

«Наличие цифрового помощника может помочь в принятии решений. Сам факт обнаружения неопределенности на снимке может повлиять на вывод врача», — отметила кандидат компьютерных наук MIT Марианна Ракич.

В основе метода лежит сегментация — процесс, в ходе которого медицинские изображения разделяются на отдельные области и тщательно изучаются на предмет выявления потенциально опасных участков. 

Названная в честь греческой богини случая ИИ-модель Tyche использует байесовские нейронные сети, которые способны обрабатывать неопределенность. Эти сети обучаются на наборе данных медицинских изображений, помеченных экспертами-врачами.

Нейросеть от MIT имеет несколько преимуществ по сравнению с другими  ИИ-методами:

  • более точно диагностирует заболевания, поскольку учитывает неопределенность в изображениях;
  • генерирует меньше ложных срабатываний;
  • позволяет врачам лучше понять, как ИИ пришел к своему выводу.

Новая модель может иметь множество применений в медицине. Она способна помочь врачам более точно диагностировать рак на ранних стадиях и спрогнозировать исход заболевания, что может помочь им принимать более обоснованные решения. Также Tyche дает возможность исследователям разрабатывать новые варианты лечения.

Ранее Google Cloud и немецкая медицинская компания Bayer объявили о создании ИИ-платформы, которая поможет рентгенологам быстрее ставить диагнозы.

Напомним, в марте ученые Университета Оттавы сообщили о внедрении в свою работу нейросети для обнаружения сердечно-сосудистых заболеваний. 

ForkLog
Автор: ForkLog
Поделиться ссылкой

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *