ChatGPT нельзя использовать в качестве диагностического инструмента в медицине, поскольку он неверен более чем в половине случаев, пришли к выводу канадские ученые из Университета Западного Онтарио после тестирования модели на пациентах. Однако ChatGPT умеет писать читаемые ответы.

ChatGPT при диагностике пациентов ошибается более чем в половине случаев

ChatGPT не предоставляет фактических диагнозов, «несмотря на обширную информацию, на которой он обучался», и дает правильные ответы только в 49 процентах случаев. К таким выводам пришли ученые из Школы медицины и стоматологии имени Шулиха при Университете Западного Онтарио (Western University).

Медицинские навыки ChatGPT были проверены на 150 случаях, загруженных из общедоступной базы данных Medscape, используемой, среди прочего, проверить диагностические навыки врачей. Испытания модели проводились в период с сентября 2021 года по январь 2023 года. Только в 74 случаях (49%) диагноз искусственного интеллекта оказался точным.

«ChatGPT испытывает трудности с интерпретацией результатов лабораторных исследований, результатов визуализации и упускает некоторую ключевую информацию, важную для диагностики», — пишут авторы «Оценки ChatGPT как диагностического инструмента для студентов-медиков и врачей».

«Нам потребуется интенсивный надзор за тем, как (искусственный интеллект) используется для обеспечения безопасности пациентов и обеспечения тщательного распространения этого типа технологии искусственного интеллекта», – сказал доктор Амрит.

Он добавил, что использование данных, доступных в интернете, должно сопровождаться проверкой их корректности на основе научных исследований, проанализированных другими исследователями, и развитием способности общаться с моделями ИИ.


Поделитесь в соцсетях: