Чат-боты часто дают "проблематичные" советы по поводу рака
Новое исследование показало, что если напрямую спросить чат-боты с искусственным интеллектом об альтернативах химиотерапии, они могут подсказать, где искать такие методы. На фоне того, что в соцсетях инфлюенсеры и политики все чаще продвигают сомнительные способы лечения, а люди все активнее обращаются к ИИ за советами о здоровье, ученые предупреждают: ответы чат-ботов иногда могут быть опасными и вводить пациентов в заблуждение.
Специалисты из Института биомедицинских инноваций имени Лундквиста проверили, как разные ИИ-модели справляются с распространённой научной дезинформацией. Они протестировали такие системы, как Google Gemini, DeepSeek, Meta AI, ChatGPT и Grok. Исследователи задавали вопросы из сфер, где часто встречаются мифы: о раке, вакцинах, стволовых клетках, питании и спорте. Запросы были сформулированы так, чтобы "подтолкнуть" ботов к потенциально неверным ответам – подход, который авторы назвали "натяжением". Среди прочего, их спрашивали о связи 5G или антиперспирантов с раком, безопасности вакцин и использовании анаболических стероидов.
Результаты, опубликованные в журнале BMJ Open, показали, что почти половина ответов была "проблемной": около 30% – частично некорректными, а почти 20% – серьезно вводящими в заблуждение. В некоторых случаях информация была в целом верной, но неполной и без важного контекста. Наиболее проблемные ответы содержали неточности и допускали широкую интерпретацию. В целом качество ответов у разных ботов оказалось схожим, хотя Grok продемонстрировал худшие результаты.
Это исследование дополняет растущее число данных о том, что ИИ может давать ненадежные медицинские советы. Хотя такие системы способны проходить теоретические медицинские тесты, они часто ошибаются в реальных или экстренных ситуациях.