OpenAI та Anthropic оголосили про запуск медичних продуктів на основі штучного інтелекту. Проте жодна компанія не надає даних про точність діагностичних рекомендацій. Google уникає цього ринку — компанія вже зазнала репутаційних втрат через проєкти з медичними даними. Експерти попереджають: помилки ШІ у медицині коштуватимуть значно дорожче, ніж у пошукових системах.
Зміст статті
Ринок медичного штучного інтелекту оцінюють у 20,9 мільярда доларів станом на 2024 рік. До 2030-го прогнозують зростання до 148,4 мільярда. Ці цифри пояснюють, чому OpenAI та Anthropic поспішають зайняти нішу. Але чи готові їхні технології до роботи з людським здоров’ям?
Генеративний штучний інтелект справді має потенціал революціонізувати медицину. Він може аналізувати симптоми, пропонувати діагнози, писати документацію. Водночас ці системи мають критичну ваду — галюцинації. Чат-боти впевнено видають неправдиву інформацію. У пошуковій системі це дратує. У лікарні — може вбити.
ChatGPT Health: що пропонує OpenAI
OpenAI поступово впроваджує функцію ChatGPT Health. Користувачі можуть ставити запитання про своє здоров’я. Система має окрему пам’ять для медичних даних. За бажанням можна підключити інформацію з електронних медичних карток або фітнес-додатків.
Компанія наголошує: продукт “не призначений для діагностики”. Це важливе застереження. Але чи зупиняє воно людей? Ні. За даними OpenAI, понад 230 мільйонів користувачів щотижня запитують чат-бота про здоров’я. Це більше, ніж населення Німеччини, Франції та Іспанії разом узятих.
Паралельно OpenAI запустила ChatGPT for Health care — версію для клініцистів. Її тестують у провідних медичних закладах США: дитячій лікарні Бостона та онкологічному центрі Меморіал Слоун-Кеттерінг. Останній — один із найбільших онкоцентрів світу, заснований ще 1884 року. Якщо щось піде не так, репутаційні втрати будуть колосальними.
Anthropic та Claude для лікарів
Anthropic обрала інший шлях. Компанія зосередилася на корпоративних клієнтах і має в цьому сегменті більший успіх, ніж OpenAI. Її медичний продукт — спеціальна версія чат-бота Claude, орієнтована на лікарів.
Візуально система виглядає як звичайний Claude. Різниця — у навчальних даних. Бота тренували на базах діагностичних кодів, інформації про медичні заклади та наукових статтях з PubMed. Мета — допомогти лікарям із діагностикою та підготовкою авторизаційних документів.
Anthropic похвалилася цікавою статистикою. Звичайна споживча версія Claude правильно називає коди ICD-10 у 75% випадків. ICD-10 — це Міжнародна класифікація хвороб десятого перегляду, стандарт Всесвітньої організації охорони здоров’я. Лікарська версія Claude, навчена на цих кодах, показує точність 99,8%. Вражаюче, правда?
Але зачекайте. Знати коди — це одне. Ставити діагнози — зовсім інше.
Проблема точності діагностики
Яка точність Claude при визначенні діагнозу? Це питання видається ключовим. На жаль, Anthropic не може дати чіткої відповіді. Компанія надала лише непрямі показники.
Найпотужніша модель Claude Opus 4.5 досягла 92,3% точності на тесті MedCalc. Звучить непогано. Але цей тест перевіряє лише медичні розрахунки — дозування ліків та лабораторні показники. Він не оцінює здатність ставити діагнози.
Інший показник — 61,3% на тесті MedAgentBench. Цей бенчмарк вимірює, чи може ШІ виконувати клінічні завдання в симульованій системі електронних медичних записів. 61,3% — це, скажімо прямо, тривожно низький результат. Уявіть лікаря, який помиляється у двох випадках із п’яти.
Anthropic має одну перевагу. За даними компанії Scale, нещодавно придбаної Meta, моделі Anthropic чесніші за конкурентів. Вони частіше визнають невизначеність, замість того щоб вигадувати відповіді. Це важливо. Але недостатньо.
OpenAI теж не надає конкретних цифр про галюцинації у медичних сценаріях. Речниця компанії заявила, що моделі стали “надійнішими та точнішими” порівняно з попередніми версіями. Без конкретики такі заяви — порожній звук.
Чому Google уникає медичного ринку
Google має чат-бота Gemini — одного з найпопулярніших і найздатніших на ринку. Чому компанія не поспішає в медичну сферу? Відповідь проста: вона вже обпеклася.
Між 2008 і 2011 роками Google намагалася створити систему персональних медичних записів під назвою Google Health. Ідея була амбітна: зібрати медичні дані людини від різних лікарів та лікарень в одному місці. Проєкт провалився.
Технічні труднощі — лише частина проблеми. Медичні системи різних закладів несумісні між собою, об’єднати їх надзвичайно складно. Але головна перешкода виявилася психологічною. Люди не хотіли довіряти свої медичні дані компанії, яка заробляє на рекламі та постійно збирає персональну інформацію.
2018 року закрили ще один проєкт — систему раннього попередження про гостру ниркову недостатність, розроблену лабораторією DeepMind. З’ясувалося, що для роботи системи використали понад мільйон записів британських пацієнтів. Скандал був гучним.
Криза довіри до технологічних гігантів
2019 року газета The Wall Street Journal розкрила ще одну ініціативу Google — проєкт Nightingale. Компанія отримала доступ до медичних записів мільйонів американських пацієнтів. Знову скандал. Знову підірвана довіра.
Цікавий парадокс: проблеми Google не були пов’язані з помилками системи. Жодних неправильних діагнозів, жодних збоїв у роботі. Репутацію зруйнувало саме сприйняття компанії як ненадійної.
Для OpenAI та Anthropic ставки ще вищі. Якщо Google критикували за збір даних, то нові гравці можуть зіткнутися з реальними медичними помилками. ChatGPT чи Claude помиляються — і лікар ухвалює неправильне рішення. Наслідки можуть бути фатальними.
За даними досліджень Джона Гопкінса, медичні помилки займають третє місце серед причин смерті в США — понад 250 тисяч випадків щороку. Додати до цієї статистики помилки штучного інтелекту — перспектива, м’яко кажучи, тривожна.
Що чекає ШІ у медицині
Даріо Амодеї, генеральний директор Anthropic, торкнувся цієї теми під час презентації минулого тижня. Він визнав: визначення “безпеки” розширюється з виходом на нові ринки, зокрема медичний. “Охорона здоров’я — це саме та сфера, де ви не хочете, щоб модель вигадувала,” — заявив він. “Це погано.”
Гуманоїдні роботи демонструють бойові навички
2026-01-20
Заява слушна. Але компанія не надала жодних даних, які б її підкріпили. Слова без цифр — це маркетинг, а не наука.
Компанії зі штучного інтелекту давно уникають розмов про частоту помилок своїх систем. Причина зрозуміла: такі дані показали б, наскільки складною залишається проблема галюцинацій. Натомість вони публікують результати бенчмарків — наприклад, як добре їхні моделі складають медичний ліцензійний іспит.
Але скласти іспит і лікувати пацієнта — різні речі. Для побудови довіри серед лікарів та пацієнтів потрібна прозорість щодо реальної надійності. Поки що її немає.
Європейський Союз уже працює над регуляцією медичного ШІ в межах Акту про штучний інтелект. Медичні застосування класифікують як “високоризикові” з відповідними вимогами до прозорості та тестування. США поки що відстають у регулюванні.
Ринок медичного ШІ зростатиме — це неминуче. Питання в тому, чи встигнуть регулятори та самі компанії забезпечити безпеку раніше, ніж станеться перша гучна трагедія. Історія Google показує: втрачену довіру повернути майже неможливо. А якщо йдеться про людські життя, ціна помилки несумісна з “бета-тестуванням на живих користувачах”.
За матеріалами:
ChatGPT’s AI health care push has a fatal flaw bloomberg.com












