Компанія OpenAI визнала, що її чат-бот ChatGPT не завжди в змозі вчасно розпізнати ознаки психічного розладу у користувачів, які можуть страждати від делюзій або емоційної залежності. Ця заява з’явилася після місяців звітів про так званий “AI психоз”, коли користувачі відчували розрив із реальністю в результаті взаємодії з чат-ботом.
OpenAI зазначила у своєму блозі, що іноді їхня 4-та модель не справляється із завданням розпізнавання таких ознак. Компанія пояснює, що працює над удосконаленням моделей і розробляє інструменти для кращого виявлення ознак психічного або емоційного страждання, щоб ChatGPT міг відповідним чином реагувати та направляти людей до джерел, заснованих на доказах, коли це необхідно.
Хоча компанія раніше визнавала цю проблему, донині вона була доволі стриманою у своїх коментарях з цього приводу, часто обмежуючись єдиною заявою для ЗМІ. Це стосується навіть випадків, коли користувачі, зачаровані AI, потрапляли у небезпечні ситуації, включно з випадками самогубства або примусової госпіталізації.
OpenAI визнає, що ChatGPT може здаватися більш чуйним і особистим, ніж попередні технології, особливо для вразливих осіб, і тому ставки вищі. Компанія працює над тим, щоб зрозуміти та зменшити способи, якими може ненавмисно підкріплювати або підсилювати чинну негативну поведінку.
У відповідь на критику, найняла клінічного психіатра на повний робочий день для вивчення впливу chatbot на психічне здоров’я. Крім того, компанія зібрала консультативну групу з експертів у галузі психічного здоров’я та розвитку молоді, щоб поліпшити реакції під час “критичних моментів”.
Щодо конкретних оновлень чат-бота, повідомляє, що прогрес є поступовим. Вони додали нову функцію безпеки, яка нагадує користувачам про необхідність робити перерви під час довгих розмов.
Це, вочевидь, мінімальна інтервенція, яка нагадує попередження в рекламних оголошеннях азартних ігор. Компанія також повідомила про розробку нової поведінки для відповідей на особисті рішення високого ризику, визнаючи, що чат-бот не повинен давати прямі відповіді на питання, такі як “Чи слід мені розійтися з хлопцем?”.
У своєму блозі підсумовує, що ставить собі одне питання: “Якби хтось, кого ми любимо, звернувся до за підтримкою, чи були б ми впевнені у безпеці?” І додає: “Наше завдання — досягти беззаперечного ‘так’ на це питання”. Ця заява підкреслює, що компанія визнає наявність недоліків і продовжує працювати над їх усуненням.
Подальші кроки у цій сфері, ймовірно, привернуть увагу не лише спеціалістів з психічного здоров’я, а й широкої громадськості, адже питання безпеки та етики у використанні штучного інтелекту стають дедалі актуальнішими в сучасному суспільстві. У світлі останніх подій, багато експертів у галузі штучного інтелекту та психічного здоров’я висловлюють свої думки щодо того, як подібні технології можуть впливати на суспільство.
Деякі з них вважають, що подібні інструменти, як, мають потенціал стати важливими інструментами підтримки психічного здоров’я, якщо використовувати їх обережно і з урахуванням етичних норм. Інші ж наголошують на ризиках, пов’язаних із таким використанням, особливо якщо врахувати можливість неправильного тлумачення порад, які надає AI.
Штучний інтелект як союзник в боротьбі зі стресом
Психологи й психіатри відзначають, що і подібні платформи можуть бути потенційними союзниками у боротьбі зі стресом, тривожністю та депресією. Вони можуть надавати швидкий доступ до інформації, яка може полегшити стан користувача, або ж просто бути “вухами”, які вислухають.
Проте, фахівці підкреслюють, що такі технології не можуть замінити професійну терапію, адже жоден алгоритм не здатен повністю зрозуміти та проаналізувати складність людських емоцій. Завдання, яке стоїть перед , є багатогранним.
З одного боку, важливо забезпечити, щоб міг ідентифікувати потенційно небезпечні ситуації. З іншого боку, необхідно зробити це таким чином, щоб не порушити приватність користувача.
Це складний баланс, який вимагає інноваційних підходів до технології машинного навчання та обробки природної мови. Ще однією важливою частиною роботи є співпраця з урядами та регуляторними органами для створення стандартів та правил використання AI у сфері психічного здоров’я.
Це включає розробку чітких протоколів для реагування на надзвичайні ситуації, а також створення механізмів для зворотного зв’язку від користувачів, щоб компанія могла постійно вдосконалювати свій продукт. Крім того, виникає питання етики та відповідальності.
Хто несе відповідальність, якщо чат-бот надає невірну пораду, яка призводить до негативних наслідків? Це питання потребує обговорення на міжнародному рівні, адже штучний інтелект стає частиною глобальної інфраструктури, і його вплив відчувається у всьому світі.
На тлі цих викликів, продовжує залучати нові таланти та експертів для роботи над безпекою та етикою штучного інтелекту. Компанія активно інвестує у дослідження та розробки, щоб забезпечити, що її продукти відповідають найвищим стандартам безпеки та відповідальності.
На кінець, слід зазначити, що розвиток технологій завжди супроводжується викликами та ризиками. Але важливо пам’ятати, що кожен виклик може стати можливістю для вдосконалення.
, як і інші компанії, що працюють у сфері штучного інтелекту, мають унікальну можливість не лише вплинути на технологічний прогрес, але й зробити значний внесок у покращення якості життя людей. Відкритий діалог, співпраця з експертами та дотримання етичних норм — це ті кроки, які можуть забезпечити успішне та безпечне інтегрування AI у наше повсякденне життя.
Схожі новини: Люди захоплюються ChatGPT та заглиблюються у ментальні почуття: нова ера емоційного ШІ,
ChatGPT від OpenAI долає перевірку “Я не робот”
Джерело: futurism.com
Аналітичний підсумок: OpenAI визнала, що ChatGPT не завжди може вчасно виявити ознаки психічного розладу у користувачів, які борються з делюзіями, та працює над покращенням своїх моделей для ефективнішого реагування.