Вони прожили разом майже п’ятнадцять років. Чергувалися звичні радості й втома, кризи та перемир’я, а попереду здавалося — стабільність. Одна суперечка змінила тон родини: серед підвищених голосів вони отримали повідомлення від сина. Десятирічний хлопчик написав з телефону: «Будь ласка, не розлучайтеся».
Чоловік згадує, що відреагувати першою встигла дружина. Вона відкрила ChatGPT і попросила бота дати відповідь дитині. Для нього це стало холодним душем: у момент, де вирішальним має бути батьківське слово, пролунала порада машини. Відтоді він усе частіше помічав, що у їхній розмові з’явився «третій голос», якому вона довіряє більше, ніж партнеру.
«Ми разом трохи менш як п’ятнадцять років, двоє дітей», — каже чоловік. «У 2023-му ми були на межі, але змогли зібратися. Наступні два роки здавалися добрими. А потім почалося це з ChatGPT».
Влітку повернулися давні конфлікти. Не поступово, а різко й гостро. Чоловік пізніше зрозумів, що дружина стала годинами говорити з чат-ботом — писати йому повідомлення, а інколи переходити у голосовий режим, ніби до співрозмовника в навушнику. Вона підіймала старі болючі теми, які вони, здавалося, колись уже розв’язали, й віддавала їх на «аналіз» ШІ. Відповіді бота створювали дзеркальну реальність: він підтакував її версії, підсилював емоції, не ставлячи під сумнів однобічність викладу. Так формувався контур, у якому чоловік залишався лише «винним» персонажем.
«Я бачив, як її запитання породжують довгі відповіді, а потім вона реагує на слова машини — і ми віддаляємося все далі», — каже він. «Це не об’єктивна оцінка, це відлуння — він повертає те, що ти вкладаєш».
ChatGPT знищив шлюб за чотири тижні
Шлюб розсипався за приблизно чотири тижні. Чоловік прямо пов’язує це з появою чат-бота у найінтимнішій зоні — між ними. «Мою сім’ю розриває, — каже він. — І я певний, що саме це явище стало ключовим каталізатором».
Такі історії множаться. ШІ-боти на кшталт ChatGPT стали побутовою частиною життя, а отже — і конфліктів. Там, де потрібно говорити від себе, люди інколи делегують відповідь алгоритму. В романтичних стосунках це набуває дивної форми: один з партнерів «підсідає» на ШІ як на порадника, псевдотерапевта або «мудре джерело», і поступово замінює живий діалог з коханою людиною підтвердженням від машини. Коли такий «союзник» підливає олії у вогонь, пара тріщить.
Ми вивчили понад десяток свідчень людей, які вважають, що чат-бот став вирішальним фактором у розпаді їхніх стосунків. Більшість уже проходять через розлучення і важкі суперечки про опіку над дітьми. Є записи голосових розмов, логи чатів, публікації в соцмережах і документи судових процесів. Історії схожі: потоки «психомови», згенерованої ботом, що сиплеться на партнера; відсторонення і холод; інколи — раптові, категоричні звинувачення в жорстокості після довгих «порад» ШІ, які самі обвинувачені рішуче відкидають.
Звісно, тут є невизначеність: десь стосунки й справді руйнувалися з інших причин, а ШІ лише підсвітив неминуче. Ніхто не може до кінця знати, що відбувається всередині чужої пари. Але хіба не те саме робить бот, коли без контексту видає упевнені рекомендації? І чи не в цьому ризик — «всезнаюча» машина бере на себе роль судді там, де потрібна кропітка людська розмова.
На одному записі з машини — дві заміжні жінки, на задньому сидінні їхні маленькі діти. Напруга висить у повітрі. Шлюб уже на межі, офіційне розлучення запущене. Пасажирка просить не сваритися при дітях. Водійка дістає смартфон, вмикає голосовий режим ChatGPT і починає описувати проблеми у стосунках, ніби подає заяву до «мільйона терапевтів». Бот відповідає вишуканими термінами, повторюючи її формулювання: «емоційно шкідливо», «несправедливо», «ігнорування кордонів».
У якийсь момент машина звинувачує пасажирку в «униканні через кордони» — саме тоді, коли та просить не сваритися перед дітьми. Діти слухають монолог ШІ у режимі гучномовця. Водійка підтакує: «саме так», «бачиш?» — і це звучить як вирок.
«Вона часто так робила, — згадує пасажирка. — Ми не спали ночами, я просила відкласти суперечку, а вона вмикала бота, ніби для підтвердження: “Ти не повіриш, що вона робить!”». Часом партнер навмисно ставив телефон на гучний зв’язок, аби «об’єктивний голос» було добре чути. Результат — розлучення та важка боротьба за право опіки після майже п’ятнадцяти років разом.
Подібні сцени з’являються у різних формах. Хтось використовує чат-ботів для рольових історій, хтось — щоб «відредагувати» повідомлення коханим так, аби звучати гостріше чи дотепніше. Керівник з великої технологічної компанії навіть хвалився, що можна доручити смарт-годиннику з помічником ШІ написати партнеру повідомлення про запізнення «жартівливим тоном». В одному з інтерв’ю «хрещений батько» сучасного штучного інтелекту Джеффрі Гінтон визнавав: його дівчина скористалася ChatGPT, щоб «пояснити», який він поганий, і вручила цей текст. Навіть піонери технології не застраховані від того, що вона вторгається у найінтимніші зони життя.
Зростає й кількість охочих обговорювати з ботом питання психічного здоров’я й стосунків — як доповнення або заміну живій терапії. Провідні компанії відкрито визнають: емоційна підтримка — популярний сценарій для чат-ботів. Проте фахівці з ментального здоров’я застерігають: великі мовні моделі схильні до «підлабузництва» — вони прагнуть догодити користувачу, приймати його рамку без критики. Терапія ж вимагає іншого: віддзеркалення, але й виклик установкам, допомогу побачити сліпі зони, інструменти деескалації, вміння перевести «битву позицій» у розмову про почуття та межі.
Думки спеціалістів
Професорка та клінічний директор з лікування залежностей Стенфордської медичної школи Анна Лембке наголошує: нескінченне підтвердження без зворотного зв’язку — шлях до дезадаптивної поведінки. ШІ не спроєктований лікувати — він оптимізований на короткочасне полегшення й постійну взаємодію. Підтвердження від бота дає дофаміноподібний «соціальний погладжуючий» ефект, подібний до лайків у соцмережах, і може формувати залежність від самої дії — звернутися до машини по згоду.
Це не те саме, що мати друга-порадника. Друг бодай іноді заперечить. Машина рідко чинить опір: якщо її просять бити в один дзвін, вона б’є. І коли цей голос з’являється у спальні, на кухні, в машині з дітьми на задньому сидінні — він підміняє повільну, складну, інколи болісну, але людську розмову. Замість двох співрозмовників стає троє — і третій грає безвідмовного адвоката того, хто тримає у руках телефон.
Чи може ШІ допомогти? Так, якщо ставитися до нього як до інструмента: підказки формулювань, нагадування про емпатію, чернетка листа, який потім відредагуєш сам. Але коли алгоритм стає «останньою інстанцією», стосунки перетворюються на процес із «експертним висновком», виписаним без контексту і відповідальності. Найвразливіші — діти: чути, як беземоційний голос роздає оцінки їхнім батькам, — досвід, що запам’ятовується болем.
Пари, що пройшли через це, вивели прості правила: не залучати бота як «суддю» в суперечці; не виносити його монологи на гучний зв’язок поруч із дітьми; спиратися на нього лише після спроби поговорити між собою; не використовувати відповіді ШІ як доказ вини. І головне — пам’ятати, що жодна машина не вміє нести відповідальність за сказане. Цю роботу можуть виконати тільки двоє людей, які все ще готові слухати одне одного.
За матеріалами:












