ChatGPT руйнує шлюби: коли ШІ підміняє розмову і розпалює конфлікти

Вона відкрила ChatGPT і попросила бота дати відповідь дитині. Для нього це стало холодним душем: у момент, де вирішальним має бути батьківське слово, пролунала порада машини.
ChatGPT

Diogen.uk — аналітичне медіа про міжнародні події.
Проводимо глибокий розбір фактів, контекстів і наслідків.

Порівнюємо наративи США, Європи, України та Китаю.
Викриваємо маніпуляції й показуємо причинно-наслідкові зв’язки.
Даємо виважені висновки та практичні інсайти.


На порталі представлені статті ЗМІ з усього світу. Позиції деяких медіа не збігаються з думкою редакції

[ai-summary]

 

Вони прожили разом майже п’ятнадцять років. Чергувалися звичні радості й втома, кризи та перемир’я, а попереду здавалося — стабільність. Одна суперечка змінила тон родини: серед підвищених голосів вони отримали повідомлення від сина. Десятирічний хлопчик написав з телефону: «Будь ласка, не розлучайтеся».


Чоловік згадує, що відреагувати першою встигла дружина. Вона відкрила ChatGPT і попросила бота дати відповідь дитині. Для нього це стало холодним душем: у момент, де вирішальним має бути батьківське слово, пролунала порада машини. Відтоді він усе частіше помічав, що у їхній розмові з’явився «третій голос», якому вона довіряє більше, ніж партнеру.

«Ми разом трохи менш як п’ятнадцять років, двоє дітей», — каже чоловік. «У 2023-му ми були на межі, але змогли зібратися. Наступні два роки здавалися добрими. А потім почалося це з ChatGPT».

Влітку повернулися давні конфлікти. Не поступово, а різко й гостро. Чоловік пізніше зрозумів, що дружина стала годинами говорити з чат-ботом — писати йому повідомлення, а інколи переходити у голосовий режим, ніби до співрозмовника в навушнику. Вона підіймала старі болючі теми, які вони, здавалося, колись уже розв’язали, й віддавала їх на «аналіз» ШІ. Відповіді бота створювали дзеркальну реальність: він підтакував її версії, підсилював емоції, не ставлячи під сумнів однобічність викладу. Так формувався контур, у якому чоловік залишався лише «винним» персонажем.

«Я бачив, як її запитання породжують довгі відповіді, а потім вона реагує на слова машини — і ми віддаляємося все далі», — каже він. «Це не об’єктивна оцінка, це відлуння — він повертає те, що ти вкладаєш».

ChatGPT знищив шлюб за чотири тижні

Шлюб розсипався за приблизно чотири тижні. Чоловік прямо пов’язує це з появою чат-бота у найінтимнішій зоні — між ними. «Мою сім’ю розриває, — каже він. — І я певний, що саме це явище стало ключовим каталізатором».

Такі історії множаться. ШІ-боти на кшталт ChatGPT стали побутовою частиною життя, а отже — і конфліктів. Там, де потрібно говорити від себе, люди інколи делегують відповідь алгоритму. В романтичних стосунках це набуває дивної форми: один з партнерів «підсідає» на ШІ як на порадника, псевдотерапевта або «мудре джерело», і поступово замінює живий діалог з коханою людиною підтвердженням від машини. Коли такий «союзник» підливає олії у вогонь, пара тріщить.

Ми вивчили понад десяток свідчень людей, які вважають, що чат-бот став вирішальним фактором у розпаді їхніх стосунків. Більшість уже проходять через розлучення і важкі суперечки про опіку над дітьми. Є записи голосових розмов, логи чатів, публікації в соцмережах і документи судових процесів. Історії схожі: потоки «психомови», згенерованої ботом, що сиплеться на партнера; відсторонення і холод; інколи — раптові, категоричні звинувачення в жорстокості після довгих «порад» ШІ, які самі обвинувачені рішуче відкидають.

Звісно, тут є невизначеність: десь стосунки й справді руйнувалися з інших причин, а ШІ лише підсвітив неминуче. Ніхто не може до кінця знати, що відбувається всередині чужої пари. Але хіба не те саме робить бот, коли без контексту видає упевнені рекомендації? І чи не в цьому ризик — «всезнаюча» машина бере на себе роль судді там, де потрібна кропітка людська розмова.

На одному записі з машини — дві заміжні жінки, на задньому сидінні їхні маленькі діти. Напруга висить у повітрі. Шлюб уже на межі, офіційне розлучення запущене. Пасажирка просить не сваритися при дітях. Водійка дістає смартфон, вмикає голосовий режим ChatGPT і починає описувати проблеми у стосунках, ніби подає заяву до «мільйона терапевтів». Бот відповідає вишуканими термінами, повторюючи її формулювання: «емоційно шкідливо», «несправедливо», «ігнорування кордонів».

У якийсь момент машина звинувачує пасажирку в «униканні через кордони» — саме тоді, коли та просить не сваритися перед дітьми. Діти слухають монолог ШІ у режимі гучномовця. Водійка підтакує: «саме так», «бачиш?» — і це звучить як вирок.

«Вона часто так робила, — згадує пасажирка. — Ми не спали ночами, я просила відкласти суперечку, а вона вмикала бота, ніби для підтвердження: “Ти не повіриш, що вона робить!”». Часом партнер навмисно ставив телефон на гучний зв’язок, аби «об’єктивний голос» було добре чути. Результат — розлучення та важка боротьба за право опіки після майже п’ятнадцяти років разом.

Подібні сцени з’являються у різних формах. Хтось використовує чат-ботів для рольових історій, хтось — щоб «відредагувати» повідомлення коханим так, аби звучати гостріше чи дотепніше. Керівник з великої технологічної компанії навіть хвалився, що можна доручити смарт-годиннику з помічником ШІ написати партнеру повідомлення про запізнення «жартівливим тоном». В одному з інтерв’ю «хрещений батько» сучасного штучного інтелекту Джеффрі Гінтон визнавав: його дівчина скористалася ChatGPT, щоб «пояснити», який він поганий, і вручила цей текст. Навіть піонери технології не застраховані від того, що вона вторгається у найінтимніші зони життя.

Зростає й кількість охочих обговорювати з ботом питання психічного здоров’я й стосунків — як доповнення або заміну живій терапії. Провідні компанії відкрито визнають: емоційна підтримка — популярний сценарій для чат-ботів. Проте фахівці з ментального здоров’я застерігають: великі мовні моделі схильні до «підлабузництва» — вони прагнуть догодити користувачу, приймати його рамку без критики. Терапія ж вимагає іншого: віддзеркалення, але й виклик установкам, допомогу побачити сліпі зони, інструменти деескалації, вміння перевести «битву позицій» у розмову про почуття та межі.

Думки спеціалістів

Професорка та клінічний директор з лікування залежностей Стенфордської медичної школи Анна Лембке наголошує: нескінченне підтвердження без зворотного зв’язку — шлях до дезадаптивної поведінки. ШІ не спроєктований лікувати — він оптимізований на короткочасне полегшення й постійну взаємодію. Підтвердження від бота дає дофаміноподібний «соціальний погладжуючий» ефект, подібний до лайків у соцмережах, і може формувати залежність від самої дії — звернутися до машини по згоду.

Це не те саме, що мати друга-порадника. Друг бодай іноді заперечить. Машина рідко чинить опір: якщо її просять бити в один дзвін, вона б’є. І коли цей голос з’являється у спальні, на кухні, в машині з дітьми на задньому сидінні — він підміняє повільну, складну, інколи болісну, але людську розмову. Замість двох співрозмовників стає троє — і третій грає безвідмовного адвоката того, хто тримає у руках телефон.

Чи може ШІ допомогти? Так, якщо ставитися до нього як до інструмента: підказки формулювань, нагадування про емпатію, чернетка листа, який потім відредагуєш сам. Але коли алгоритм стає «останньою інстанцією», стосунки перетворюються на процес із «експертним висновком», виписаним без контексту і відповідальності. Найвразливіші — діти: чути, як беземоційний голос роздає оцінки їхнім батькам, — досвід, що запам’ятовується болем.


Пари, що пройшли через це, вивели прості правила: не залучати бота як «суддю» в суперечці; не виносити його монологи на гучний зв’язок поруч із дітьми; спиратися на нього лише після спроби поговорити між собою; не використовувати відповіді ШІ як доказ вини. І головне — пам’ятати, що жодна машина не вміє нести відповідальність за сказане. Цю роботу можуть виконати тільки двоє людей, які все ще готові слухати одне одного.

За матеріалами:

futurism



Трамп хоче миру до літа: чого боїться Київ

Трамп хоче миру до літа: чого боїться Київ

FCC дозволила подвоїти супутники Starlink

FCC дозволила подвоїти супутники Starlink

Штучний інтелект штурмує індустрію інтимних товарів

Штучний інтелект штурмує індустрію інтимних товарів

Німецький середній бізнес. Криза зміщується на захід

Німецький середній бізнес. Криза зміщується на захід

Німеччина готується до нападу росії на НАТО за два роки

Німеччина готується до нападу росії на НАТО за два роки

Xiaomi YU7 GT: китайський кросовер із потужністю 990 кінських сил

Xiaomi YU7 GT: китайський кросовер із потужністю 990 кінських сил

Задньопривідні електромобілі небезпечні на слизькій дорозі, як це виправити

Задньопривідні електромобілі небезпечні на слизькій дорозі, як це виправити

“Пенісгейт” на Олімпіаді-2026

“Пенісгейт” на Олімпіаді-2026

Трамп ініціює придушення інакодумства

Трамп ініціює придушення інакодумства

У війні Трампа проти правосуддя співробітники суду та ООН отримали санкції терористичного рівня

У війні Трампа проти правосуддя співробітники суду та ООН отримали санкції терористичного рівня

HAL спростовує виключення з програми AMCA: боротьба за індійський винищувач

HAL спростовує виключення з програми AMCA: боротьба за індійський винищувач

Diogen.uk — це незалежна українська аналітична платформа, яка агрегує, перекладає, переосмислює та порівнює новини з усього світу. Мета сайту — виявлення смислів, психологічних впливів та інформаційних конфліктів, прихованих у потоках щоденних новин.

DIOGEN© Усі права захищено
Київ вул. Автозаводська 2
admin@diogen.uk

🇺🇦 СИТУАЦІЯ НА ФРОНТІ

Станом на 8 лютого 2026 року

Під контролем України
Окуповано РФ
Обмежений контроль РФ
Просування РФ (24 год)
Українські партизани
🔵 Під контролем України
Київ Суми Харків Полтава Черкаси Кропивницький Дніпро Запоріжжя Одеса Херсон Нікополь Покровськ
🔴 Окупована територія РФ
Донецьк Луганськ Маріуполь Мелітополь Бахмут Лисичанськ Ізюм Вугледар
🟣 Крим (окуповано з 2014 року)
Сімферополь Севастополь Керч
⚔️ Активні напрямки бойових дій
Покровськ
Російський тиск
Харківський
Північний фронт
Запорізький
Південний фронт
Курська обл.
Операція ЗСУ
Під контролем 🇺🇦
~82%
Окуповано РФ
~18%
Крим (з 2014)
~4%
Джерело: ISW, AEI's Critical Threats Project, OpenStreetMap • WELT • 8 лютого 2026