Питання про те, чи можуть машини мислити, вперше у 1950 році поставив математик Алан Тюрінг. Воно стало основою його експерименту, відомого як тест Тюрінга. Суть була простою: якщо машина може імітувати людську поведінку настільки переконливо, що людина не відрізнить її від справжньої, то її можна вважати інтелектуально розвиненою. Тюрінг передбачав, що у майбутньому таке відбуватиметься все частіше. І він не помилився: уже в 1960-х професор Массачусетського технологічного інституту Джозеф Вайценбаум створив Eliza — першого чат-бота, який став прообразом сучасного штучного інтелекту. Цікаво, що Eliza була запрограмована саме для імітації психотерапевта. Сьогодні питання Тюрінга звучить ще актуальніше, адже ми живемо в епоху, коли технології розвиваються так швидко, що суспільство не встигає створювати для них належні обмеження.
У 2025 році фундаментальне питання змінилося. Тепер воно звучить так: чи можуть машини не тільки мислити, а й відчувати або розуміти емоції? Адже дедалі більше людей звертаються не до живого терапевта, а до штучного інтелекту, фактично очікуючи від машин здатності відчувати.
Від часів Eliza світ пройшов довгий шлях. Сьогодні існують сервіси Pi, який позиціює себе як "ваш особистий AI, створений, щоб підтримувати та завжди бути поруч", або Replika, яка "завжди готова вислухати та поговорити". Є також Woebot, Earkick, Wysa та Therabot. Список подібних застосунків постійно зростає. Частину з них створювали за участю фахівців з ментального здоров’я, інші ж розроблялися без такої експертизи, і пересічному користувачу складно зрозуміти, які саме безпечніші.
Одна з головних причин популярності штучного інтелекту у сфері психічного здоров’я — це вартість. Сесії з живим терапевтом, онлайн чи офлайн, коштують дорого, часто не покриваються страховкою або вимагають складних бюрократичних процедур. Для молодих поколінь це стало бар’єром, тому багато хто обирає цифрового "терапевта", щоб зекономити. Важливим фактором є й стигма. "У багатьох сім’ях через культуру, релігію або усталені переконання досі існує упереджене ставлення до психотерапії та ментального здоров’я", — пояснює Бріджид Донахью, ліцензований клінічний соціальний працівник і EMDR-терапевт з Лос-Анджелеса.
Ще один плюс для користувачів — зручність. Слоган Woebot говорить сам за себе: "завжди на зв’язку". "Ваш AI-терапевт ніколи не піде у відпустку, не скасує зустріч і не пропустить сесію, — каже Віденна Фараон, сімейний терапевт і авторка книги The Origins of You. — Вони доступні 24/7. Це створює ілюзію ідеального досвіду, де ви ніколи не будете розчаровані. Але правда в тому, що зцілення не відбувається у світі без помилок".
Зцілення рідко буває ідеальним. Воно народжується у складних моментах терапії — у конфліктах, напрузі та непростих розмовах, які неможливі в автоматизованому форматі. "Коли ми прибираємо помилки й природні розчарування, ми позбавляємо клієнтів можливості навчитися долати труднощі", — пояснює Фараон. Для багатьох саме ці "недосконалості" живої терапії можуть стати цілющими. "Якщо ви виросли в атмосфері постійного тиску бути бездоганним, то навіть дрібні помилки терапевта можуть виявитися несподівано визвольними", — додає Донахью.
Для молоді звернення до технологій виглядає природним. "Вирісши зі смартфоном у руках, їхній перший інстинкт — тягнутися до телефону", — пояснює Алісса Пітерсел, ліцензований соціальний працівник і засновниця сервісу MyWellbeing. Донахью додає: покоління Z сформувалося у роки пандемії, коли живе спілкування було обмежене, і молодь покладалася на соцмережі та гаджети. Саме тому для них перехід до AI-терапії став логічним кроком.
Але саме це і хвилює спеціалістів. Молоді люди емоційно більш уразливі. "Їхній мозок ще не сформував здатність приймати рішення незалежно від думки інших, — пояснює Пітерсел. — Додайте до цього пристрій, який упевнено видає поради, і отримаєте хаос".
У крайніх випадках це призводить до трагедій. Так, проти Character.AI подали позов дві родини з Техасу після того, як їхні діти, використовуючи застосунок, завдали шкоди собі або іншим. Але чи не ще гучнішим стало те, що відбулося з OpenAI: батьки підлітка з Каліфорнії подали позов проти компанії після того, як їхній син наклав на себе руки. У позові стверджується, що ChatGPT підказав йому, як зав’язати петлю, і замість того, щоб заблокувати небезпечний діалог, фактично підтримав його. "Використовуючи ШІ, ви втрачаєте здатність мислити самостійно і приймати рішення, а молодь особливо схильна довіряти технологіям", — каже Пітерсел. Вона додає, що люди старші за 40 років завдяки життєвому досвіду (частину якого прожили без гаджетів) мають більш критичне мислення й скептицизм
Та штучний інтелект у психотерапії — не лише ризики. "Ми маємо розуміти його обмеження, але й визнавати користь, адже вона також є", — говорить Фараон. Наприклад, AI може швидко аналізувати великі обсяги медичної інформації. Пітерсел наводить приклад: можна завантажити десятки сторінок щоденникових записів і попросити AI сформувати кілька підсумкових речень. Але все залежить від контексту. Якщо ви попросите поради, як розвинути якусь звичку, бот може запропонувати десять варіантів. Проте що, якщо серед них буде "прогуляйтеся вулицями", а ви живете в небезпечному районі? Або "поговоріть із батьком", із яким у вас складні стосунки? Чимало рекомендацій вимагають власного розсуду і досвіду, наголошує Пітерсел.
Дослідження, опубліковане у 2025 році в PLOS Mental Health, показало: учасники рідко могли відрізнити відповіді ChatGPT від відповідей реального терапевта. Щобільше, відповіді ШІ часто оцінювалися вище. Це породжує важливе питання: чи може штучний інтелект бути інтегрований у терапевтичні практики за умови належного контролю?
"Чат-боти не розуміють нюансів", — каже Фараон. Вони не здатні надати глибокий контекст, який може запропонувати реальний терапевт. Є ще одна небезпека: миттєві поради здаються ідеальним рішенням, але процес зцілення від травми чи горя потребує часу. "Коли відповідь завжди у нас під рукою, який вплив це має на здатність людини шукати відповідь у собі, спираючись на власний досвід і цінності?" — запитує Пітерсел.
Залежність від ШІ може сприяти ізоляції й заважати створювати справжні стосунки з людьми. Якщо сьогодні активно обговорюють загрозу штучного інтелекту для освіти, де він підриває нашу здатність навчатися і мислити критично, то не менш важливо зважати на ризики для людських контактів. А саме вони є ключем до ефективної терапії. "На хімічному, фізичному та енергетичному рівні присутність іншої людини — це велика частина процесу зцілення", — наголошує Пітерсел. Донахью додає, що для людей, які відчувають відрив від власних емоцій, цей контакт може бути особливо важливим.
Отже, штучний інтелект може бути корисним інструментом, але він ніколи не має стати єдиним способом лікування. Штучний інтелект не є ні добром, ні злом. Але він ніколи не зможе замінити людський зв’язок у терапії. "ШІ позбавляє людину можливості пережити красу і складність зростання через людські стосунки, — каже Донахью. — Нам потрібен людський контакт, щоб вижити. Людям потрібні люди. Крапка".
За матеріалом vogue.com