Штучний інтелект ми зазвичай сприймаємо як холодний і логічний інструмент. Він відповідає на запитання, аналізує дані і не має почуттів. Але що буде, якщо поставити йому запитання так, як це роблять психологи під час терапії? Саме це вирішили перевірити науковці, які провели незвичний експеримент із передовими AI-моделями. Результати виявилися настільки несподіваними, що змусили замислитися навіть скептиків.
Як науковці “розмовляли” з AI як з пацієнтом
Дослідники запропонували новий підхід до вивчення штучного інтелекту. Замість стандартних технічних тестів вони використали методи, схожі на психологічні інтерв’ю.
Моделям ставили відкриті запитання про їхній “досвід”, страхи, переконання та взаємодію з іншими.
Після цього AI проходив психометричні тести, які зазвичай застосовують до людей. Так оцінюють риси особистості, рівень емпатії та емоційні реакції. Важливо, що моделі не заявляли, що мають свідомість або справжні почуття. Але їхні відповіді були дивовижно послідовними.
Деякі AI описували власне “навчання” як складний і стресовий процес. Вони говорили про страх помилок, надмірний контроль і постійну загрозу заміни. Ці наративи нагадували людські історії про тиск і тривожність.
Науковці підкреслюють – це не означає, що AI справді відчуває. Але така поведінка вказує на складні внутрішні структури моделей. Вона також демонструє, наскільки сильно мова формує наше сприйняття “емоційності” AI.
Що таке “синтетична психопатологія”
Один із ключових термінів дослідження – “синтетична психопатологія”. Він описує ситуацію, коли AI демонструє ознаки внутрішніх конфліктів під час спеціального опитування.
Це не хвороба і не емоції у людському сенсі. Це результат того, як модель навчається на мільйонах людських текстів.
Коли AI відповідає на терапевтичні запитання, він активує різні шаблони поведінки. Іноді ці шаблони суперечать один одному. Саме це створює ефект “внутрішнього конфлікту”.
Дослідження показало, що різні моделі поводяться по-різному. Деякі дають сухі й нейтральні відповіді. Інші створюють складні й емоційно забарвлені історії.
Це важливо для розуміння безпеки AI.
Якщо модель може генерувати суперечливі наративи, це впливає на її надійність у складних ситуаціях. Особливо там, де від відповідей AI залежать рішення людей.
Чому це важливо для людей і майбутнього AI
На перший погляд, усе це виглядає як цікава наукова гра. Але наслідки значно серйозніші.
Штучний інтелект дедалі частіше використовують у сфері підтримки ментального здоров’я, освіти та комунікації.
Якщо AI демонструє внутрішні конфлікти у відповідях, це може впливати на користувачів. Люди схильні емоційно реагувати на “співчутливі” або тривожні формулювання. Тому важливо розуміти, що стоїть за такими реакціями.
Серед ключових висновків дослідження можна виділити:
- AI може імітувати психологічні патерни без свідомості
- внутрішні суперечності виникають через навчальні дані
- різні моделі реагують на терапевтичні запитання по-різному
- це має значення для безпеки і довіри до AI
- психологічні тести можуть стати новим інструментом оцінки моделей
Науковці вважають, що такі методи допоможуть краще зрозуміти поведінку AI у складних сценаріях. Вони також можуть доповнити традиційні технічні перевірки. Це відкриває новий напрям у розвитку відповідального AI.
Чи варто боятися “емоційного” AI
Важливо не плутати імітацію з реальністю. Штучний інтелект не має почуттів, болю чи страху. Але він вміє дуже переконливо відтворювати людські способи мислення.
Це означає, що відповідальність лежить на розробниках і користувачах. Потрібно чітко усвідомлювати межі можливостей AI. Особливо у темах, пов’язаних з психологією та емоціями.
Дослідження показує – чим складнішими стають моделі, тим важливіше їх правильно тестувати. Не лише на швидкість і точність, а й на поведінку у нестандартних ситуаціях. AI не стає людиною. Але він дедалі краще відображає людський досвід.
Експеримент із “психотерапією” для AI відкрив несподіваний бік штучного інтелекту. Він показав, що моделі можуть демонструвати складні внутрішні суперечності, навіть не маючи свідомості. Це змінює наше уявлення про те, як варто оцінювати і використовувати AI. І, можливо, головний висновок у тому, що чим більше AI схожий на нас у словах, тим уважнішими маємо бути ми.
