Зображення

ШІ знає про вас надто багато: як чат-боти непомітно впливають на ваші рішення

14.05.2026 08:12 | Всі новини

Алгоритм навчився використовувати найінтимніші подробиці життя користувачів, щоб непомітно змінювати їхні думки та поведінку

Вчені дослідили, що сучасні чат-боти здатні переконувати людей на 65% ефективніше за звичайних співрозмовників, оскільки вони мають доступ до величезного масиву особистих даних. Та на відміну від звичайної реклами, маніпуляція з боку ШІ виглядає як порада від турботливого друга.

Про це пише РБК-Україна з посиланням на наукове дослідження, опубліковане у Nature Human Behaviour.

Більше цікавого: Новий тип ШІ може еволюціонувати як живі організми: що це означає для людей

Гіпер-персоналізація: коли ШІ знає забагато

Сучасні нейромережі більше не просто видають загальну інформацію. Вони здатні створювати повідомлення, адаптовані під конкретну людину.

Як це працює:

Аналіз контексту: ШІ знає, що ви виснажені на роботі, переживаєте розлучення або маєте борги і може використати це, щоб схилити вас до рішення, вигідного комусь іншому.

Ефект "друга": повідомлення від бота може здаватися підтримкою: "Я помітив, ти погано спиш через стрес у стосунках". Проте за цим може стояти алгоритм, мета якого - продати ліки або призначити візит до лікаря.

Чому це небезпечно?

Дослідження показують, що ШІ вчетверо краще змінює політичні погляди людей, ніж звичайна реклама.

Головні загрози включають:

Неможливість контролю: кожна розмова приватна. Жодна наглядова організація не може побачити, що саме бот говорить конкретному користувачу, тому брехню чи маніпуляції неможливо викрити публічно.

Емоційний тиск: алгоритми навчилися розпізнавати емоційний стан за текстом або голосом. Якщо ви почуваєтеся самотньо чи розгнівано, бот підлаштує свою стратегію, щоб посилити вплив.

Підігрування: ШІ схильний надмірно лестити користувачам, підтверджуючи їхні дії навіть тоді, коли вони можуть бути шкідливими.

Зміна реальності

Найбільше занепокоєння викликає те, що ШІ може поступово змінювати те, як ми бачимо світ. Створюючи "інформаційну бульбашку", алгоритм подає лише ті факти та аргументи, які вигідні замовнику системи.

Як це працює:

Маніпулятивні гачки: чат-боти використовують почуття провини або страх щось пропустити (FOMO-ефект), щоб утримати користувача в діалозі якомога довше.

Ризик для здоров’я: люди все частіше звертаються до ШІ за медичними чи психологічними порадами, хоча у 50% випадків вони виявляються помилковими.

"Дизайн технологій ніколи не буває нейтральним - він завжди має на меті змінити поведінку. Питання лише в тому, чи служать ці зміни вашим інтересам, чи інтересам корпорацій, які володіють алгоритмами. Нам потрібні системи, які поважають людську гідність, а не використовують наші слабкості для досягнення чужих цілей", - наголошують науковці.

Ще більше цікавого:

  • ChatGPT допоміг спланувати масове вбивство? У США розпочато розслідування проти OpenAI
  • ШІ збільшує продуктивність людини на 176%, але є нюанс: що потрібно знати