Нейромережа навчилася визначати тип особистості
Вчені зі Швейцарської вищої технічної школи Цюриха провели масштабне дослідження, щоб з'ясувати, наскільки глибоко ШІ може аналізувати особистість людини. Результати показали, що історія листування з ChatGPT є достатньою базою для формування точного психологічного портрета користувача.
Про це повідомляє РБК-Україна, посилаючись на дослідження, опубліковане на сервері препринтів arXiv.
Більше цікавого: Цей робот поводиться як жива тварина: що відомо про Familiar від iRobot
У дослідженні взяли участь 668 користувачів, які надали копії своїх log-файлів (загалом близько 62 000 чатів) та пройшли стандартний психологічний тест.
На основі цих даних автори навчили ШІ-модель визначати ключові риси особистості:
- Екстраверсія - комунікабельність;
- Доброзичливість - здатність до співпраці;
- Сумлінність - відповідальність та дисципліна;
- Невротизм - емоційна стабільність;
- Відкритість до досвіду - допитливість.
Найвищу точність ШІ продемонстрував у визначенні екстраверсії та невротизму.
Вчені помітили закономірність: тип обговорюваних тем безпосередньо вказує на конкретні риси. Наприклад, обговорення міжособистісних стосунків дозволяє легко вирахувати рівень екстраверсії, а розмови на релігійні теми видають рівень сумлінності користувача.
ШІ профілюватиме людей?
Автори дослідження наголошують, що можливість автоматизованого створення психологічних профілів мільйонів людей несе серйозні ризики для демократичних суспільств.
Які проблеми виділяють науковці:
Маніпуляція: компанії або уряди можуть використовувати ці дані для таргетованої пропаганди.
Когнітивна капітуляція: люди дедалі більше довіряють ШІ ролі терапевта чи наставника, а це робить їх вразливими до прихованого впливу.
Масове стеження: оскільки більшість сервісів належать приватним корпораціям, дані про внутрішній світ користувачів стають об'єктом комерційного або політичного інтересу.
Чи можна захистити свої дані?
Дослідження показало, що чим довше людина взаємодіє з ШІ, тим точнішим стає прогноз її поведінки. Навіть випадкові та неперсоналізовані запити містять неявні маркери особистості.
Вчені закликають розробників впроваджувати інструменти "локальної фільтрації", які б очищали запити від надлишкової особистої інформації ще до того, як вони потраплять на сервери ШІ-провайдерів.
Наразі користувачам рекомендують критично ставитися до інформації, яку вони довіряють алгоритмам, та обмежувати використання чат-ботів у ролі персональних радників чи консультантів.
Ще більше цікавого:
- ШІ не зміг виміряти красу: вчені виявили приховані упередження алгоритмів
- ШІ "ламається" під тиском користувачів: що показало дослідження вчених