Зображення

Вчені виявили небезпечну рису ШІ: алгоритми переймають людські упередження

13.05.2026 19:13 | Всі новини

Науковці стверджують, що ШІ просто копіює несправедливі рішення людей з минулого

ШІ, який прийнято вважати неупередженим, насправді схильний повторювати та навіть підсилювати людські помилки. Аналізуючи роботу алгоритмів у сфері найму, фінансів та судочинства, вчені дійшли висновку: машина не створює нові упередження, а лише "успадковує" їх із суспільної історії.

Про це інформує РБК-Україна з посиланням на Techxsplore.

Більше цікавого: ChatGPT раптово почав згадувати гоблінів без причини: вчені пояснили проблему

Чому ШІ помиляється?

Дослідники пояснюють: головна проблема полягає у даних, на яких тренують нейромережі. Наприклад, якщо компанія у минулому рідше просувала жінок по службі, ШІ вивчить цю закономірність і почне автоматично надавати перевагу чоловікам у майбутньому, навіть якщо йому прямо не вказували на стать кандидатів.

Спадковість: ШІ не вигадує дискримінацію - він її переймає з досвіду попередніх людських рішень.

Ефект "об'єктивності": через те, що рішення видає комп'ютер, люди схильні сприймати їх як беззаперечну істину, не помічаючи закладених у програму помилок.

Проблема "невидимих" меншин і "скляних стель"

Стандартні перевірки алгоритмів зазвичай фокусуються лише на одній ознаці, наприклад, тільки на статі або ж расі. Проте вчені зазначають, що у реальному житті ці характеристики перетинаються, створюючи складніші форми дискримінації.

Приховані помилки: система може здаватися чесною, якщо порівнювати чоловіків і жінок окремо, але водночас систематично відхиляти заявки старших жінок із національних меншин.

Брак релевантних кейсів: оскільки такі підгрупи зазвичай невеликі, алгоритм не бачить достатньо прикладів для навчання. У результаті він просто застосовує до них загальні шаблони, які можуть бути абсолютно некоректними.

Гроші та кредити: ціна помилки алгоритму

У банківській сфері ШІ часто трактує низький дохід або коротку кредитну історію як ознаку ненадійності. Проте часто це лише наслідок того, що певні громади історично мали менше доступу до фінансових послуг. У результаті людина, яка реально спроможна виплатити кредит, отримує відмову лише тому, що машина вважає її соціальну групу "ризикованою".

Чи можливо навчити ШІ справедливості?

Фахівці наголошують, що справедливість - це не математичне рівняння, яке можна розв'язати один раз. Це безперервний процес, який має включати:

Залучення громад: впливати на розробку алгоритмів мають не лише технічні спеціалісти, а й люди, чиї інтереси ці системи зачіпають.

Постійний моніторинг: суспільство змінюється, і те, що було прийнятним сьогодні, може стати джерелом шкоди вже завтра.

Відповідальність: компанії повинні мати механізми виправлення або навіть повного відключення упереджених ШІ-систем.

"Питання тепер не в тому, чи може ШІ бути ідеально чесним, а в тому, хто контролюватиме ці алгоритми та як змусити їх працювати на користь усього суспільства, а не лише більшості", - підсумовують вчені.

Ще більше цікавого:

  • ШІ починає контролювати людські відчуття: футуролог попередив про нову цифрову реальність
  • ШІ навчили говорити "я не знаю": як це зменшує галюцинації у відповідях