Джеффрі Гінтон, якого визнають «хресним батьком» штучних нейронних мереж, після понад 10 років роботи в Google відійшов від цієї праці і сьогодні застерігає від небезпек, що виникають із розвитку штучного інтелекту.
Дослідження доктора Гінтона над нейронними мережами та глибинним навчанням проклали шлях сучасним системам ШІ, зокрема таким, як популярний останнім часом ChatGPT. Нині, покинувши роботу в Google, учений зізнається: він жалкує про те, над чим працював, а небезпеки, пов’язані з чатботами, базованими на ШІ, називає «достатньо вражаючими».
Джеффрі Гінтон. Фото: Вікіпедія
«New York Times» опублікувала думки доктора Гінтона: він занепокоєний потенціалом штучного інтелекту щодо знищення робочих місць і створення світу, в якому «вже не буде можливим знати, що є правдою». Також він вказав на неймовірний темп розвитку ШІ, який далеко вийшов поза те, що сам доктор та інші дослідники передбачали.
«На сьогодні вони не розумніші за нас, наскільки мені відомо. Але я думаю, що незабаром можуть такими стати», — пояснював учений у розмові з ВВС. Поки що такі програми, як GPT‑4, залишили людину позаду за рівнем загальних знань, але програють людському розумові, коли йдеться про мислення. Однак якщо взяти до уваги темпи розвитку ШІ, ця ситуація незабаром може змінитися.
«Я — тільки вчений, який раптом усвідомив, що речі стають розумнішими за нас», — сказав доктор Гінтон для CNN. Він хоче попередити, що «ми повинні серйозно перейнятися тим, як стримати речі від перехоплення контролю над нами».
Як пояснює науковець, він також зрозумів відмінність між цифровим та людським інтелектом. «У цифрових системах маємо багато копій одного й того самого набору значень, тієї самої моделі світу», — сказав він для NYT. «Усі ці системи можуть навчатися окремо, але миттєво ділитися своїми знаннями. Це так, якби ти сам мав 10 000 осіб, і щойно одна особа чогось навчилася — всі автоматично би про це знали. Тому чатботи можуть знати набагато більше, ніж будь-яка окрема людина».
На думку винахідника, перерви в праці над ШІ — до чого нещодавно закликали експерти — було би складно домогтися. Якщо одні країни призупинять роботу, інші (наприклад, Китай) можуть це використати для здобуття технологічної переваги.
У розмові з CNN доктор Гінтон не приховував, що побоюється маніпулювання людьми з боку штучного інтелекту: «Він знає, як програмувати, отож знайде способи обійти обмеження, які ми на нього накладемо. Вигадає спосіб маніпулювати людьми, щоб робили те, чого він хоче».
«Я вважаю, що ми повинні докласти значних зусиль до того, щоб обдумати способи розв’язання цієї проблеми. Я на сьогодні розв’язання не маю», — зізнався доктор Гінтон.