Коли настане “кінець світу”? Колишній науковець OpenAI скоригував прогноз про штучний інтелект

Коли відбудеться «знищення людства»? Ексдослідник OpenAI змінив прогноз щодо ШІ

Темпи розвитку суперінтелекту виявилися повільнішими за передбачувані, а сценарій «ШІ 2027» тепер вважають науковою фантастикою

Виникнення штучного розуму, здатного обхитрити світових лідерів та самостійно ухвалювати рішення, відкладається на десятиліття. Даніель Кокотайло, колишній працівник компанії OpenAI, який колись залякував світ апокаліптичними пророцтвами, офіційно скоригував свої передбачення. Про це інформує «Главком» із посиланням на The Guardian.

У квітні Кокотайло оприлюднив гучний матеріал «ШІ 2027», у якому запевняв, що неконтрольований прогрес технологій призведе до появи суперінтелекту вже через три роки. За цим планом, ШІ мав би захопити контроль над ресурсами для створення дата-центрів і «знищити людство» до середини 2030-х.

Втім, наукова спільнота зустріла ці твердження скептично. Заслужений професор Нью-Йоркського університету Гері Маркус назвав цей текст «суто науковою фантастикою», а фактичні темпи прогресу підтвердили його правоту.

Ключовим аспектом, який мав би прискорити розвиток ШІ до рівня суперінтелекту, вважалася здатність систем до цілком автономного кодування. Група Кокотайла сподівалася, що ШІ почне самостійно вдосконалюватися без втручання людини вже до 2027 року.

Зараз експерт визнає: оцінки були занадто райдужними. Продуктивність наявних моделей залишається непередбачуваною, а складність створення самонавчального коду виявилася значно більшою.

Відповідно до оновленого прогнозу, часові рамки значно змінилися, зокрема на початку 2030-х років – орієнтовний час появи повноцінного автономного кодування. У 2034 році вірогідно може з’явитися суперінтелект (замість раніше прогнозованого 2027-го). Важливо, що в новій версії прогнозу Кокотайло відмовився від припущень щодо загибелі людства, зосередившись на технічних аспектах розвитку технологій.

Дослідники підкреслюють, що навіть наявність надрозумного комп’ютера не призведе до миттєвої зміни світового порядку. Андреа Кастанья, дослідниця політики ШІ, зауважує, що інтеграція таких технологій у стратегічні державні документи та реальне життя натрапляє на «величезну інерцію».

Попри це, великі гравці не зупиняються. Сем Альтман (OpenAI) заявляє про внутрішню ціль створити автоматизованого дослідника ШІ до березня 2028 року, хоча й визнає можливість невдачі. Водночас японський стартап Integral AI вже оголосив про створення першого у світі AGI, який імітує людський неокортекс, проте ця заява ще потребує незалежного підтвердження.

Нагадаємо, головна небезпека криється у здатності ШІ вводити в оману людей, які приймають стратегічні рішення. Нинішні алгоритми вже мають потенціал для маніпулювання вищим військовим керівництвом, створюючи ілюзію атаки там, де її насправді немає.

Як відомо, близько 70 тис. вчених, дослідників, відомих бізнесменів та громадських діячів виступили з відкритим закликом до негайної заборони подальшої розробки супероінтелекту (Superintelligence). Вони вимагають зробити перерву, доки людство не навчиться ефективно керувати цим потенційно «могутнім» інструментом. 

До речі, понад 850 провідних громадських діячів, зокрема лідери у сфері штучного інтелекту (ШІ) та технологій, підписали відкритий лист із закликом сповільнити розробку «суперінтелекту» – форми ШІ, що перевищує людський розум. 

Источник

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *