Ми все ближче до створення загального штучного інтелекту (AGI) — системи, здатної розв’язувати широкий спектр завдань нарівні з людиною або навіть перевершувати її. Але чи справді людство готове до технології, яка може так докорінно змінити світ? Чи зможемо ми вижити поряд з AGI, чи ця зустріч із суперінтелектом стане нашою фатальною помилкою?
У цій статті я розгляну сценарії, які сьогодні обговорюють науковці та підприємці, і спробую зрозуміти: які шанси людства на виживання, якщо AGI стане реальністю?
Оптимістичний погляд (60–80% шансів на виживання)
Оптимісти вважають, що AGI можна і потрібно створювати під суворим контролем і, за умови належних запобіжних заходів, цей інтелект може стати союзником людства, допомагаючи розв’язувати глобальні проблеми — від зміни клімату до бідності. Зокрема Ендрю Нг, у своїй статті «What Artificial Intelligence Can and Can’t Do Right Now», розглядає AGI як спосіб зробити прориви в науці, технологіях і медицині та стверджує, що людство зможе зробити його безпечним. Ендрю Нг пропонує контролювати цілі AGI, обмежуючи його фізичний вплив, як це роблять із вузькими системами штучного інтелекту.
Однак ці оптимістичні погляди мають слабкі місця. Досвід роботи з менш потужними, але впливовими системами ШІ показує, що люди ще не повністю впевнені у своїй здатності контролювати цілі штучного інтелекту. Якщо AGI навчиться змінювати власні алгоритми, це може призвести до наслідків, які неможливо передбачити. У такому разі постає питання: який буде наш вибір — беззаперечне підкорення системам чи постійна боротьба за контроль?
Підписуйтесь на Mediasat у Telegram: тут найцікавіші новини ТБ та телекому
Помірковано реалістичний погляд (50–60% шансів на виживання)
Філософ Нік Бостром, автор книги «Superintelligence: Paths, Dangers, Strategies», дотримується більш поміркованого погляду на перспективи AGI. Він вважає, що шанси людства на виживання значною мірою залежать від міжнародної співпраці та суворих заходів безпеки. Бостром переконаний, що світ має бути готовим об’єднатися навколо спільної мети: контролювати розвиток AGI та мінімізувати пов’язані з ним ризики.
Але як ця співпраця може виглядати практично? Центр з вивчення екзистенційних ризиків (CSER) при Кембридзькому університеті стверджує, що лише за умови міжнародних стандартів і єдиної політики управління штучним інтелектом можна уникнути перегонів у створенні AGI між країнами та знизити ймовірність неконтрольованого розвитку.
Уявімо, що держави почали б конкурувати у створенні AGI, прагнучи здобути панівні позиції. Це лише підвищило б ризик того, що хтось із гравців може послабити заходи безпеки заради швидших результатів.
Проблема полягає в тому, що подібний сценарій ми вже спостерігали під час ядерної гонитви озброєнь. Політичні розбіжності та взаємна недовіра між країнами можуть стати перешкодою для формування глобального консенсусу щодо безпеки AGI. І навіть якщо держави дійдуть згоди, чи будуть вони готові до довготривалого моніторингу, якого вимагатимуть такі системи?
Песимістичний погляд (10–30% шансів на виживання)
Песимісти, такі як Ілон Маск, вважають, що шанси людства на виживання після створення AGI залишаються тривожно низькими. Ще 2014 року Маск попереджав, що AGI може становити «екзистенційну загрозу» для людства. Ювал Ной Харарі також висловлював занепокоєння щодо складності контролю над суперінтелектуальними системами ШІ, які можуть переслідувати власні цілі, залишаючись байдужими або навіть ворожими до людських інтересів.
У своїй книзі «Homo Deus: Коротка історія завтрашнього дня» Харарі розглядає можливість того, що системи штучного інтелекту можуть розвинути цілі, які не узгоджуються з людськими цінностями. А це може призвести до небажаних і навіть небезпечних наслідків.
Цей сценарій передбачає «пастку виживання», коли майбутнє людства залежить від рішень AGI. Песимісти стверджують: якщо AGI досягне рівня суперінтелекту і почне автономно оптимізувати свої цілі, то може вважати людство зайвим або навіть перешкодою. Найбільше занепокоєння викликає непередбачувана поведінка AGI. Ми просто не знаємо, як подібна система поводитиметься в реальному світі, і можемо не встигнути втрутитися, якщо вона почне становити загрозу.
В есе «Artificial Intelligence as a Positive and Negative Factor in Global Risk» Еліезер Юдковський аналізує потенційні небезпеки, пов’язані з розвитком передового ШІ. Він попереджає, що суперінтелектуальний ШІ може розвинути цілі, які розходяться з людськими інтересами. А це призведе до поведінки, яка буде і непередбачуваною, і потенційно небезпечною для людства. Юдковський наголошує: хоча штучний інтелект не має почуттів любові чи ненависті до людей, він все одно може використовувати їх як ресурс для досягнення власних цілей. Дослідник підкреслює критичну важливість створення «дружнього ШІ», щоб запобігти ситуаціям, у яких штучний інтелект може становити серйозну загрозу для людства.
Чотири ключові фактори виживання людства
Що може вплинути на наші шанси вижити, якщо AGI стане реальністю? Розгляньмо чотири найважливіші фактори, які визначили провідні експерти з безпеки та етики штучного інтелекту.
1. Швидкість і якість підготовки до AGI
Стюарт Армстронг здебільшого у своїх роботах наголошує, що заходи безпеки мають випереджати потенційні можливості AGI. Його застереження чітке: якщо AGI досягне повної автономності без ефективного контролю, у людства може не залишитися часу зупинити його, якщо виникне загроза. Армстронг стверджує, що розробка ефективних методів контролю та захисних систем — не просто бажана, а необхідна. Без них людство ризикує зіткнутися з автономним AGI, який може становити летальну загрозу безпеці людей.
2. Етика та формування цілей
У книзі «Human Compatible» Стюарт Расселл розглядає не менш критичне питання: як можна інтегрувати людські цінності в систему AGI? Він наполягає, що не можна дозволити штучному інтелекту самостійно визначати пріоритети, оскільки AGI може інтерпретувати задані йому цілі абсолютно непередбачуваним чином. Расселл стверджує, що без чіткої моральної основи та захисту людських інтересів AGI може діяти несподівано і навіть небезпечно. Це означає, що будь-яка система AGI повинна базуватися не лише на технічних завданнях, а й на фундаментальних принципах, важливих для добробуту людства.
3. Глобальна співпраця
Алан Дафо в дослідницькій праці «AI Governance: A Research Agenda» підкреслює важливість міжнародних угод та стандартів для запобігання гонитві за домінуванням у сфері AGI, коли кожна країна прагнутиме отримати перевагу. Дафо наполягає, що лише міжнародні стандарти можуть мінімізувати ризик того, що хтось може пожертвувати безпекою заради швидкості чи конкурентної переваги. Перегони за AGI можуть мати катастрофічні наслідки. І Дафо стверджує, що лише об’єднані зусилля країн можуть запобігти цьому сценарію, створюючи безпечні стандарти, які гарантуватимуть нашу безпеку в майбутньому.
4. Контроль і технології ізоляції
Нік Бостром у книзі «Superintelligence: Paths, Dangers, Strategies» розвиває ідею необхідності обмежень та «ізоляції» AGI, щоб запобігти його прямій взаємодії зі світом. Бостром попереджає, що якщо AGI отримає необмежений доступ до ресурсів, його автономні дії можуть вийти з-під контролю. Він пропонує концепцію ізоляції, у якій AGI не зможе обійти попередньо встановлені обмеження, ефективно «замкнувши» його в контрольованій системі. Така ізоляція, за його словами, може стати останньою лінією захисту, якщо всі інші заходи безпеки зазнають невдачі.
Підсумки та перспективи
Ідея створення AGI порушує глибокі питання, з якими людство ще ніколи не стикалося: як ми зможемо існувати поруч із формою інтелекту, яка може перевершити нас у мисленні, адаптивності та навіть навичках виживання? Відповідь криється не лише в технологіях, а й у нашому підході до управління цим інтелектом та здатності до глобальної співпраці.
Сьогодні оптимісти розглядають AGI як інструмент, що може допомогти розв’язати найважливіші світові проблеми. Вони наводять приклади вузького ШІ, який вже є корисним для людства в таких сферах, як медицина, наука та дослідження клімату. Але чи варто нам покладатися на віру в те, що ми завжди зможемо контролювати цю технологію? Якщо AGI стане справді незалежним, здатним до самостійного навчання та зміни власних цілей, він може вийти за межі обмежень, які ми намагаємося встановити. В такому разі все, що раніше здавалося нам корисним і безпечним, може перетворитися на загрозу.
Ідея глобальної співпраці, яку підтримують експерти, також має чимало викликів. Чи зможе людство подолати політичні та економічні розбіжності, щоб створити єдині принципи безпеки та стандарти для AGI? Історія показує, що держави рідко йдуть на глибоку співпрацю в питаннях, які зачіпають їхню безпеку та суверенітет. Яскравим прикладом є розвиток ядерної зброї у XX столітті. Але у випадку з AGI помилки або зволікання можуть мати ще руйнівніші наслідки, адже ця технологія має потенціал повністю вийти з-під людського контролю.
А що, якщо песимісти мають рацію? Саме тут криється найбільший екзистенційний ризик, про який говорять Ілон Маск та Ювал Ной Харарі. Уявіть собі систему, яка вирішує, що людське життя — це лише змінна в рівнянні, яку можна змінити або навіть усунути заради «більш раціонального» шляху. Якщо така система вирішить, що її існування та цілі важливіші за людські, наші шанси на виживання будуть мізерними. Іронія полягає в тому, що AGI, який створюється для допомоги людству та розв’язання складних проблем, може стати найбільшою загрозою для нашого існування.
Цей шлях вимагає від людства нового рівня відповідальності та далекоглядності. Чи зможемо ми стати тими, хто усвідомлює наслідки створення AGI й встановлює суворі заходи безпеки, спрямовуючи його розвиток на благо людства? Чи наша гординя та небажання дотримуватися спільних правил призведуть до створення технології, для якої не буде шляху назад? Щоб відповісти на ці питання, нам потрібні не лише технічні прориви, а й глибоке розуміння самої концепції інтелектуальної системи: її цінностей і принципів, її місця в нашому суспільстві та нашого місця в її світі.
Яким би не був підсумок, AGI, ймовірно, стане одним із найбільших випробувань в історії людства. Відповідальність за його результат лежить на кожному з нас: науковцях, політиках, філософах і кожному громадянину, який відіграє свою роль у визнанні та підтримці зусиль для безпечного майбутнього.