Humanitarian Media Hub наводить переклад дослідження, яке було опубліковано у профільному виданні The Conversation.
Сьогодні, коли штучний інтелект (ШІ) став звичним у повсякденному житті, з’являється безліч тверджень — особливо щодо генеративного ШІ, який працює на основі великих мовних моделей (LLM), як-от ChatGPT, Copilot, Gemini та багато інших.
Кажуть, що ШІ змінить світ. Що він принесе «вражаючі досягнення». Що навколо нього занадто багато галасу, і «бульбашка» от-от лусне. А ще — що ШІ невдовзі перевершить людські можливості, стане «надінтелектом» і знищить нас усіх.
Якщо останнє твердження вас насторожило — ви не одні. «Хрещений батько ШІ», комп’ютерний науковець і лауреат Нобелівської премії Джеффрі Гінтон, заявив, що існує 10–20% ймовірності, що ШІ може призвести до зникнення людства протягом найближчих трьох десятиліть. Думка тривожна — але поки що немає згоди щодо того, чи ймовірний такий сценарій і яким чином це може статися.
Тож ми запитали п’ятьох експертів: чи становить ШІ екзистенційну загрозу?
Троє з п’яти сказали «ні». Нижче — їхні розгорнуті відповіді.
Справжня загроза — не в тому, що ШІ стане надто розумним
Аарон Дж. Сносвелл, старший науковий співробітник з питань підзвітності ШІ, Квінслендський технологічний університет
Ні.
З огляду на нинішній рівень розвитку технологій, справжня загроза полягає не в тому, що ШІ стане надто розумним, а в тому, що люди ухвалюють хибні рішення щодо того, як ми створюємо та використовуємо ці інструменти.
Попри свою вражаючу ефективність, сучасні системи ШІ залишаються, по суті, «стохастичними папугами». Вони здійснюють складне розпізнавання шаблонів, яке лише імітує інтелект через передбачення. Все більше доказів свідчить, що ця основа є крихкою, ненадійною і несумісною з раціональним мисленням — не кажучи вже про справжній інтелект.
Прогрес у галузі генеративного ШІ безперечно вражає й навіть змінює правила гри. Але ці здобутки є поступовими та несталими, а сам підхід до розробки в цьому напрямі — обмежений.
Майбутні технологічні прориви можуть змінити це оцінювання, однак усі ризики ШІ врешті-решт походять від людських рішень. Шлях до успішного суспільства пролягає через кращих людей, кращі інституції та ефективне управління.
Замість спекуляцій про гіпотетичний надінтелект, який нібито може знищити людство, нам слід зосередитись на налагодженні систем нагляду та відповідальному розвитку. Екзистенційна загроза не прихована у коді — вона прихована у наших власних рішеннях.
Провідні моделі ШІ швидко набувають універсальних можливостей
Ніуша Шафіабаді, доцентка з обчислювального інтелекту, Австралійський католицький університет
Так.
Я твердо переконана, що штучний інтелект становить екзистенційну загрозу.
Нині існують лише системи так званого «слабкого» або вузького ШІ — тобто ті, що здатні виконувати обмежені завдання, але не володіють загальним, «людським» рівнем інтелекту. Однак провідні моделі швидко набувають універсальних властивостей, що підвищує ризик масштабного зловживання. І що більш спроможним стає ШІ, то більше він може підривати людський контроль.
Сотні провідних науковців, публічних осіб і дослідників попереджають, що «зменшення ризику зникнення людства через ШІ» має стати глобальним пріоритетом.
Опитування фахівців з машинного навчання показують, що середня оцінка ймовірності сценарію знищення людства у цьому столітті становить близько 5%. Це небагато, але аж ніяк не нуль.
Уряди, які підписали Блетчлійську декларацію 2023 року, визнали наявність «катастрофічних» ризиків. Дослідницькі лабораторії вже відстежують конкретні загрози, зокрема використання ШІ для масштабних біологічних або кібератак.
Катастрофа, спричинена ШІ, не є неминучою, але здоровий глузд підказує: нам потрібні чіткі «червоні лінії», які ці системи не зможуть перетнути, а також ретельне тестування перед запуском і незалежна оцінка у міру зростання їхніх можливостей. Діяти треба зараз, поки не пізно.
ШІ настільки добрий, наскільки добрі люди, які ним користуються
Сара Вів’єн Бентлі, дослідниця з відповідальних інновацій, Data61, CSIRO
Ні.
Окрім уже звичних чат-ботів генеративного ШІ, майбутнє цієї технології залишається невизначеним. Як і інші революційні винаходи — наприклад, ядерна енергія чи друкарський верстат — ШІ змінить наше життя. І вже змінює.
Сьогодні ринок праці невпізнанний, методи навчання стали іншими, а ухвалення рішень — від медицини до оборони — дедалі частіше відбувається разом із машинами. У цьому сенсі, можливо, ШІ дійсно становить екзистенційну загрозу.
Але саме тут і полягає проблема. Ми говоримо про ШІ так, ніби він «прилетів із космосу».
Так, ці системи здатні діяти автономно, але створили їх люди. Код написали люди, розробку фінансують люди, регулювання встановлюють теж люди.
Тож якщо загроза й існує — вона, радше, людська, а не машинна.
ШІ — це надзвичайно потужний інструмент, який може принести користь людству. Але, як і будь-який інструмент, він настільки добрий, наскільки добрі ті, хто ним користується.
У міру розвитку ШІ нам варто розвивати критичне мислення й долати звичку до безпорадності.
Найочевидніший шлях до екзистенційної загрози — мілітаризація
Сейедалі Мірджалілі, професорка з питань штучного інтелекту, Університет Торренса, Австралія
Так.
Я більше занепокоєний тим, що люди можуть використати ШІ для знищення цивілізації, ніж тим, що сам ШІ зробить це автономно.
Найочевидніший шлях до екзистенційної загрози — мілітаризація та всепроникний нагляд. Цей ризик зростає, якщо ми не зможемо збалансувати інновації з регулюванням і не створимо міжнародно узгоджених обмежень, щоб запобігти потраплянню ШІ у руки тих, хто може завдати шкоди.
Інтеграція ШІ у майбутні види зброї зменшить людський контроль і може спричинити гонку озброєнь. Якщо цей процес буде неконтрольованим, існує ризик війни, керованої ШІ.
Щоб мінімізувати екзистенційний ризик, варто класифікувати системи ШІ за рівнем ризику і обмежувати їхнє використання у сфері оборони, забезпечивши обов’язковий людський нагляд у високоризикових ситуаціях.
Окрім управління, слід гарантувати, що ШІ точно відображає реальність, не спотворює факти і не служить чиїмось інтересам. Проте цього недостатньо. Безпека також залежить від узгодження цілей ШІ з людськими цінностями, збереження контролю людини й постійного тестування систем. Тільки так ми зможемо мирно співіснувати з ШІ.
«Інтелект» генеративного ШІ має серйозні обмеження
Саймон Коглан, старший викладач з цифрової етики, заступник директора Центру ШІ та цифрової етики, Мельбурнський університет
Ні.
Мало доказів того, що найближчим часом з’явиться надінтелектуальний ШІ, здатний спричинити глобальну катастрофу.
Нинішні побоювання — а також галас — навколо екзистенційних ризиків пов’язані переважно з розвитком генеративного ШІ, зокрема великих мовних моделей, як-от ChatGPT, Claude, Gemini тощо.
Такі системи просто роблять передбачення на основі шаблонів — визначають, який текст найімовірніше задовольнить запит користувача.
Багато експертів вважають, що «інтелект» цього типу ШІ, хоч і вражаючий, має серйозні обмеження.
Великі мовні моделі не мають стійкої здатності до логічного, фактологічного чи концептуального розуміння. У цьому сенсі ШІ не може «розуміти» й, отже, не може діяти так, як людина.
Майбутній технологічний прорив, який допоможе подолати ці обмеження, не можна виключати — але й вважати його неминучим теж не варто.
Надмірна увага до спекулятивних загроз від надінтелектуального ШІ відволікає від реальних проблем, які існують вже сьогодні: упередженість алгоритмів, втрата робочих місць, порушення авторських прав.
Щобільше, це може відвернути увагу від справжніх екзистенційних небезпек, як-от зміна клімату — ризику, до якого сам енергомісткий ШІ теж може долучатися.
Читайте також: ШІ — це помічник, а не автор

