Три стадії штучного інтелекту: чи може він знищити людство?

Неактивна зіркаНеактивна зіркаНеактивна зіркаНеактивна зіркаНеактивна зірка
 

Штучний інтелект (ШІ) може призвести до вимирання людства, попереджають деякі експерти, зокрема керівники OpenAI і Google Deepmind. Але як машини можуть взяти гору над людьми?

З моменту запуску в листопаді 2022 року ChatGPT - чат-бот, який використовує штучний інтелект (ШІ) для відповідей на запитання або створення тексту чи навіть коду на вимогу користувачів, - став інтернет-додатком із найшвидшими темпами зростання в історії.

Лише за два місяці він мав 100 мільйонів активних користувачів. За даними компанії з моніторингу технологій Sensor Town, щоб досягти цієї віхи, Instagram знадобилося два з половиною роки.

Величезна популярність ChatGPT, який розробила компанія OpenAI за фінансової підтримки Microsoft, викликала інтенсивні дебати щодо впливу штучного інтелекту на майбутнє людства.

Десятки експертів підтримали заяву, опубліковану на вебсторінці Центру безпеки штучного інтелекту, у якій ідеться: "Зменшення ризику вимирання (людства. - Ред.) від штучного інтелекту повинно бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна".

Водночас інші кажуть, що ці страхи перебільшені.

Наслідування людей

Тексти (від есе, віршів і жартів до комп'ютерного коду) і зображення (такі як діаграми, фотографії та ілюстрації), створені інструментами ШІ, такими як ChatGPT, DALL-E, Bard і AlphaCode, може бути неможливо відрізнити від роботи людини.

З їхньою допомогою студенти роблять домашні завдання, а політики пишуть промови: представник Демократичної партії Джейк Окінклосс запустив їхнє використання у Конгресі США.

Технічний гігант IBM заявляє, що припинить наймати людей на 7800 вакансій, на яких може працювати штучний інтелект.

 

Наслідування людей

Тексти (від есе, віршів і жартів до комп'ютерного коду) і зображення (такі як діаграми, фотографії та ілюстрації), створені інструментами ШІ, такими як ChatGPT, DALL-E, Bard і AlphaCode, може бути неможливо відрізнити від роботи людини.

З їхньою допомогою студенти роблять домашні завдання, а політики пишуть промови: представник Демократичної партії Джейк Окінклосс запустив їхнє використання у Конгресі США.

Технічний гігант IBM заявляє, що припинить наймати людей на 7800 вакансій, на яких може працювати штучний інтелект.

 

У смартфонах є безліч додатків, які використовують цю технологію - від GPS-карт до музичних і відеопрограм, які знають ваші смаки та дають рекомендації.

Навіть більш складні системи, такі як безпілотні автомобілі та ChatGPT, є формами вузького штучного інтелекту. Вони не можуть діяти за межами встановленого набору завдань, тому не можуть самостійно ухвалювати рішення.

Однак деякі експерти вважають, що системи, запрограмовані на автоматичне навчання, такі як ChatGPT або AutoGPT, можуть перейти на наступний етап розвитку.

2. Штучний загальний інтелект (ШЗІ)

Штучний загальний інтелект стане реальністю, коли машина зможе виконувати будь-яке інтелектуальне завдання, яке може виконувати людина.

Він також відомий як "сильний ШІ".

Шестимісячна пауза

У березні 2023 року понад 1000 технологічних експертів закликали "всі лабораторії штучного інтелекту негайно призупинити принаймні на 6 місяців навчання систем штучного інтелекту, потужніших за GPT-4", останню версію ChatGPT.

"Системи штучного інтелекту з людським і конкурентоспроможним інтелектом можуть становити серйозні ризики для суспільства та людства", - написав співзасновник Apple Стів Возняк разом з іншими лідерами у сфері технологій, зокрема власником Tesla та SpaceX Ілоном Маском.

Маск був одним із співзасновників OpenAI, але згодом пішов у відставку через розбіжності з керівництвом фірми.

У листі, опублікованому некомерційною організацією Future of Life Institute, експерти сказали, що якщо компанії відмовляться швидко зупинити свої проєкти, "уряди повинні втрутитися та ввести мораторій", щоб можна було розробити та запровадити заходи безпеки.

"Настільки ж дурний, наскільки й розумний"

Лист підписала й Карісса Веліз з Інституту етики ШІ Оксфордського університету. Але вона вважає, що пізніша заява Центру безпеки ШІ, яка попереджає про вимирання людства, заходить занадто далеко, й вирішила її не підписувати.

"Штучний інтелект, який ми зараз створюємо, настільки ж дурний, наскільки й розумний, - розповіла вона кореспонденту BBC Ендрю Веббу. - Якщо хтось спробує ChatGPT або інший ШІ, він помітить, що вони мають дуже, дуже важливі обмеження".

Веліз каже, що її хвилює те, що ШІ може з величезною швидкістю фабрикувати дезінформацію.

"Наближаються вибори в США, а такі важливі платформи, як Twitter та інші, звільняють свої команди з питань етики та безпеки штучного інтелекту. Це мене хвилює набагато більше", - каже вона.

Уряд США визнає потенційні загрози.

"Штучний інтелект є однією з найпотужніших технологій нашого часу, але для того, щоб скористатися можливостями, які вона надає, ми повинні спочатку пом'якшити пов'язані з нею ризики", - йдеться в заяві Білого дому 4 травня.

Конгрес США викликав генерального директора OpenAI Сема Альтмана, щоб поставити йому запитання про ChatGPT.

Під час слухань у Сенаті Альтман сказав, що надзвичайно важливо, щоб його галузь регулював уряд, оскільки штучний інтелект стає дедалі потужнішим.

Карлос Ігнасіо Гутьєррес, дослідник державної політики в Інституті майбутнього життя, пояснив BBC, що однією з великих проблем, які ставить штучний інтелект, є те, що "немає колегіального органу експертів, які б вирішували, як його регулювати, як це відбувається, наприклад, з Міжурядовою групою експертів зі зміни клімату".

Це підводить нас до третьої та останньої стадії ШІ.

3. Штучний суперінтелект (ШС)

Згідно з цією теорією, коли ми досягнемо стадії 2 (ШЗІ), ми катапультуємося на завершальну стадію: "Штучний суперінтелект" (ШС). Це станеться, коли штучний інтелект буде вищим за людський.

Філософ Оксфордського університету та експерт зі штучного інтелекту Нік Бостром визначає суперінтелект як інтелект, який "значно перевершує найкращий людський мозок практично в усіх сферах, включно з науковою творчістю, загальним розумом і соціальними навичками".

"Люди, які стають інженерами, медсестрами чи юристами, повинні вчитися протягом тривалого часу. Проблема з ШС полягає в тому, що... він може постійно вдосконалюватися, у той час, коли ми не можемо", - пояснює Гутьеррес.

Наукова фантастика

Ця концепція нагадує сюжет фільму "Термінатор", у якому машини починають ядерну війну, щоб знищити людство.

Арвінд Нараянан, комп'ютерний науковець із Принстонського університету, раніше казав BBC, що сценарії катастроф, схожі на науково-фантастичні, є нереалістичними: "Теперішній штучний інтелект і близько не спроможний реалізувати ці ризики. Як наслідок, це відволікає увагу від короткострокової шкоди штучного інтелекту".

Хоча точиться багато дискусій щодо того, чи може машина справді набути такого широкого інтелекту, як людина, особливо коли йдеться про емоційний інтелект, саме це найбільше хвилює тих, хто вірить, що ми близькі до досягнення ШС.

Нещодавно так званий "хрещений батько штучного інтелекту" Джеффрі Гінтон, піонер у навчанні машин, попередив, що ми можемо ось-ось досягти цієї віхи.

Також він додав, що тепер шкодує про виконану роботу, оскільки побоюється, що "погані актори" використовуватимуть штучний інтелект для "поганих вчинків".

Він навів ВВС приклад "кошмарного сценарію": "Уявіть, наприклад, що якийсь поганий актор, як Путін, вирішив дати роботам можливість створювати власні проміжні цілі".

Зрештою машини можуть створити проміжні цілі на зразок: "Мені потрібно отримати більше влади", що створить "екзистенційний ризик", попередив він.

Водноча Гінтон зазначив, що "в короткостроковій перспективі", на його думку, штучний інтелект принесе набагато більше переваг, ніж ризиків. "Тому я не думаю, що ми повинні припиняти його розробку", - додав він.

Вимирання або безсмертя

Британський фізик Стівен Гокінг мав суворе попередження для прийдешніх поколінь.

"Розвиток повноцінного штучного інтелекту може означати кінець людської раси", - сказав він BBC у 2014 році, за чотири роки до своєї смерті.

За його словами, машина з таким рівнем інтелекту "могла б діяти самостійно та перепроєктувати себе".

Наноботи і безсмертя

Одним із найбільших ентузіастів штучного інтелекту є футуролог-винахідник і письменник Рей Курцвейл, дослідник штучного інтелекту в Google і співзасновник Університету сингулярності Кремнієвої долини.

Курцвейл вірить, що люди зможуть використовувати суперінтелектуальний ШІ для подолання біологічних бар'єрів.

У 2015 році він передбачив, що до 2030 року люди зможуть досягти безсмертя завдяки наноботам (надзвичайно маленьким роботам), які могли б "виправляючи" будь-які пошкодження та лікувати хвороби всередині нашого тіла.

 

Управління ШІ

Гутьеррес погоджується, що ключовим є створення системи управління ШІ.

"Уявіть собі майбутнє, де певна сутність має стільки інформації про кожну людину на планеті та її звички [завдяки пошукам в інтернеті], що може контролювати нас способами, яких ми навіть не усвідомлюємо", - каже він.

"Найгірший сценарій полягає не в тому, що існують війни між людьми та роботами. Найгіршим є те, що ми не усвідомлюємо, що нами маніпулюють, тому що ми живемо на планеті з істотою, яка набагато розумніша за нас".

Матеріал підготовлений за участю Ендрю Вебба та Кріса Валланса

Джерело

Підписуйтесь на наш Telegram канал, щоб знати найважливіші новини першими. Також Ви можете стежити за останніми подіями міста та регіону на нашій сторінці у Facebook.

Коментарі можуть залишати тільки зареєстровані користувачі

Знайти на сайті