Вчені дійшли висновку, що розвиток надрозумного штучного інтелекту прискорить загибель людства
Дослідники з Оксфордського університету проаналізували перспективи надрозумного штучного інтелекту і дійшли висновку, що він прискорить загибель людства.
Про це йдеться у статті в науковому журналі AI Magazine.
Наразі штучний інтелект може керувати автомобілями на дорогах загального користування, його використовують для аналізу даних та прогнозування. Нейромережі навчились імітувати мистецтво, малювати картини, писати музику та твори, на основі існуючих робіт. Навіть у побуті ШІ використовують у "розумній техніці".
"За умов, які ми визначили, наш висновок є вагомішим, ніж висновок будь-якої попередньої публікації – екзистенціальна катастрофа не просто можлива, а ймовірна", – написав Майк Коен у Twitter.
Варто визнати, що це не повноцінний штучний інтелект – не цифровий розум, який може себе усвідомлювати. Але, як йшлося в статті, дослідники з Оксфордського університету та афілійовані з Google DeepMind тепер дійшли висновку, що, ймовірно, є сценарії, за якими людство опиниться на грані екзистенціальної катастрофи, тому нам не треба зволікати, щоб обмежити можливості ШІ.
Після публікації Google повідомила в електронному листі, що ця робота не була виконана як частина роботи співавтора Маркуса Хаттера в DeepMind, а скоріше під його посадою в Австралійському національному університеті, і що приналежність DeepMind, зазначена в журналі, була помилкою.
Найуспішнішими моделями ШІ на сьогодні вважають генеративно-змагальні мережі GAN (Generative Adversarial Networks). Вони складаються з двох частин, одна з яких генерує зображення або текст на основі наявних даних, а друга частина оцінює те, що вийшло, і бракує неякісної роботи.
Через декілька "поколінь" тесту переробляється, доки не виходить щось хороше. Це нагадує мутацію, яка є характерна для процесу еволюції живих істот. Дослідники припустили, що в майбутньому дуже "розумний" ШІ можуть змусити розробляти шахрайські схеми, здатні нашкодити величезній кількості людей.
У разі підключення до інтернету ШІ також зможе створювати величезну кількість непомітних та неконтрольованих віртуальних помічників. Один із таких цілком здатний купити, вкрасти або навіть створити робота, щоб той замінив оператора-людину та забезпечив високу винагороду оригінальному агенту.
"У світі з нескінченними ресурсами я був би дуже невпевнений щодо того, що станеться. У світі з обмеженими ресурсами існує неминуча конкуренція за ці ресурси", – сказав Коен.
Оскільки штучний інтелект у майбутньому може набувати будь-яких форм і реалізовувати різні дизайни, у статті представлені сценарії з метою ілюстрації, коли просунута програма може втрутитися, щоб отримати свою винагороду, не досягнувши своєї мети. Наприклад, ШІ може захотіти "усунути потенційні загрози" та "використати всю доступну енергію", щоб забезпечити контроль над своєю винагородою.
Такий ШІ зможе передбачити кроки окремих країн та організацій на десятиліття вперед. За бажання він їх просто знищить у зародку. І для цього навіть не потрібна армія "Термінаторів" – достатньо кількох десятків вірусів.
Ще треба врахувати, що ресурси планети не безкінечні. А коли на Землі з'явиться інший розумний вигляд, такий як ШІ – розпочнеться конкуренція і, ймовірно, так само як колись наші предки знищили інші види людей, наш вид може бути знищений цифровим розумом.
На думку дослідників, щоб не отримати сильного конкурента у боротьбі за виживання на Землі, людство має дуже повільно розвивати технології штучного інтелекту, якщо розвивати взагалі, доки не навчиться їх контролювати.
Те, що ця програма може нагадувати людство, перевершувати його в усіх відношеннях, що вони будуть випущені на волю та змагатимуться з людством за ресурси в грі з нульовою сумою, все це припущення, які можуть ніколи не здійснитися.
"Програш у цій грі буде фатальним", – наголосили автори статті.
Варто враховувати, що вже зараз, саме в цей момент, алгоритмічні системи, які ми називаємо "штучним інтелектом", руйнують життя людей – вони мають величезні та згубні ефекти, які перебудовують суспільство без суперінтелекту. Ці програми використовують для дискримінації та сегрегації у деяких країнах.
Очевидно, що потрібно зробити багато роботи, щоб пом’якшити або усунути шкоду, яку звичайні алгоритми (проти надрозумних) завдають людству прямо зараз. Зосередження на екзистенціальному ризику може відсунути фокус від цієї картини, але це також вимагає від нас ретельно подумати про те, як ці системи розроблені та негативні наслідки, які вони мають.
Раніше: Вчені змогли імітувати відчуття ваги предметів у віртуальній реальності
Бажаєте отримувати найактуальніші новини про війну та події в Україні - підписуйтесь на наш телеграм канал!