ProIT: медіа для профі в IT
2 хв.

Річард Бренсон та онук Оппенгеймера закликають зупинити штучний інтелект і кліматичну катастрофу

author avatar ProIT NEWS

Десятки високопоставлених діячів у бізнесі та політиці закликають світових лідерів розглянути екзистенційні ризики штучного інтелекту та кліматичну кризу, повідомляє CNBC.

Засновник Virgin Group Річард Бренсон разом із колишнім Генеральним секретарем ООН Пан Гі Муном і Чарльзом Оппенгеймером (онуком американського фізика Дж. Роберта Оппенгеймера, творця атомної бомби) підписали відкритий лист із закликом до дій проти ескалації небезпек кліматичної кризи, пандемій, ядерної зброї та некерованого розвитку ШІ.

Підписанти просять світових лідерів прийняти довгострокову стратегію та рішуче вирішувати нерозв’язні проблеми, а не просто керувати ними, мати мудрість ухвалювати рішення, засновані на наукових доказах, і смирення, щоб вислухати всіх, кого це стосується.

«Наш світ у серйозній небезпеці. Ми стикаємося з низкою загроз, які піддають ризику все людство. Наші лідери не реагують із необхідною мудрістю та терміновістю», – йдеться в листі, який був опублікований у четвер і наданий світовим урядам.
«Вплив цих загроз уже помітний: клімат, що швидко змінюється, пандемія, яка вбила мільйони людей і коштувала трильйони, війни, у яких відкрито йшлося про використання ядерної зброї. Гірше може бути попереду. Деякі із цих загроз ставлять під загрозу саме існування життя на землі», – йдеться в листі.

Підписанти закликали до термінових багатосторонніх дій, у тому числі шляхом фінансування переходу від викопного палива, підписання справедливого договору про пандемію, перезапуску переговорів щодо ядерної зброї та побудови глобального управління, необхідного для того, щоб ШІ став силою добра, а не зла.

Лист був опублікований неурядовою організацією The Elders, яку заснували колишній президент Південної Африки Нельсон Мандела та Річард Бренсон для вирішення глобальних проблем прав людини та захисту миру у всьому світі.

Цей лист також підтримали у Future of Life Institute –  некомерційній організації, заснованій космологом Массачусетського технологічного інституту Максом Тегмарком і співзасновником Skype Яаном Таллінном. Організація прагне спрямовувати трансформаційні технології, такі як штучний інтелект, на користь і захищати від великомасштабних ризиків.

Тегмарк зазначив, що хоча сама по собі технологія ШІ не є злом, вона залишається інструментом, який може призвести до жахливих наслідків, якщо її залишити швидко розвиватися в руках неправомірних людей.

«Стара стратегія орієнтації на ефективне використання, коли йдеться про нові технології, завжди полягала в тому, щоб вчитися на помилках. Ми винайшли вогонь, потім винайшли вогнегасник. Ми винайшли автомобіль, потім вчилися на своїх помилках і винайшли ремінь безпеки, світлофор та обмеження швидкості. Але коли потужність технології переступає поріг, стратегія «навчання на помилках» стає жахливою», – сказав Тегмарк в інтерв’ю CNBC.

На його думку, людству потрібна техніка безпеки для нашого майбутнього із ядерною зброєю, синтетичною біологією й дедалі потужнішим ШІ.

Лист було опубліковано напередодні Мюнхенської конференції з безпеки, на якій урядовці, військові лідери та дипломати обговорюватимуть міжнародну безпеку на тлі ескалації глобальних збройних конфліктів, включаючи війну росії проти України та Ізраїлю й ХАМАС.

Минулого року Інститут майбутнього життя опублікував схожий відкритий лист, підтриманий провідними діячами, включно з Ілоном Маском та співзасновником Apple Стівом Возняком.

Вони закликали такі лабораторії штучного інтелекту, як OpenAI, призупинити роботу над навчанням моделей штучного інтелекту, які є потужнішими за GPT-4. Нагадаємо, що наразі це найдосконаліша модель штучного інтелекту від OpenAI Сема Альтмана.

Технологи закликали до такої паузи в розробці штучного інтелекту, щоб уникнути втрати контролю над цивілізацією, що може призвести до масового знищення робочих місць і заміни людей комп’ютерами.

Читайте також на ProIT: політика OpenAI більше не забороняє використання її технології для військових справ.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.