Чому ажіотаж навколо штучного інтелекту скоріше шкодить, аніж допомагає
3 хв.

Чому ажіотаж навколо штучного інтелекту скоріше шкодить, аніж допомагає

author avatar ProIT NEWS

Обіцянки мільярдерів щодо утопічного майбутнього штучного інтелекту не допомагають вирішити серйозні проблеми сучасних генеративних моделей ШІ. А іноді ажіотаж щодо ШІ може бути настільки безглуздим, що відволікає нас від важливої роботи щодо забезпечення його функціонування, стверджує InfoWorld.

Наприклад, ви можете прочитати прохання Білла Гейтса до штучного інтелекту і повірити, що протягом наступних 5 років «ви просто скажете своєму пристрою, звичайною мовою, що ви хочете зробити». Звичайно! І, можливо, ви віддасте ці команди, сидячи в одному з повністю автономних безпілотних автомобілів Ілона Маска, які він обіцяв створити ще 10 років тому.

Поспішаючи розголошувати майбутнє штучного інтелекту, ми ризикуємо встановити нереалістичні очікування. А це може мати стримувальний вплив на інвестиції, особливо у сфері безпеки. Навіть якщо ми досягнемо утопії Білла Гейтса, це буде більше схоже на антиутопію, якщо ми не зможемо виправити такі речі, як швидке впровадження для великих мовних моделей (LLM).

Зокрема, Білл Гейтс прогнозує, що отримавши дозвіл стежити за вашими онлайн-взаємодіями та реальними місцями, ШІ розвине глибоке розуміння людей, місць і діяльності, якою ви займаєтеся. Це приблизно так, як сьогодні працює онлайн-реклама.

Це підводить нас до Маска та його наполегливих прогнозів щодо безпілотних автомобілів. Легко передбачити райдужне майбутнє, але набагато важче його реалізувати.

Гейтс може стверджувати, що «ШІ-агенти зможуть допомогти практично з будь-якою діяльністю та будь-якою сферою життя» протягом 5 років. Але будь-хто, хто справді використовував такі інструменти штучного інтелекту, як Midjourney, для редагування зображень знає: результати, як правило, дуже погані. І не тільки з точки зору якості, а й через упередженість щодо певних рас.

Але навіть якщо ми чарівним чином змусимо штучний інтелект робити все те, що, за словами Гейтса, він зможе зробити за 5 коротких років. Навіть якщо ми вирішимо проблему з його упередженістю, нам все одно доведеться подолати серйозні перешкоди безпеки.

«Ключ до розуміння реальної загрози швидкого впровадження полягає в тому, щоб розуміти, що моделі штучного інтелекту надзвичайно легковірні за своєю конструкцією», – зазначив Саймон Віллісон.

Він є одним із найбільш досвідчених і завзятих прихильників потенціалу штучного інтелекту для розробки програмного забезпечення (і загального використання), але наполягає на тому, що його потрібно покращити:

«Я не знаю, як створити його безпечно! І ці діри не є гіпотетичними».

Проблема в тому, що LLM вірять у все, що читають. За задумом вони завантажують вміст і відповідають на підказки. Вони не знають, як відрізнити хорошу підказку від поганої. Вони довірливі.

Як каже Віллісон, «ці моделі повірять у все, що їм хтось скаже. У них немає хорошого механізму розгляду джерела інформації». Це добре, якщо все, що ви робите, це просите LLM написати курсову роботу (це має етичні наслідки, але не наслідки для безпеки). Проте що станеться, коли ви почнете передавати конфіденційну корпоративну чи особисту інформацію ШІ?

Віллісон каже, що «якщо ваш приватний LLM має можливість виконувати дії від вашого імені, ці зловмисники також можуть виконувати дії від вашого імені». Оперативне впровадження – це «спосіб для зловмисників впровадити власні інструкції в LLM, змусивши LLM подумати, що ці інструкції надійшли від його власника».

Усе, що може зробити з ШІ власник, можуть зробити і зловмисники. Це виводить фішинг і хакерське програмне забезпечення на абсолютно новий рівень. Як описано на Radical Briefing:

«Це ніби ми закодували цифрову скриньку Пандори – надзвичайно блискуче, але достатньо довірливо, щоб почався хаос, якщо отримати неправильні інструкції».

Проте, незважаючи на те, що проблеми є складними, вони не є нерозв’язними. У якийсь момент ми з’ясуємо, як «навчити штучний інтелект розкривати конфіденційні дані лише за допомогою певної «автентифікації».

Ми роками неправильно розуміли ШІ, рекламуючи кінець радіологів, розробників програмного забезпечення тощо.

«ChatGPT може масштабуватися аж до Термінатора за 5 років або за 5 десятиліть, а може й ні. … Ми не знаємо», – стверджується у статті.

Що ми знаємо, так це те, що без додаткових інвестицій у безпеку штучного інтелекту навіть найгарячіша реклама ШІ закінчиться фіаско.

Раніше ProIT повідомляв, як ШI може вивести iOS 18 і macOS 15 на новий рівень.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодну публікацію!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.