ProIT: медіа для профі в IT
Приблизно хвилину

Apple хоче використовувати новини для навчання своїх моделей ШІ

author avatar ProIT NEWS

Apple намагається наздогнати інші технологічні компанії, які конкурують у сфері штучного інтелекту. Щоб навчити моделі, потрібна величезна кількість даних. Як повідомляє The New York Times, Apple хоче отримати ці дані від новинних компаній.

Посилаючись на чотирьох осіб, знайомих з обговореннями, видання повідомляє, що останніми тижнями Apple вела переговори з великими новинними та видавничими організаціями про використання їхніх матеріалів для розробки генеративних систем ШІ.

Як повідомляється, виробник iPhone запропонував багаторічні угоди на суму щонайменше $50 мільйонів на ліцензування архівів новинних статей. Серед видань, із якими зв’язувалися представники компанії, Condé Nast, видавець Vogue і The New Yorker, NBC News, AC, якій належать People, The Daily Beast і Better Homes and Gardens.

У статті стверджується, що низка керівників, які працюють у видавництвах, були стурбовані «надто великими» умовами Apple. Крім того, технічний гігант не конкретизує, як він збирається застосувати генеративний ШІ в індустрії новин. Apple не хоче брати інформацію з Інтернету через повагу до конфіденційності.

Це контрастує з іншими компаніями, які використовують дані з Інтернету для навчання своїх великих мовних моделей. За деякою інформацією, ці технічні гіганти незаконно використовували дані, захищені авторським правом, для навчання своїх моделей штучного інтелекту, і в результаті вони стикаються з різними позовами щодо порушення авторських прав. Apple ж натомість дотримується обережного підходу.

Інсайдери стверджують, що налаштовані оптимістично. Скоріш за все, компанія таки укладе угоду з цими видавцями новин.

Раніше ProIT повідомляв, що Apple нарощує виробництво Vision Pro, продажі можуть розпочатися вже у лютому.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.