Я знаю Siri , голосового помічника Apple, майже десяток років, але все ще не можу пригадати жодної значущої розмови з нами. І навпаки, ми з ChatGPT знайомі шість місяців, але ми говорили про все: від сенсу життя до планування романтичної вечері на двох і навіть співпрацювали над програмуванням і кінопроектами . Я маю на увазі, у нас є стосунки.
Обмеження Siri означають, що вона все ще не може вести розмову або брати участь у тривалих, орієнтованих на проект, вперед і назад. Добре чи погано, але Siri, яку ми використовуємо сьогодні на наших iPhone , iPad , MacBook , Apple Watch і Apple TV , мало чим відрізняється від тієї, яку ми вперше зустріли в 2011 році на iPhone 4s .
Шість років тому я писав про першу пересадку мозку Siri(відкривається в новій вкладці), момент, коли Apple почала використовувати машинне навчання для навчання Siri та покращення її здатності відповідати на розмовні запити. Поява машинного навчання та, незабаром після цього, вбудованої нейронної мережі у вигляді чіпа A11 Bionic від Apple на iPhone 8 , ознаменували те, що, на мою думку, було поворотним моментом для, можливо, першого цифрового помічника споживчого рівня.
Неможливість повноцінно спілкуватися з Siri не здавалося великою проблемою, хоча ми вже бачили фільм « Вона» і розуміли, чого зрештою можна очікувати від наших чат-ботів.
Але лише після того, як це колись далеке майбутнє було перенесено в сьогодення за допомогою OpenAI GPT-3 і ChatGPT , дефіцити Siri були скинуті на другий план.
Незважаючи на всі зусилля Apple, Siri простоювала в режимі навчання. Можливо, це тому, що Siri досі в основному побудовано на машинному навчанні, а не на Generative AI. Це різниця між навчанням і створенням.
Усі генеративні чат-боти штучного інтелекту та інструменти для зображень, які ми використовуємо сьогодні, створюють щось абсолютно нове з підказок, а незабаром і мистецтва та зображень. Вони не боти-відповідачі, вони боти-будівельники.
Я сумніваюся, що щось із цього втрачено Apple. Питання в тому, що Apple буде і може зробити з цим? Я думаю, що нам не буде чого шукати далі, окрім майбутньої Всесвітньої конференції розробників (WWDC 2023). Ми всі зосереджені на можливій гарнітурі змішаної реальності вартістю 3000 доларів, яку Apple може продемонструвати в червні, але найважливіші оголошення компанії, безсумнівно, стосуватимуться ШІ.
«Apple, мабуть, перебуває під неймовірним тиском тепер, коли Google і Microsoft випустили свої рішення на природній мові», — генеральний директор і головний аналітик Moor Insights Патрік Мурхед .(відкривається в новій вкладці)сказав мені через Twitter DM.
Як повідомлялося в 9to5Mac , Apple, можливо, вже нарешті працює над власним оновленням генерації мови для Siri (Bobcat). Зауважте, що це не те саме, що «генеративний ШІ». Я думаю, що це означає, що Siri стане трохи краще в випадкових жартів. Я також не очікую набагато більше, ніж це.
На жаль, власний дух Apple може перешкодити їй наздогнати GPT-4 , не кажучи вже про GPT-3. Спостерігачі за галуззю точно не очікують моменту прориву.
«Я справді думаю, що те, що вони роблять у сфері штучного інтелекту, не обов’язково буде таким стрибком, як прорахований і більш етичний підхід до штучного інтелекту в Siri. Apple любить, живе та вмирає відповідно до своїх зобов’язань щодо конфіденційності, і я очікую не менше від того, як вони це роблять. Siri, що більше керується штучним інтелектом", - генеральний директор Creative Strategies і головний аналітик Тім Баджарін(відкривається в новій вкладці)написав мені в електронному листі.
Неухильне дотримання компанією Apple конфіденційності користувачів може скрутити її, коли справа доходить до справжнього генеративного ШІ. На відміну від Google і Microsoft Bing, він не має великого сховища даних, керованого пошуковою системою, на яке можна було б спиратися. Він також не навчає свій ШІ на величезному океані Інтернет-даних. Apple виконує машинне навчання на пристрої. iPhone і Siri знають, що вони знають про вас, виходячи з того, що є на вашому телефоні, а не з того, що Apple може дізнатися про вас і своїх 1,5 мільярдів користувачів iPhone у всьому світі. Звичайно, розробники можуть використовувати інструменти ML від Apple для створення та інтеграції нових моделей штучного інтелекту у свої програми, але вони не можуть просто збирати ваші дані, щоб дізнатися більше про вас, щоб допомогти Apple створити кращий штучний інтелект Siri.
Як я писав у 2016 році: «Також цікаво подумати про те, як Apple навмисно перешкоджає власним зусиллям штучного інтелекту. Наприклад, ваші дані про купівельні звички в iTunes не передаються жодній з інших систем і служб Apple».
Локальний підхід Apple може завадити їй у її можливих зусиллях щодо генерації ШІ. Як сказав мені Мурхед: «Я бачу більшість дій на пристрої та в хмарі. Apple сильна на пристрої, але слабка в хмарі, і я думаю, що тут компанія матиме труднощі».
Як я бачу, у Apple є вибір. Поступіться трохи конфіденційності користувача, щоб нарешті перетворити Siri на голосового помічника, якого ми завжди хотіли, або продовжуйте курс із поступовими оновленнями штучного інтелекту, які покращують Siri, але не дозволяють їй конкурувати з ChatGPT.