Названы секретные планы Apple по внедрению искусственного интеллекта в ваш iPhone

После гала- концерта с участием искусственного интеллекта, которым стали телефоны Samsung серии Galaxy S24, Apple может стать следующей, кто воспользуется магией глубокого обучения и больших языковых моделей (LLM), которыми оснащены такие инструменты, как ChatGPT и Google Bard. Согласно отраслевому аналитическому отчету Financial Times, Apple находится в горячей полосе приобретений, реорганизации команд и найме новых сотрудников для развития возможностей ИИ для iPhone.

В центре этих приобретений в области ИИ может оказаться Siri, виртуальный помощник на устройстве , который в последнее время сильно проигрывает в конкурентной борьбе заметно умнее Google Assistant. И похоже, что Apple пойдет по тем же стопам Google, чтобы усовершенствовать своего цифрового помощника.

Google уже внедрила генеративный искусственный интеллект Bard в Google Assistant, и вскоре обновленный интерфейс будет доступен как Android, так и iOS-устройствам. Так что именно изменит Bard в Google Assistant?

Google Assistant предполагает путь Siri?

Благодаря мультимодальным возможностям базовой языковой модели PaLM-2 Assistant with Bard вскоре будет принимать текстовые, аудио- и мультимедийные данные . Считайте, что это ожившая мультипоисковая функция благодаря Google Lens, которая также стала частью функции Circle to Search, которая появилась в телефонах серий Pixel 8 и Galaxy S24.

Кроме того, Assistant with Bard будет интегрировано в такие популярные сервисы Google как Gmail и Docs. Обновленный помощник будет постоянно следить за содержимым экрана и выполнять задания с учетом контекста, например, писать соответствующий пост в социальных сетях на основе фотографии, которая сейчас находится на экране.

В отчете Financial Times также упоминается, что Siri в скором времени будет работать на базе LLM, который будет разработан собственными силами Apple, а не на основе лицензионных продуктов, таких как Meta’s Llama, OpenAI’s GPT или Google’s PaLM. Интересно, что ранее в этом году Apple уже выпустила большую языковую модель под названием Ferret в сотрудничестве с экспертами Колумбийского университета.

ШИ на устройстве – это особенность нынешнего сезона ШИ

Еще одним направлением Apple, похоже, является выполнение задач на основе LLM с использованием технологии «на устройстве», подобно Pixel 8 Pro и Galaxy S24 с моделью Gemini Nano от Google. Преимущество такого подхода заключается в том, что операции ИИ больше не нуждаются в подключении к Интернету для связи с облаком, что значительно ускоряет их выполнение, а также обеспечивает дополнительную конфиденциальность, поскольку пользовательские данные никогда не покидают устройство.

В прошлом году в отчете Bloomberg говорилось, что Apple работает над чем-то под названием Apple GPT, основанным на собственной языковой модели компании, но это ограничивалось внутренним тестированием. Усилия Apple в области ИИ могут принести плоды в 2024 году. В другом отчете того же издания отмечается, что аватар Siri с помощью ИИ может появиться уже в этом году, скорее всего, с выходом iOS 18. намерена внедрить генеративный ИИ в другие программы, такие как «Сообщения». Samsung и Google уже дали нам представление о том, как это может быть реализовано благодаря таким замечательным функциям, как Magic Compose, предложения по стилю, автономный перевод в реальном времени для чатов и многое другое.

Пока Apple не раскрывает, когда и как именно она собирается внедрять искусственный интеллект в свои продукты – особенно в iPhone. Но если конкуренция сказывается, будет не удивительно увидеть, как Apple даст нам представление на своей следующей конференции разработчиков WWDC в конце этого года.

Интересно, что Apple говорила в блестящих высказываниях об искусственном интеллекте своих последних кремния, в в том числе A17 Pro питание iPhone 15 Pro дуэт. Apple просто может заложить основы искусственного интеллекта на устройстве и более умной Siri – наконец – начиная со своих флагманских телефонов текущего поколения.