Согласно Financial Times, Meta планирует представить улучшенные голосовые функции в своей следующей флагманской крупной языковой модели Llama 4, запуск которой ожидается через несколько недель. Разработчики уделили особое внимание возможности прерывать и прерывать модель в процессе диалога, аналогично голосовому режиму OpenAI для ChatGPT и опыту Gemini live от Google.
На этой неделе директор по продуктам Meta Крис Кокс (Крис Кокс) сообщил, что Llama 4 будет «всеобъемлющей» моделью, способной нативно интерпретировать и выводить язык, а также текст и другие типы данных.
Успех открытых моделей китайской лаборатории искусственного интеллекта DeepSeek, которые продемонстрировали впечатляющие результаты, заставил разработчиков Llama значительно ускориться. По слухам, Meta даже организовала операционные центры, чтобы попытаться выяснить, как DeepSeek удалось радикально снизить стоимость обучения, запуска и развертывания моделей ИИ.