OpenAI готовит новую аудиомодель, которая появится в первом квартале 2026 года и призвана сделать голосовое взаимодействие более естественным. Ожидается, что он сможет вести диалог в реальном времени, реагировать на паузы и прерывания и звучать ближе к живой человеческой речи, чем существующие голосовые решения.
Эта разработка является частью стратегии OpenAI по созданию физического устройства, ориентированного на звук, а не на экран. Компания объединила несколько команд для улучшения аудиомоделей, поскольку они пока уступают текстовым моделям по точности и скорости. Новая модель должна стимулировать пользователей больше говорить с ИИ, а не только печатать запросы, что откроет применение в автомобилях и бытовых устройствах.
Предыдущие попытки массовых ИИ-гаджетов, таких как Humane AI Pin или кулон friend AI, не увенчались успехом из-за ограниченной функциональности, высокой цены или опасений по поводу конфиденциальности. В то же время конкуренты, такие как Google, Meta и Amazon, активно развивают голосовые технологии, в частности для изоляции голоса в шумных средах.
Аппаратное направление OpenAI курирует бывший главный дизайнер Apple Джонни Айв, чья компания io была приобретена OpenAI за $6,5 млрд. Он рассматривает аудиоустройства как способ уменьшить зависимость пользователей от экранов и переосмыслить подход к потребительской электронике. Возможный первый продукт на базе новой аудиомодели может выйти примерно через год.

