Resumo
- OpenAI está reorganizando equipes para desenvolver um dispositivo de áudio, previsto para lançamento em um ano.
- Segundo o The Information, a empresa planeja criar um modelo de áudio mais natural, com capacidade de lidar com interrupções nas conversas.
- Jony Ive, ex-chefe de design da Apple, estaria colaborando ativamente no desenvolvimento do produto.
A OpenAI está reorganizando internamente suas equipes para apostar de forma mais agressiva em inteligência artificial voltada ao áudio. As informações são do site The Information, que afirma que a empresa unificou, nos últimos meses, times de engenharia, produto e pesquisa com o objetivo de reformular seus modelos de voz e viabilizar o lançamento de um dispositivo pessoal com foco quase total em interação sonora.
Os rumores sobre o produto circulam desde setembro. Ao que tudo indica, a iniciativa iria além de tornar o ChatGPT mais “falante”: a OpenAI pode se posicionar em um cenário no qual telas deixam de ser o centro da experiência digital, dando espaço a interfaces baseadas em conversas, comandos de voz e escuta contínua.
O novo dispositivo, ainda sem nome ou formato confirmados, estaria previsto para chegar ao mercado em aproximadamente um ano.
Mais voz, menos texto
A aposta da OpenAI acompanha um movimento mais amplo do setor de tecnologia. Assistentes por voz fazem parte da rotina de milhões de casas, e a Amazon Alexa já é extremamente popular.
Outras empresas exploram novas formas de interação auditiva. A Meta, por exemplo, passou a usar múltiplos microfones em seus óculos inteligentes Ray-Ban para facilitar a compreensão de conversas em ambientes barulhentos.
Como lembra o TechCrunch, o Google também vem testando resumos em áudio nos resultados de busca, transformando textos em explicações faladas. Até a Tesla anunciou a integração do chatbot Grok, da xAI, para permitir comandos conversacionais dentro dos carros. Esse avanço impulsionou startups a tentarem dispositivos sem tela.
O que a OpenAI quer fazer diferente?

Apesar dos tropeços de concorrentes, a OpenAI parece confiar na abordagem. De acordo com o The Information, a empresa trabalha em um novo modelo de áudio previsto para 2026, com fala mais natural e capacidade de lidar com interrupções — algo mais próximo de uma conversa humana real. A ideia seria permitir que o sistema possa “falar por cima”, em momentos específicos, sem quebrar o fluxo do diálogo.
Ainda de acordo com o site, a companhia avalia desenvolver uma família de dispositivos, que pode incluir desde caixas inteligentes sem tela até óculos conectados. Esses aparelhos podem funcionar menos como ferramentas pontuais e mais como companheiros digitais sempre disponíveis.
Parte dessa visão é atribuída à influência de Jony Ive, ex-chefe de design da Apple, que passou a colaborar com a OpenAI após a aquisição de sua empresa, a Io. Para ele, o design centrado em áudio pode ajudar a “corrigir erros” de gadgets anteriores, reduzindo a dependência de telas e notificações constantes.
OpenAI reorganizou equipe para lançar novo produto de áudio, diz site
