Leia mais:
O que você precisa saber sobre o GPT-4o
O GPT-4o é “um passo em direção a uma interação humano-computador muito mais natural – ele aceita como entrada qualquer combinação de texto, áudio e imagem e gera qualquer combinação de saídas de texto, áudio e imagem“, diz o anúncio oficial na página da empresa.
- O CEO da OpenAI, Sam Altman, disse no x que o modelo é “nativamente multimodal”, o que significa que pode gerar conteúdo ou compreender comandos em voz, texto ou imagens.
- “É nosso melhor modelo de todos os tempos. É inteligente, rápido e nativamente multimodal“, diz a postagem do executivo.
- Ele pode responder a entradas de áudio em apenas 232 milissegundos, o que é semelhante ao tempo de resposta humano em uma conversa.
- Também foram implementadas melhorias significativas em texto “em idiomas diferentes do inglês“.
- O GPT-4o também é melhor na compreensão de imagem e áudio em comparação com outros modelos existentes.
- Desenvolvedores poderão usar a API do GPT-4o, que custa metade do preço e é duas vezes mais rápida que o GPT-4-turbo, acrescentou Altman.
our new model: GPT-4o, is our best model ever. it is smart, it is fast,it is natively multimodal (!), and…
— Sam Altman (@sama) May 13, 2024
A nova versão do GTP-4 será gratuita para todos os usuários do ChatGPT. Recursos de texto e imagem do GPT-4o começam a ser implementados ainda hoje no chatbot. Para usuários pagos Plus, os limites de mensagens serão até 5x maiores.
Antes do lançamento, rumores apontavam que OpenAI poderia revelar um mecanismo de busca com inteligência artificial para rivalizar com o Google, um assistente de voz integrado ao GPT-4, ou um modelo totalmente novo e aprimorado, o GPT-5. O que acabou não acontecendo.
De qualquer maneira, vale mencionar que a novidade chega apenas um dia antes do Google I/O, a principal conferência da gigante da tecnologia, em que também veremos o lançamento de vários produtos relacionados à IA.