OpenAI anunció GPT-4o, un modelo más rápido y gratuito para todos los usuarios

Es capaz de comprender interacciones de texto, audio o imagen, además de generar resultados en texto, audio e imagen

Artículo publicado en ITForum.com.br.

OpenAI anunció ayer una nueva versión del modelo GPT-4, el GPT-4o. El nuevo modelo es considerado por OpenAI como un nuevo paso hacia una comunicación más natural entre humanos y computadoras, es más rápido que el modelo anterior y estará disponible de forma gratuita para todos los usuarios de ChatGPT.

El modelo también es capaz de comprender interacciones de texto, audio o imagen, además de generar resultados en texto, audio e imagen, o cualquier combinación de ellos.

Sam Altman, CEO de OpenAI, clasificó al nuevo modelo como "nativamente multimodal".

ChatGPT

OpenAI afirma que las capacidades del GPT-4o se introducirán gradualmente. A partir de hoy, las interacciones de texto e imagen ya estarán disponibles. El nuevo GPT estará disponible de forma gratuita, y los usuarios de GPT Plus tendrán un límite de mensajes cinco veces mayor.

Uno de los aspectos destacados del GPT-4o es su capacidad de interacción por voz. En la práctica, el modelo es capaz de interactuar con una persona como si fuera un asistente virtual, en una conversación real utilizando lenguaje natural.

Según la compañía, el GPT-4o es capaz de responder a entradas de audio en tan solo 232 milisegundos, con un promedio de 320 milisegundos, lo que es similar al tiempo de respuesta humano en una conversación. La nueva versión del modo de voz con el GPT-4o se lanzará en fase alfa dentro de ChatGPT Plus en las próximas semanas.

Para los desarrolladores, el GPT-4o estará disponible como una API "pronto". OpenAI afirma que el GPT-4o es dos veces más rápido y cuesta la mitad que el GPT-4 Turbo.