OpenAI presenta GPT-4o
Un modelo de inteligencia artificial que combina audio, texto y video en tiempo real para una experiencia más natural.
OpenAI da un salto hacia la interacción persona-computadora natural con GPT-4o
El CEO de OpenAI, Sam Altman, anunció hoy el lanzamiento de GPT-4o, un nuevo hito en el desarrollo de la inteligencia artificial que promete transformar la forma en que interactuamos con las computadoras. Este modelo innovador se presenta como una herramienta poderosa para generar y analizar audio, texto y video en tiempo real, acercándose a la experiencia de los asistentes virtuales como Alexa o Siri, pero con capacidades superiores en cuanto a comprensión y respuesta.
Un modelo inteligente, rápido y multimodal
GPT-4o se caracteriza por su inteligencia, velocidad y multimodalidad. Su capacidad para procesar y generar información en tiempo real a través de diferentes formatos, como audio, texto y video, lo convierte en una herramienta versátil con un amplio abanico de aplicaciones potenciales.
Un paso hacia una interacción más natural
Según Altman, el objetivo principal de GPT-4o es dar un paso significativo hacia una interacción persona-computadora más natural. El modelo es capaz de interpretar cualquier combinación de texto, audio e imagen, y generar respuestas que combinan estos tres canales. Esto lo convierte en una herramienta ideal para el desarrollo de interfaces intuitivas y fáciles de usar, que permitan a los usuarios interactuar con las computadoras de manera más fluida y natural.
Superioridad en visión y comprensión de audio
OpenAI destaca la superioridad de GPT-4o en comparación con modelos existentes en el ámbito de la visión y la comprensión de audio. El modelo puede responder a entradas de audio en tan solo 232 milisegundos, con un promedio de 320 milisegundos, lo que se acerca al tiempo de respuesta humano en una conversación.