5 cosas sobre el nuevo ChatGPT-4o que te volarán la cabeza

OpenAI lanzó esta semana un nuevo modelo de IA y una versión de escritorio de ChatGPT, junto con una interfaz de usuario actualizada, el último esfuerzo de la empresa para ampliar el uso de su popular chatbot. La actualización pone GPT-4 al alcance de todos, incluidos los usuarios gratuitos de OpenAI, según explicó Mira Murati, jefa de tecnología, en un evento retransmitido en directo. Añadió que el nuevo modelo, GPT-4o, es “mucho más rápido”, con capacidades mejoradas en texto, vídeo y audio. OpenAI dijo que planea permitir a los usuarios chatear por vídeo con ChatGPT. “Es la primera vez que damos un gran paso adelante en cuanto a facilidad de uso”, afirmó Murati.
Dado que la GPT-4 ya es la base de gran parte de la expectación en torno a la IA generativa, la 4o podría estar a punto de provocar una conmoción en todo el sector. Esto es todo lo que OpenAI ha revelado sobre la nueva tecnología de IA y por qué algunas de sus funciones podrían volarte la cabeza.
Más rápido y con más lenguajes
La o de GPT-4o significa omni. El nuevo modelo permite a ChatGPT manejar 50 idiomas diferentes con mayor velocidad y calidad, y también estará disponible a través de la API de OpenAI, lo que hará posible que los desarrolladores empiecen a crear aplicaciones con el nuevo modelo desde ya. Como si eso fuera poco, GPT-4o es el doble de rápido y puede funcionar como traductor, incluso en modo de audio, según la empresa, que demostró la capacidad de la herramienta para escuchar a Mira Murati hablar en italiano mientras otro desarrollador hablaba en inglés y traducir a sus respectivos idiomas mientras conversaban.
Interacción con vídeo e imágenes
Otras formas de interactuar con ChatGPT incluyen ahora vídeo, para que puedas compartir imágenes en directo de, por ejemplo, un problema de matemáticas en el que estés atascado y pedir ayuda para resolverlo. ChatGPT te dará la respuesta o te ayudará a resolverlo por tu cuenta. También puedes compartir capturas de pantalla, fotos y documentos con texto e imágenes, así como preguntar a ChatGPT sobre conversaciones anteriores, buscar información en tiempo real dentro de una conversación y realizar análisis avanzados de datos cargando gráficos o código antes de hacer preguntas.
Tiene un “detector de emociones”
Los miembros del equipo de OpenAI demostraron las capacidades de audio del nuevo modelo, por ejemplo, pidiéndole que ayude a calmar a alguien antes de un discurso público. Mark Chen, investigador de OpenAI, afirmó que el modelo es capaz de “percibir tus emociones”. La empresa tiene previsto probar el modo de voz en las próximas semanas, con acceso anticipado para los suscriptores de pago de ChatGPT Plus, según una entrada de blog. OpenAI también dijo que el nuevo modelo puede responder a las indicaciones de audio de los usuarios en tan sólo 232 milisegundos. La aplicación podrá actuar como un asistente de voz similar a la de la película Her, respondiendo en tiempo real y observando el mundo que te rodea.
Cuenta con aplicaciones nativas para Mac y Windows
Además de la versión web de ChatGPT, ahora existe una aplicación específica para Mac con atajos de teclado y soporte para capturas de pantalla, actualmente restringida a los suscriptores Plus. La aplicación para Windows estará disponible a finales de 2024. Después de todo, GPT es la base de Copilot, y es probable que Microsoft no quiera que su tecnología integrada en Windows se vea eclipsada.
Todo el mundo puede acceder gratis a GPT-4o
En cierto modo, este puede ser el mayor avance. Tradicionalmente, OpenAI ha restringido el acceso a las versiones más avanzadas de GPT, pero 4o es gratuito para todos los usuarios de ChatGPT desde el principio. Las principales limitaciones están en la conversación de voz en tiempo real (que se restringe a los suscriptores Plus, una vez que se ponga en marcha) y en el número de mensajes que se pueden utilizar. Los suscriptores de ChatGPT Plus y Team reciben cinco veces más mensajes, lo que es muy importante, ya que las conversaciones vuelven a GPT-3.5 cuando se alcanza el límite de mensajes.
Despues de leer, ¿qué te pareció?
-
1Me gustó
-
-
-
-
-
1Me confunde