Inteligencia artificial: Google y Open AI le dan voz, ojos y oídos a sus nuevos modelos de IA
OpenAI y Google, presentaron esta semana sus últimos avances en sus modelos de Inteligencia Artificial, que permiten interactuar a través de imagen, audio y voz.
Autor:
Actualizada:
Compartir:
Esta semana, la empresa de Inteligencia Artificial (IA) OpenAI y Google, dos gigantes tecnológicas, presentaron a día seguido sus últimos avances en IA que incluyen funcionalidades que permiten interactuar a través de imagen, audio y voz.
ChatGPT-4o, lo nuevo de OpenAI
OpenAI lanzó ChatGPT-4o el 13 de mayo de 2024. El nuevo chatbot viene con cualidades muy parecidas a las de la coprotagonista de la película de Spike Jonze, Her.
Esta nueva versión, según sus fabricantes, mejora las capacidades de texto, visión y audio del chatbot y supone un gran paso adelante en su facilidad de uso.
La nueva actualización de ChatGPT propondrá muchas más posibilidades a sus usuarios de la versión gratuita. Desde traducción en tiempo real, interacción con humor y la capacidad de hacer de tutor para tareas matemáticas.
¿Y qué hay de Google?
El 14 de mayo, Google lanzó Gemini 1.5 Flash con la promesa de procesar dos horas de video, 22 horas de audio, 66.000 líneas de código o más de 1.4 millones de palabras, al mismo tiempo.
Pero Project Astra fue el que sorprendió al mostrarse como un nuevo asistente universal que promete ayudar en la vida diaria.
Con esta actualización, Google ofrecerá además respuestas redactadas por la inteligencia artificial (IA) generativa en su motor de búsqueda. Aunque de momento solo estará disponible para usuarios en Estados Unidos.
Compartir: