Las mejores funciones impulsadas por IA reveladas en Google I/O 2024

Gemini continúa evolucionando y expandiéndose en todo el ecosistema de Google, llegarán más funciones de IA a la Búsqueda y los usuarios pronto podrán crear sus propios modelos de IA personalizados.

Google continúa aprovechando su “Era Géminis”, a medida que los servicios impulsados ​​por IA se convierten en el tema del evento anual de E/S del gigante tecnológico.

El enfoque en la IA no es sorprendente, ya que Google ha hecho todo lo posible durante el último año y medio para alcanzar a Microsoft, su principal competidor, que ha obtenido una ventaja en IA gracias a su asociación con OpenAI. En el evento I/O del año pasado, Google «reimaginó» todos sus productos principales utilizando IA.

En la reciente conferencia de desarrolladores, se hicieron referencias a la IA en todo momento. Palabra clave Fue casi abrumador: casi se dijo la palabra IA 120 vecesSegún el propio Google.

«Con cada cambio de plataforma, hemos logrado avances para ayudar a responder mejor a sus preguntas», dijo el director ejecutivo de Google y Alphabet, Sundar Pichai, durante el evento. «La Búsqueda de Google es una IA productiva a la escala de la curiosidad humana. Es el capítulo más emocionante de nuestra investigación hasta el momento».

Echemos un vistazo a algunas de las actualizaciones más importantes que Google reveló durante el evento I/O.

Descripción general de la IA para la Búsqueda de Google

Uno de los anuncios más interesantes (y más rápidos) fue sobre una forma de simplificar y acelerar las búsquedas en línea utilizando inteligencia artificial. Con este fin, Google anunció el lanzamiento de AI Overviews, una función de los laboratorios de búsqueda experimentales de la compañía.

READ  iOFFICE: una encuesta encuentra que la experiencia de los empleados impulsa la inversión en TI

Esta función genera una respuesta impulsada por IA a la consulta de búsqueda de un usuario, con resúmenes, sugerencias y enlaces generados a los sitios indicados. Google planea llevar esta función a “Todos en los EE. UU.” esta semana y expandirla a más países con el tiempo. El objetivo es que la función esté disponible para más de mil millones de personas para finales de 2024, según Liz Read, vicepresidenta y directora de búsqueda de Google.

«Con AI Overviews, las personas visitan una gama más amplia de sitios web en busca de ayuda con preguntas más complejas», dijo Reid. “Vemos que los enlaces integrados en las descripciones generales de IA obtienen más clics que si la página apareciera como un menú web tradicional para esa consulta.

«A medida que ampliemos esta experiencia, continuaremos enfocándonos en enviar tráfico valioso a editores y creadores».

La era Géminis se está extendiendo

Gemini es el modelo insignia de IA de Google, un desarrollo de Bard que tiene como objetivo desafiar OpenAI y las creaciones GPT de vanguardia.

En su evento I/O, Google anunció una serie de actualizaciones para llevar los modelos Gemini a más usuarios. Gemini 1.5 Flash y 1.5 Pro ahora están disponibles para vista previa pública para usuarios en más de 200 países y regiones, dijo la compañía.

Gemini 1.5 Pro es el «modelo de gama alta» de la compañía disponible para los suscriptores de Gemini Advanced. La compañía afirma que este modelo contiene una serie de avances técnicos, incluida una ventana de contexto significativamente ampliada a partir de 1 millón de tokens.

Sissie Hsiao, vicepresidenta y directora general de experiencias de Gemini y Google Assistant de Google, afirmó que esta ventana contextual es «la más larga de cualquier chatbot para consumidores ampliamente disponible en el mundo».

READ  Se dice que Google Books indexa malas obras escritas con inteligencia artificial

«Esta larga ventana de contexto significa que Gemini Advanced puede comprender muchos documentos grandes, hasta 1500 páginas en total, o resumir 100 correos electrónicos», dijo Hsiao. «Pronto podrá manejar una hora de contenido de vídeo o bases de código que contengan más de 30.000 líneas».

Google también reveló que Gemini se está actualizando en dispositivos móviles, ya que Gemini en Android Studio admitirá “entrada multimedia” a finales de este año con Gemini 1.5 Pro. Gemini Nano, el modelo de la compañía para ejecutar tareas de manera eficiente directamente en dispositivos móviles, también se ampliará a más dispositivos a finales de este año.

Chatbots personalizados Géminis

Los casos de uso de los modelos de IA son enormes, por lo que Google permite a algunos usuarios crear sus propias versiones personalizadas de Gemini.

Los suscriptores de Gemini Advanced pronto podrán crear Gems: chatbots personalizados diseñados para propósitos específicos, como asistente de gimnasio, socio de programación, guía de escritura creativa y más.

Google también dijo que estas gemas se pueden crear rápidamente con simples indicaciones de texto, lo que permite a los usuarios describir simplemente cómo quieren que sea su Gemini personalizado antes de que el modelo cree un bot personalizado basado en esas instrucciones.

Un lote de prueba para desarrolladores de IA

Google también lanzó un marco de código abierto más detallado para desarrolladores que buscan construir sus propios modelos de IA.

Este marco experimental se llama Firebase Genkit y está diseñado para desarrolladores de JavaScript y TypeScript. Google dijo que este grupo ayudará a los desarrolladores a integrar funciones impulsadas por IA en sus aplicaciones nuevas o existentes.

READ  Google Pixel 6 no se carga tan rápido como cabría esperar

«Genkit le permite integrar varias fuentes de datos, modelos, servicios en la nube, agentes y más con el enfoque centrado en código que ya conoce», dijo Google en una publicación del blog de Firebase.

Un impulso hacia la música con IA

Google también está incursionando en el campo de la música generada por IA, según una publicación de Google DeepMind.

DeepMind dijo que está trabajando con YouTube para crear Music AI Sandbox, un «conjunto de herramientas de inteligencia artificial para transformar la forma en que se crea la música».

«Para ayudarnos a diseñarlo y probarlo, hemos estado trabajando estrechamente con músicos, compositores y productores», dijo DeepMind. «Estas herramientas permiten a los usuarios crear nuevas secciones de música desde cero, mover estilos entre pistas y mucho más».

YouTube ha compartido una pequeña colección de demostraciones musicales creadas con AI Sandbox para mostrar sus capacidades. Pero la música generada por IA ha sido criticada por algunos artistas que trabajan en la industria.

Descubra cómo las tendencias tecnológicas emergentes del mañana lo transformarán con nuestro nuevo podcast, Future Human: The Series. Escucha ahora Spotifyen manzana O dondequiera que consigas tus podcasts.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *