Connect with us

Hi, what are you looking for?

Brúxula News

Tecnología

Nano Banana y Sora 2: cuando la IA aprende a mirar

A la vanguardia de la IA generativa en cuanto a imágenes se refiere, Nano Banana y Sora 2 se colocan a la cima.

Las noticias en torno a la inteligencia artificial generativa (IAgen, aquella que genera contenidos de texto, fotos, audio y video) son incesantes y casi diarias. La competencia es feroz porque las principales empresas saben que acomodarse entre los primeros dos o tres puestos significa mucho dinero y un futuro reinado. Muy parecido a lo que pasó en la industria de las aplicaciones de películas y series, cuando tras el éxito de Netflix, el resto (Apple, Prime, HBO, Paramount, etc.) salió a pelear por colarse en el podio. Y rumbo al final del año, se cree que en el competitivo mundo de la IA generativa pasará algo similar: serán dos o tres las que dominen el mercado.

En este momento, la lucha es por dominar la edición de imágenes, tanto estáticas como las de video. El salto de calidad en ese terreno es impresionante respecto a las imágenes que se podían generar hace apenas un año. Hoy ya no es posible distinguir una imagen real de otra hecha con IA. Los principales modelos ya generan tipografías, rostros humanos, manos, fondos, y texturas con un nivel de realismo impactante.

Si el primer gran salto de la inteligencia artificial fue aprender a escribir, el segundo es aprender a mirar. En solo dos años pasamos de pedirle textos a pedirle imágenes y escenas completas. Sora y Nano Banana lo confirman: la IA ya no solo narra historias, ahora las filma, las ilumina y les pone música.

En septiembre hubo dos grandes saltos en este tema. Google presentó su nuevo modelo de imágenes, apodado Nano Banana, que forma parte del paquete de aplicaciones de IA de Gemini, su sistema multimodal. Por su parte, Sora 2 es la nueva versión del modelo de IA de OpenAI para generar videos realistas a partir de un prompt de texto. Representa una mejora significativa respecto a la primera versión de Sora, que apareció en febrero de 2024. La nueva versión incluye la capacidad de insertar la imagen y la voz de los propios usuarios en los videos generados (la función “Cameo”), junto con otras mejoras en calidad y realismo. Viene con sonido incorporado —diálogos, efectos de sonido y música— todo sincronizado con las imágenes. También mantiene la coherencia visual y de estilo a lo largo de secuencias de video más largas, lo que permite crear narrativas con varias tomas.

Otra importante novedad de OpenAI fue el lanzamiento de una aplicación social para que Sora 2 compita directamente con TikTok e Instagram. Los usuarios podrán crear, descubrir y compartir los videos generados con IA. Por el momento estará disponible solo para iOS y con acceso inicial mediante invitación.

Bananas y polaroids personalizadas

El apodo viene de una broma interna entre ingenieros de Google y foros de IA, aunque esconde una tecnología concreta: Gemini 2.5 Flash Image. El objetivo no es menor. Google busca liderar un sector lleno de otros modelos como DALL·E (de Copilot, dentro de ChatGPT de OpenAI), Freepik, MidJourney o Firefly de Adobe. Pero Nano Banana quiere tener un enfoque propio: alta velocidad, coherencia visual y una comprensión más profunda del contexto.

Funciona con instrucciones simples, en lenguaje natural. Con una sola línea de texto se puede borrar un objeto, cambiar el fondo, los colores, fusionar varias imágenes o aplicar estilos de un elemento a otro. Incluso permite generar fotos de celebridades en contextos ficticios, como Lionel Messi en medio de una carrera espacial o en un desierto, o una polaroid con Scarlett Johansson. La clave está en que no requiere herramientas complejas ni experiencia técnica: basta con escribir lo que se quiere hacer y listo; el modelo se encarga del resto. Y mantiene el mismo personaje con alta precisión en múltiples ediciones. Esto, hasta el momento, había sido imposible de lograr.

La herramienta, disponible en la app de Gemini y en su versión web, es de acceso gratuito pero limitado a una cierta cantidad de usos diarios. En las pruebas iniciales superó las 200 millones de imágenes generadas en pocos días, con más de 10 millones de usuarios activos. Google incorporó marcas de agua para avisar que cada imagen fue creada con IA, un punto clave en el contexto actual de verificación digital y derechos de autor.

Detrás de la tecnología de Nano Banana se encuentra el equipo de Google DeepMind, liderado por Eli Collins y Oriol Vinyals, quienes también forman parte del desarrollo central de Gemini. No es solo una herramienta creativa: representa un paso más hacia la integración total de la IA generativa en procesos cotidianos. Desde rediseñar ambientes hasta probar cortes de pelo, pasando por catálogos, ilustraciones y materiales de marketing, todo entra dentro del alcance de esta nueva función.

La promesa es clara: editar o crear imágenes debería ser tan simple como enviar un mensaje. Para usuarios comunes, eso reduce la curva de aprendizaje. Para empresas creativas como las de publicidad, habilita una nueva forma de producción visual, sin costos elevados ni tiempos de espera. Google no lo presenta como un reemplazo del popular Photoshop, sino como una alternativa accesible para tareas que antes requerían múltiples pasos, herramientas o personal técnico especializado.

De esta manera, el lanzamiento de Sora 2 y de Nano Banana reavivó el debate ético en torno a la IA y a la generación de deepfakes (noticias falsas). La facilidad para insertar a personas reales en videos con un alto nivel de realismo podría derivar en usos indebidos como la suplantación de identidad o la desinformación. También vuelve el tema de los derechos de autor: las preocupaciones pasan por el material protegido (personas famosas, franquicias, personajes, etc.) usado sin permiso para entrenar los modelos.

Pero Google va por todo para recuperar el terreno perdido en manos de ChatGPT, de OpenAI. Pronto Nano Banana se podrá usar directamente desde Google Photos, la app de almacenamiento que viene por defecto instalada en todos los celulares que funcionan con Android. Es decir, millones de personas cautivas usarán su IA para editar y jugar con las fotos que sacan a diario. Se espera que Meta haga lo propio con Instagram, pero hasta el momento viene rezagada.

La nueva guerra del entretenimiento no será por películas, series o memes, sino por quién logre traducir a imágenes reales lo que cada persona es capaz de imaginar.

Fuente:

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

TAMBIÉN TE PODRÍA INTERESAR...

Empresas

El paquete incluye Warner Bros. Pictures, Warner Bros. Television, el canal HBO y la plataforma de streaming HBO Max.

Entretenimiento

Películas, series, regresos y contenido festivo en las principales plataformas de streaming.

Entretenimiento

El DJ y productor neerlandés reflexiona sobre la evolución de su sonido, así como qué representa 'Piano' en esta nueva etapa de su carrera.

Entretenimiento

La exitosa serie de Netflix llega con su temporada final y se alargará del 27 de noviembre 2025 al 1 de enero de 2026.

Copyright © 2025 Brúxula News