Google

Google busca exponer el arte hiperrealista generado por IA de manera responsable

En Google I/O 2023, el gigante tecnológico anunció varias mejoras nuevas en sus tecnologías de inteligencia artificial. Al mismo tiempo, se enfocó en el uso responsable de la IA, con formas fáciles de distinguir el arte generado por IA. Cada imagen que se genere artificialmente utilizando las herramientas de Google presentará una marca de agua grabada en profundidad junto con metadatos utilizados para identificar imágenes sintéticas. Esto se aplicará al chatbot de Google, Bard, Google Workspace y servicios como Adobe Firefly que utilizan la IA como base para la creación de imágenes.

Google
Google

La IA está mejorando las formas de simplificar nuestros flujos de trabajo y ayudarnos en nuestras actividades creativas. Google es una de las compañías líderes en esta reorganización digital y recientemente anunció varias mejoras que se avecinan para la aplicación Fotos, incluida una versión mejorada de Magic Eraser llamada Magic Editor, que puede formular artificialmente secciones que no se capturaron inicialmente en una foto. Además, las imágenes hiperrealistas generadas por IA tienen implicaciones éticas y pueden representar una amenaza sustancial.

En la conferencia de desarrolladores Google I/O 2023, la compañía enfatizó la importancia de separar los medios generados por IA de las fotos de objetos reales para evitar escenarios desafortunados como el uso indebido, la propagación de información errónea o el robo de identidad.

¿Puede Google combatir la IA sofisticada?

La exposición de imágenes generadas por IA plantea importantes preguntas éticas sobre la propiedad intelectual, la privacidad y la seguridad. La capacidad de la IA para producir imágenes hiperrealistas puede ser utilizada para crear contenido engañoso, lo que puede resultar en el uso no autorizado de imágenes que no existen en la realidad.

Google
Google

Google está tomando medidas para abordar estos problemas y asegurar que las imágenes generadas por IA se identifiquen claramente como tal. Su solución implica agregar marcas de agua a las imágenes generadas por IA, así como incorporar metadatos que indiquen que la imagen es artificial. Estos metadatos incluirán información como la configuración de la cámara y la ubicación de la imagen.

Google dice que está contribuyendo al uso seguro y responsable de la IA y garantizará que cada imagen generada con sus herramientas de IA tenga marcas de agua para ayudar a identificar fotos irreales. El CEO de Google, Sundar Pichai, dijo que la compañía está construyendo sus modelos de generación de imágenes de IA para incluir marcas de agua desde el principio. Sin elaborar en el enfoque, Pichai también dijo que las marcas de agua sobrevivirán a la «edición modesta».

Google
Google

Al mismo tiempo, los modelos de IA de Google incrustarán información sobre una imagen generada por IA en sus metadatos: datos incrustados en una imagen que contienen información como la configuración de la cámara, la ubicación, los perfiles de color, etc.

Aunque se pueden proyectar estos enfoques como efectivos, no hay garantía de que la marca de agua no pueda ser simplemente recortada de la imagen generada por IA. De manera similar, existen innumerables herramientas que eliminan los metadatos de los archivos de imagen, y el enfoque de Google puede no ser fructífero a menos que introduzca un nuevo tipo de metadatos que no se pueda eliminar.

Aún queda por verse qué tan efectivas son estas técnicas en la práctica, pero es bueno ver que las grandes empresas tecnológicas están provocando conversaciones sobre el uso seguro de la IA.

Es importante que sigamos debatiendo estos temas éticos a medida que la tecnología continúa avanzando y se implementan nuevas soluciones para abordarlos. La exposición de imágenes generadas por IA es solo un ejemplo de cómo la IA está cambiando nuestra relación con la información y la propiedad intelectual, y debemos estar preparados para abordar estos cambios a medida que surjan.