OPINIÓN

La realidad alterna que está creando la Inteligencia Artificial

15 nov 2023 | Guillermo Pérezbolde

Como salido de la mejor novela de ciencia ficción, hoy la Inteligencia Artificial está creando una realidad paralela y sin saberlo estamos empezando a ser parte de ella.

El Auge de la IA en la Generación de Imágenes

El realismo alcanzado por las imágenes generadas por IA es asombroso. Estas tecnologías se han vuelto herramientas muy valiosas en varias áreas, desde el diseño gráfico y la publicidad hasta la producción de medios y el entretenimiento. Las ventajas son innegables y han estado a la vista desde un inicio: reducción de costos y tiempo en la producción de contenido visual, personalización a gran escala y la posibilidad de crear imágenes que serían imposibles o muy costosas de producir de otra manera. En mi caso, en la agencia hemos logrado bajar costos de producción y cada día utilizamos menos imágenes de stock, sin sacrificar calidad.

Actualmente hay más de 120 herramientas diferentes para generación de imágenes con IA, las más famosas son Midjourney, firefly, Stable Diffusion y Dalle-3, las cuales tienen grandes posibilidades para generación de imágenes con todo el detalle deseado. Estas plataformas premiten generar contenido de casi cualquier tipo; algo que la mayoría de los usuarios nunca llegan a notar es la restricción en cuanto al tipo de imágenes y acabados que se pueden hacer, pensando en respetar la privacidad y/o los derechos de autor.

Por ejemplo, si tratamos de crear imágenes de un celebridad en Dalle-3, nos arrojará un mensaje con una advertencia sobre la restricción para generar contenido usando la imagen de alguien más. Esta restricción sirve para que el usuario promedio no haga imágenes que puedan ser usadas como “Fake News”, pero los usuarios avanzados pueden saltar esas restricciones y crear el tipo de imágenes y vides que quieran.

 

Riesgos en la generación de imágenes con IA

El uso de IA para crear imágenes o videos, presenta riesgos significativos, especialmente para celebridades y figuras públicas. La creación de imágenes falsas pero realistas puede provocar la difusión de noticias tendenciosas que pueden dañar la reputación y manipular la opinión pública. Las figuras públicas, constantemente bajo el escrutinio de los medios y el público, son particularmente vulnerables a estos ataques.

Algunas personas piensan que una vez que se aclara que las imágenes son falsas, se termina el problema; en realidad el daño a la reputación ya está hecho, porque la viralidad en torno a un escándalo por lo general es mayor que la aclaración de lo ocurrido.

Los medios de comunicación ya enfrentan el reto de los “deepfakes informativos”, donde videos e imágenes editadas pretenden mostrar eventos que no ocurrieron. Con la IA, ni siquiera se requiere editar material existente, sino que se puede fabricar evidencia visual de cero con la misma calidad y simulando como si hubiera sido captado en el lugar de los hechos. Esto abre la puerta a campañas de desinformación a gran escala que serían indistinguibles de la realidad para el ojo humano.

Uno de los usos más controversiales es la generación de contenido sexual explícito no consensuado, conocido como “deepfakes pornográficos”. Estas imágenes y videos hiperrealistas colocan el rostro de una persona en el cuerpo de un actor o actriz pornográfico sin su consentimiento. Esta práctica, además de ser extremadamente dañina para la víctima, es ilegal en muchos países.

Desde una perspectiva legal y de reputación, las imágenes generadas por IA pueden ser utilizadas para crear escenarios falsos que parezcan reales. Esto puede llevar a acusaciones infundadas, difamación y otros daños a la reputación que son difíciles de desmentir debido al realismo de las imágenes. A nivel legal, la dificultad para distinguir entre una imagen real y una generada por IA plantea preguntas sobre la autenticidad y la veracidad, aspectos fundamentales en el derecho y la justicia.

 

La trazabilidad como posible solución al deepfake

La trazabilidad en las imágenes es un concepto crucial en la era de la generación digital de imágenes con IA, especialmente en el contexto de combatir la propagación de imágenes falsas o manipuladas. La trazabilidad se refiere a la capacidad de rastrear el origen y la historia de una imagen, desde su creación hasta su distribución y uso. Este proceso puede ayudar significativamente a identificar imágenes falsificadas y a verificar la autenticidad de las imágenes genuinas.

No es fácil implementar procesos de trazabilidad, pero si podría ser una opción viable para distinguir lo real de lo falso.

La trazabilidad se puede aplicar de diferentes maneras:

Métodos de Trazabilidad

 

  • Metadatos Incrustados: Los metadatos son datos insertados en las imágenes. En el caso de las imágenes, los metadatos pueden incluir información sobre la cámara utilizada, la fecha y hora de la captura, y la ubicación geográfica, entre otros. Al analizar los metadatos, se puede obtener una pista sobre el origen de una imagen. Sin embargo, los metadatos pueden ser alterados o eliminados, por lo que no son infalibles.
  • Watermarking Digital: Se puede incrustar una marca de agua digital invisible en las imágenes. Estas marcas de agua pueden contener información sobre el creador, la fecha de creación y otros datos relevantes. Incluso si la imagen es alterada, la marca de agua puede permanecer intacta, ayudando a rastrear su origen.
  • Blockchain(Cadenas de Bloques): Utilizar la tecnología blockchain para registrar y verificar la autenticidad de las imágenes es un método no tan fácil y económico, pero puede ser efectivo. Cada vez que una imagen se crea o se modifica, la transacción se registra en un bloque de la cadena, proporcionando un historial inmutable y rastreable.
  • Huellas Digitales y Hashing: Cada imagen puede ser identificada por una “huella digital” única, una especie de código generado por algoritmos que representan su composición. Si una imagen se altera, su huella digital cambia. Comparando las huellas digitales, se puede detectar si una imagen ha sido modificada.
  • Inteligencia Artificial y Aprendizaje Automático: La IA puede ser entrenada para detectar patrones y anomalías en las imágenes que pueden indicar que hubo alguna manipulación. Esto incluye alteraciones en la textura, bordes irregulares y discrepancias en la iluminación o sombras.

Engañando al ojo humano

Como lo menciono más arriba, las herramientas más populares para generación de IA tienen restricciones para generar contenido sensible, pero usuarios experimentados usan otras plataformas y técnicas para crear cualquier tipo de contenido sin restricción. A continuación incluyo algunos ejemplos que hice para ilustrar este artículo.

Celebridades en situaciones raras o comprometedoras

Papa Francisco

El Papa Francisco es una de las figuras públicas con mayor restricción para generar imágenes con IA, así que me di a la tarea de hacer un juego de fotos en situaciones donde el Papa definitivamente nunca estuvo.

Figuras públicas de la política y el espectáculo

Los presidentes y figuras del espectáculo, son personajes con limitaciones en algunas plataformas, por lo atractivo que puede resultar hacerles fake news.

El presidente de Estados Unidos bailando con la primera dama del presidente anterior (Melania Trump).

Lewis Hamilton tomando en un bar y celebrando con Shakira.

Deepfakes pornográficos

Esta es una de las corrientes de generación de imágenes con IA que más ha crecido, sobre todo en Only Fans y paltaformas similares.

 

El conocimiento que no se comparte, pierde por completo su valor

COMENTARIOS

XEVA 91.7 FM

VILLAHERMOSA - TABASCO - MÉXICO
CONTACTO

CABINA XEVA
993 3136103 Ext. 2025 y 2026

VENTAS XEVA
993 3136103 Ext. 2017 y 2019

DIRECCIÓN

Paseo Usumacinta s/n Esq Ayuntamiento. Col Gil y Sáenz, Villahermosa, Tabasco


logo xeva

logo yafm
Todos los derechos reservados