En la era de la IA, una fotografía ya no es prueba de nada

Lo más sorprendente del desastre de Kate Middleton al usar Photoshop para retocar un retrato familiar es que alguien considere una fotografía como una prueba de vida.
Kate Middleton sonriendo sobre un fondo abstracto rosa y morado
Fotoilustración de Kate Middleton durante el Servicio de Villancicos “Together At Christmas” en la Abadía de Westminster el 8 de diciembre de 2023 en Londres, Inglaterra.WIRED Staff; Getty Images

Durante semanas, el mundo se ha visto inundado de teorías conspirativas alentadas por ciertos elementos extraños que se perciben en una fotografía de la desaparecida princesa de Gales Kate Middleton, que ella acabó por admitir que fue retocada. Algunas de las teorías eran bastante disparatadas, desde el encubrimiento de la supuesta muerte de Kate hasta la hipótesis de que la familia real estaba conformada por extraterrestres reptilianos. Pero ninguna era tan estrambótica como la idea de que en 2024 alguien crea que una imagen digital es prueba de algo.

Las imágenes digitales no solo son infinitamente maleables, sino que las herramientas para manipularlas son tan comunes como la suciedad. Para cualquiera que preste atención, esto lleva décadas siendo evidente. La cuestión se expuso definitivamente hace casi 40 años, en un artículo coescrito por Kevin Kelly, uno de los editores fundadores de WIRED, Stewart Brand y Jay Kinney, en la edición de julio de 1985 de The Whole Earth Review, una publicación de la organización de Brand en Sausalito, California.

Kelly tuvo la idea de la historia aproximadamente un año antes, cuando encontró un boletín interno de la editorial Time Life, donde trabajaba su padre. En él se describía una máquina de un millón de dólares llamada Scitex, que creaba imágenes digitales de alta resolución a partir de películas fotográficas, que después se modificaban mediante una computadora. Entre los primeros clientes se encontraban las revistas de lujo: Kelly se enteró de que National Geographic había utilizado la herramienta para mover literalmente una de las Pirámides de Giza para que cupiera en una foto de portada. “Pensé: ‘Hombre, esto lo cambiará todo’”, comenta Kelly.


Kate Middleton y sus tres hijos George, Charlotte y Louis sonríen mientras posan para una foto familiar
Pelo borroso y cierres que no llegan a ninguna parte: le pedimos al departamento de diseño de WIRED que nos explicara los errores de edición de la polémica fotografía de Kate Middleton con sus hijos.

La espiral del retoque digital

El artículo se titulaba “Digital Retouching: The End of Photography as Evidence of Anything (Retoque digital: el fin de la fotografía como prueba de algo)”. Empezaba con una escena imaginaria en la que un abogado argumentaba que las imágenes comprometedoras debían excluirse de un caso legal, afirmando que, debido a su falta de fiabilidad, “la fotografía no tiene cabida en este ni en ningún otro tribunal. De hecho, tampoco las películas ni las cintas de video ni las de audio”.

¿Llamó mucho la atención el artículo sobre el hecho de que la fotografía fuera despojada de su función como prueba documental, o sobre la perspectiva de una era en la que nadie supiera determinar lo que es real o falso? “¡No!”, responde Kelly. Nadie se dio cuenta. Incluso Kelly pensaba que pasarían muchos años antes de que las herramientas para modificar las imágenes de forma convincente estuvieran disponibles de forma rutinaria. Tres años después, dos hermanos de Michigan inventaron lo que se convertiría en Photoshop, que se lanzó como un producto de Adobe en 1990. La aplicación llevó la manipulación digital de fotos a las computadoras de escritorio, reduciendo drásticamente el costo. Para entonces, incluso The New York Times informaba sobre “las cuestiones éticas que plantea la alteración de fotografías y otros materiales mediante la edición digital”.

Adobe, en el ojo del huracán durante décadas, ha reflexionado mucho sobre estas cuestiones. Ely Greenfield, director de tecnología de la división de medios digitales de la empresa, señala con razón que mucho antes de Photoshop, los fotógrafos de cine y los cinematógrafos empleaban trucos para retocar sus imágenes. Pero aunque las herramientas digitales hacen que esta práctica sea económica y habitual, Greenfield sostiene que “tratar las fotos y los videos como fuentes documentales de la verdad sigue siendo algo valioso. ¿Cuál es el propósito de una imagen? ¿Está ahí para lucir bonita? ¿Para contar una historia? A todos nos gusta ver imágenes agradables. Pero creemos que contar una historia [a través de ellas] sigue teniendo valor”.

Para determinar si la narrativa fotográfica es veraz o falsa, Adobe y otros han ideado un conjunto de herramientas que buscan cierto grado de verificabilidad. Los metadatos de la fotografía de Middleton, por ejemplo, ayudaron a la gente a descubrir que sus anomalías eran el resultado de una edición con Photoshop, que la princesa admitió después.

Un grupo de más de 2,500 creadores, tecnólogos y editores denominado Content Authenticity Initiative (Iniciativa de Autenticidad de los Contenidos), puesto en marcha por Adobe en 2019, trabaja para diseñar herramientas y normas que permitan verificar si una imagen, un video o una grabación han sido alterados. Se basa en la combinación de metadatos con sofisticadas marcas de agua y técnicas criptográficas. Sin embargo, Greenfield admite que esas protecciones son eludibles. “Disponemos de tecnologías que identifican fotos editadas o generadas por IA [inteligencia artificial], pero sigue siendo una batalla perdida”, observa. “Mientras haya un actor suficientemente motivado que esté decidido a superar esas tecnologías, lo conseguirá”.

Con la IA generativa, la situación se complica, haciendo mucho más fácil modificar las fotos de forma drástica. Hace un año, Adobe presentó su producto de IA Firefly, llamándolo “el mejor amigo de tu imaginación”. Demasiado para la realidad. Los usuarios han manipulado más de 6,500 millones de imágenes, una cifra tan elevada que actualmente estaría justificado cuestionar cada fotografía que encontramos por ahí. Quizá sirva de consuelo argumentar que los consumidores de Firefly pertenecen en su mayoría a la clase creativa, que combina la realidad con filigranas digitales para conseguir efectos artísticos. Pero las técnicas de manipulación de imágenes con IA están impregnando nuestras colecciones personales, que antes eran una crónica de la realidad capturada, un registro visual de nuestro pasado. Ahora son tan sospechosas como el Instagram de una princesa.


Imagen creada con Stable Diffusion 3 con el prompt:  "Fotografía de estudio de un camaleón de cerca sobre un fondo negro".
Stability AI anunció Stable Diffusion 3, su nueva IA generativa para crear imágenes. Por fin soluciona el problema de inclusión de texto.

Recuerdos editados por herramientas de IA

Considera la que posiblemente sea la aplicación líder de fotografías, Google Fotos. Ahora se vale de una herramienta de IA llamada “Editor Mágico” para “reimaginar” contenido visual originalmente estropeado por su molesta fidelidad a la realidad. En el proceso de edición es posible mover objetos y personas, e incluso cambiar un cielo gris por uno luminoso. Un ejemplo que ofrece Google es una imagen de un ser querido en una playa muy concurrida. ¿Por qué saturar la toma con extraños retozando en el fondo? Con el “Borrador Mágico” los eliminas y rellenas el fondo como si nunca hubieran estado allí. Aquel artículo de The New York Times de 1989 presentaba el “escalofriante concepto” de cientos de miles de divorciados que quitaban a sus exparejas de sus fotografías. Esa es ahora una función básica de Google Fotos, que te permite enviar a tus antiguos romances al baúl de los recuerdos con la misma facilidad con la que te deshaces de los photo-bombers (aquellos colados en las fotos).

Le pedí a Zach Senzer, director de producto senior de Google Fotos, que me explicara la filosofía que hay detrás de estas funciones. No es una reescritura de la historia al estilo soviético, explica, sino una forma de resolver un problema. “Queremos que los usuarios tengan el control de un momento, que lo representen de la forma que crean que refleja mejor su experiencia y su recuerdo”, comenta. “Si saco una foto de alguien en una playa, no me acordaré de toda esa gente en el fondo: mi recuerdo es lo más destacado, la persona a la que estoy fotografiando en un día soleado. Así que cuando hablo de ser auténtico con el momento, se trata de preservar el recuerdo que intentan transmitir”. En otras palabras, la autenticidad no significa lo que ve el objetivo de la cámara, sino lo que quiere tu corazón. Por lo visto, parece que esta manipulación se está convirtiendo en un método predeterminado de almacenar las memorias. De acuerdo con Senzer, los usuarios de Google Fotos editan 1,700 millones de imágenes al mes. La compañía no compartió qué porcentaje representa respecto a todas las imágenes tomadas.

Quizá tengas la tentación de decir que actualmente la única prueba de que algo es real es cuando lo ves por ti mismo. Pero piensa en las Vision Pro de Apple. Cuando la gente se pone esas gafas de realidad mixta, observa una mezcla del mundo real entremezclado con una capa digital. Pero ese supuesto entorno “real” no es directamente visible para los ojos, sino que un conjunto de cámaras muestra imágenes de video de lo que el ojo contemplaría normalmente. Esa transmisión de video es susceptible de manipulación; de hecho, recrear la realidad es el objetivo de estos dispositivos. Si sales a la calle con uno de ellos, quién sabe, quizá el Complejo Industrial de la familia real hackee tus gafas para insertar una convincente representación digital de Kate Middleton, paseándose por un supermercado en leggings.

Todo esto debió ser evidente hace tiempo. La fiabilidad de lo que vemos ya no depende de las propias imágenes y videos. Nuestra convicción en lo que se nos presenta depende de la credibilidad de quien lo presenta. Quizá si los Windsor tuvieran un historial de franqueza, la gente habría aceptado la imagen como una fotografía familiar, ligeramente perfeccionada por un retoque de Photoshop.

Kelly, el sujeto que vio venir esto en 1985, considera que simplemente estamos volviendo a un orden natural. “Durante toda la existencia humana, no sabías cuándo algo era cierto o no”, opina. “Luego tuvimos este breve momento en que la fotografía se convirtió en una prueba para demostrar algo. Ahora volvemos exactamente a lo mismo, que es que la única manera de verificar la verdad es que debes confiar en la fuente”. En una época en la que la confianza está al mínimo, y cualquier imagen aleatoria se distribuye globalmente en un instante, eso no es para nada tranquilizador.

Artículo publicado originalmente en WIRED. Adaptado por Andrei Osornio.