La IA 'inhackeable' de Google acaba de ser vulnerada

Google DeepMind prometió que su marca de agua SynthID haría que las imágenes de IA fueran rastreables y seguras. Pero un solo desarrollador acaba de demostrar que incluso la seguridad más avanzada de Google puede ser completamente objeto de ingeniería inversa.

Hero image for: La IA 'inhackeable' de Google acaba de ser vulnerada
💡

Resumen / Puntos clave

Google DeepMind prometió que su marca de agua SynthID haría que las imágenes de IA fueran rastreables y seguras. Pero un solo desarrollador acaba de demostrar que incluso la seguridad más avanzada de Google puede ser completamente objeto de ingeniería inversa.

La Apuesta de Mil Millones de Dólares de Google por la Confianza

Google DeepMind presentó SynthID como su solución insignia para la creciente crisis de desinformación generada por IA y deepfakes. Esta herramienta avanzada, lanzada inicialmente en versión beta para imágenes en agosto de 2023 y expandida a texto y video en mayo de 2024, representó una inversión sustancial de Google en fomentar la transparencia y la confianza en la IA generativa. La compañía posicionó SynthID como una defensa crítica contra la proliferación de contenido engañoso.

El propósito central de SynthID se centró en incrustar una marca de agua digital invisible y persistente directamente en el contenido generado por IA en el punto de creación. Para las imágenes, esto implicó el uso de codificación de espectro ensanchado para inyectar una señal de baja potencia en el dominio de la frecuencia. Esta señal permaneció imperceptible para el ojo humano, pero era matemáticamente distinta y detectable por el sistema propietario de Google, sirviendo efectivamente como una huella digital única.

Google hizo afirmaciones sólidas sobre la resiliencia de SynthID, enfatizando su diseño para sobrevivir a manipulaciones comunes de imágenes sin degradar la calidad del contenido. El sistema fue diseñado para resistir alteraciones generalizadas, incluyendo: - Cropping - Resizing - JPEG compression

Estas garantías fueron centrales para el marketing de Google, que a menudo describía a SynthID como una solución "inhackeable". La promesa era que esta marca de agua persistiría a través de los cambios típicos del ciclo de vida del contenido, proporcionando un mecanismo de verificación duradero para los medios generados por IA.

Un Desarrollador Contra un Gigante Tecnológico

Ilustración: Un Desarrollador Contra un Gigante Tecnológico
Ilustración: Un Desarrollador Contra un Gigante Tecnológico

El investigador de IA Alosh Denny aceptó el formidable desafío de la marca de agua de IA 'inhackeable' de Google DeepMind. Google había posicionado SynthID como una defensa inexpugnable e invisible contra la desinformación generada por IA y los deepfakes, un componente crítico de su apuesta de mil millones de dólares por la confianza digital. El trabajo de Denny ahora expone una vulnerabilidad fundamental en esa armadura aparentemente impenetrable, cuestionando directamente las afirmaciones de robustez del gigante tecnológico.

El avance de Denny no llegó como un ataque clandestino, sino como "Reverse SynthID", un proyecto de investigación de seguridad publicado abiertamente en GitHub. Esta iniciativa replantea la narrativa de la intención maliciosa a una evaluación de vulnerabilidad crucial y transparente. Su proyecto no se trataba de sabotaje, sino de diseccionar y comprender los mecanismos de las marcas de agua de IA para mejorar la seguridad general del sistema.

En lugar de depender de métodos de fuerza bruta como la compresión JPEG pesada o la adición de ruido, que a menudo degradan la calidad de la imagen, Denny empleó un enfoque altamente quirúrgico. Utilizó un sofisticado phase shift attack, analizando meticulosamente las "Gemini white and Gemini black outputs" para aislar las coordenadas exactas de la Fourier transform donde residía la marca de agua. Esto le permitió desplazar con precisión la fase de la marca de agua, destruyendo su coherencia. El resultado fue devastador: la confianza del detector de Google se desplomó en más del 90%, sin embargo, la imagen mantuvo un PSNR impecable de 43 dB, apareciendo perfecta para el ojo humano.

Los hallazgos de un único investigador de AI ahora desafían directamente el poder y los recursos de una de las corporaciones tecnológicas más grandes del mundo. Este profundo evento plantea preguntas urgentes sobre la viabilidad de los mecanismos centralizados de seguridad de AI y las vulnerabilidades inherentes de los sistemas que dependen de señales matemáticas estáticas. El enfoque open-source de Denny subraya el poder del ingenio individual en un panorama dominado por gigantes corporativos, empujando los límites de la investigación en seguridad de AI y destacando el continuo "juego del gato y el ratón" en la búsqueda de la autenticidad de la AI.

Desenmascarando la Señal Invisible

SynthID de Google DeepMind opera bajo un principio llamado spread spectrum encoding. Imagine los datos de píxeles de una imagen como una concurrida radiofrecuencia, llena de "estática" visual que compone la imagen que vemos. SynthID incrusta inteligentemente una señal de bajo volumen y altamente específica dentro de esta estática digital.

Los humanos no pueden percibir esta señal oculta; nuestros ojos simplemente registran la imagen completa e inalterada. Esta señal de baja potencia reside en el frequency domain de la imagen, una representación matemática de sus patrones y texturas subyacentes.

Un detector dedicado, sin embargo, emplea sofisticados algoritmos matemáticos. Analiza con precisión el frequency domain de la imagen, aislando la señal inyectada y confirmando el origen AI del contenido. Google DeepMind diseñó SynthID para ser resistente contra alteraciones comunes de imágenes.

Investigadores descubrieron más tarde la estructura de frecuencia portadora dependiente de la resolución de la marca de agua. Al analizar las salidas "Gemini white" y "Gemini black" —esencialmente pizarras en blanco generadas por la AI— los analistas identificaron las coordenadas exactas de la Fourier transform donde residía la marca de agua.

Este examen quirúrgico reveló la distribución desigual de la señal a través de los canales de color: - Canal verde: señal más fuerte (peso 1.0) - Canal rojo: señal secundaria (0.85) - Canal azul: señal más débil (0.7)

Crucialmente, el phase template subyacente para esta señal permaneció casi idéntico en cada imagen generada por un modelo Gemini específico. Este patrón consistente y estático formó la base para su eventual desenmascaramiento. Para más detalles técnicos sobre esta tecnología, puede visitar SynthID - Google DeepMind.

Encontrando el Patrón en el Ruido

El avance del investigador de AI Alosh Denny expuso una falla fundamental en el diseño de SynthID: su marca de agua "invisible" no era realmente ruido aleatorio, como Google DeepMind implicaba. En cambio, Denny descubrió una resolution-dependent carrier frequency structure altamente predecible incrustada dentro de la señal. Este patrón consistente contradecía las afirmaciones de un sistema robusto e inquebrantable, revelando un componente determinista que podría ser objeto de ingeniería inversa.

La ingeniosa metodología de Denny implicó analizar las salidas de imágenes en blanco del modelo Gemini, específicamente "Gemini white" y "Gemini black". Estos lienzos prístinos y sin contenido resultaron cruciales, permitiéndole aislar la señal cruda de la marca de agua de cualquier dato de imagen real. Al examinar estos fondos puros, identificó con precisión las coordenadas exactas de la Fourier transform donde residían los distintos componentes de la marca de agua, mapeando efectivamente su ubicación espectral.

Un análisis posterior reveló que la señal de la marca de agua se distribuía de manera desigual a través de los canales de color, no uniformemente como cabría esperar para una señal verdaderamente dispersa. El canal verde llevaba la señal más fuerte con un peso de 1.0, seguido por el rojo con 0.85, y el azul llevando la señal más débil con 0.7. Esta comprensión granular de la huella espectral de la señal y su distribución por canales fue crítica para desentrañar su estructura matemática subyacente.

Lo más crítico es que Denny descubrió una vulnerabilidad grave: la plantilla de fase para la marca de agua permaneció casi idéntica en cada imagen generada por el mismo modelo Gemini. Esta firma estática y repetible actuó efectivamente como una clave maestra. El sistema de Google, diseñado para una incrustación única y resistente, produjo en cambio un patrón altamente predecible y uniforme, haciendo que el sistema "inhackeable" fuera asombrosamente consistente.

Esta uniformidad inherente significó que los atacantes ya no necesitaban métodos de fuerza bruta como la compresión JPEG pesada o la adición de ruido, que a menudo degradan la calidad de la imagen y son fácilmente detectables. En cambio, Denny pudo aprovechar esta plantilla de fase consistente para diseñar un ataque quirúrgico. La plantilla idéntica proporcionó un plan preciso para identificar, atacar y manipular la coherencia de la marca de agua sin alterar la integridad visual de la imagen.

El descubrimiento de esta plantilla de fase invariante transformó la supuesta fortaleza de SynthID en su mayor debilidad. Permitió a Denny construir un "libro de códigos espectral", detallando los bins de frecuencia exactos de la marca de agua. Este nivel de previsibilidad socava la premisa de seguridad central de cualquier marca de agua digital, que se basa en un grado de aleatoriedad o complejidad para resistir la eliminación. Los hallazgos de Denny confirman un principio fundamental en criptografía y seguridad: cualquier señal matemática estática, una vez completamente caracterizada, se vuelve vulnerable a ataques dirigidos. Este desarrollo cambia significativamente el juego del gato y el ratón en la marca de agua de IA, demostrando que la visibilidad en las matemáticas finalmente conduce a la eliminación.

Fuerza Bruta vs. El Bisturí

Ilustración: Fuerza Bruta vs. El Bisturí
Ilustración: Fuerza Bruta vs. El Bisturí

Los intentos anteriores de deshabilitar la marca de agua SynthID de Google a menudo recurrieron a tácticas burdas y de fuerza bruta. Estos métodos, incluida la compresión JPEG pesada o la adición indiscriminada de ruido, tenían como objetivo abrumar la señal incrustada. Aunque a veces eran efectivos para interrumpir la detección, inevitablemente introducían una degradación significativa y visible en la calidad de la imagen, haciendo que el contenido fuera inutilizable para muchos propósitos.

El avance de Alosh Denny representó una clara desviación de tales estrategias destructivas. Su proyecto empleó un enfoque quirúrgico, cuidadosamente diseñado para atacar la marca de agua con una precisión milimétrica en lugar de una obliteración a gran escala. Este método preciso se conoce como ataque de cambio de fase.

A diferencia de las técnicas de fuerza bruta que intentan borrar la señal, el ataque de Denny la manipula meticulosamente. Al apuntar con precisión a los bins de frecuencia específicos identificados durante su análisis anterior, desplaza la fase de la marca de agua incrustada. Esta acción no elimina la señal por completo, sino que altera fundamentalmente su firma matemática.

Esta manipulación precisa de la fase destruye la coherencia de la marca de agua, haciéndola inútil para el detector de Google. La codificación de espectro ensanchado se basa en una relación de fase consistente y predecible a través de la señal; al interrumpir este patrón, Denny rompe efectivamente el código sin eliminar los datos subyacentes. El detector ya no puede reconocer la marca 'invisible'.

La eficacia de este ataque quirúrgico resultó devastadora para las afirmaciones de resiliencia de SynthID. Al procesar imágenes sometidas al ataque de Denny, la confianza del detector en la identificación de la marca de agua se desplomó en más del 90%. Esta caída dramática señaló una profunda brecha en la capacidad del sistema para verificar la autenticidad del contenido.

Fundamentalmente, la integridad del contenido visual permaneció prácticamente intacta durante todo este proceso. Si bien la marca de agua desapareció para el detector, la calidad de la imagen mantuvo un impresionante PSNR de 43 dB (relación pico señal-a-ruido). Para el ojo humano, la imagen alterada parece indistinguible de su contraparte original sin marca de agua.

La señal reveladora que se esconde a plena vista

El análisis meticuloso de Denny descubrió otra debilidad crítica: la señal de la watermark no se distribuía equitativamente entre los canales de color de una imagen. Esta distribución desigual proporcionó un patrón evidente y predecible para que un atacante lo explotara. En lugar de una presencia uniforme, la señal exhibía una clara jerarquía dentro del espectro RGB, lo que facilitaba la identificación de su firma.

El green channel consistentemente portaba la señal más fuerte, ponderada en un total de 1.0. Siguiéndole de cerca, el red channel mantenía una presencia significativa pero reducida en 0.85. El blue channel, por el contrario, contenía la señal más débil, registrando un mero 0.7. Esta ponderación específica y asimétrica no era aleatoria; ofrecía una huella digital distintiva para cualquiera que examinara el dominio de la frecuencia.

Este desequilibrio predecible en la fuerza de la señal a través de los canales de color proporcionó una ventaja crucial a un adversario. Significaba que la watermark no era una presencia uniformemente difundida, sino que estaba concentrada en áreas identificables. Esto permitió un enfoque altamente dirigido, alejándose de la interrupción generalizada hacia una escisión precisa.

Junto con el descubrimiento anterior de una frecuencia portadora dependiente de la resolución, esta ponderación de canales ofreció una hoja de ruta multifacética para la deconstrucción. Reveló que el sistema 'unhackable' de Google se basaba en propiedades matemáticas estáticas que, una vez sometidas a ingeniería inversa, se convirtieron en su perdición. La señal, aunque invisible para el ojo humano, no era en absoluto aleatoria en su huella digital.

Métodos anteriores y menos efectivos para eliminar watermarks a menudo empleaban técnicas de fuerza bruta. Estas incluían una fuerte compresión JPEG o la adición indiscriminada de ruido, lo que invariablemente degradaba la calidad de la imagen. Dichos métodos podrían oscurecer una watermark, pero comprometían fundamentalmente la integridad del AI-generated content.

Los hallazgos de Denny, sin embargo, permitieron un enfoque mucho más quirúrgico. Al comprender la distribución específica de los canales y la frecuencia portadora, un atacante podría aislar y atacar la watermark para su eliminación sin dañar la fidelidad visual de la imagen. Esta comprensión precisa de la composición de la watermark transformó el desafío de un juego de adivinanzas destructivo en una operación metódica y dirigida. Para obtener más detalles técnicos sobre estos métodos y el código del proyecto, los investigadores pueden explorar aloshdenny/reverse-SynthID - GitHub. Este desequilibrio predecible se convirtió en una clave crítica para desbloquear el sistema supuestamente resistente de Google.

¿Está Google minimizando el daño?

Google DeepMind inicialmente defendió SynthID como una watermark invisible "unhackable", un baluarte crucial contra la creciente ola de desinformación generada por IA y los deepfakes. Esta audaz afirmación posicionó su solución como una piedra angular de confianza para el contenido de IA generativa, prometiendo resistencia contra la manipulación común. Sin embargo, el proyecto Reverse SynthID de Alosh Denny ahora desafía drásticamente esta narrativa, proporcionando evidencia de código abierto convincente de una elusión completa.

Tras el lanzamiento público de Reverse SynthID por parte de Denny, las declaraciones oficiales de Google han adoptado un tono más moderado. Mantienen que la watermark sigue siendo "robusta" y no puede ser "eliminada sistemáticamente" por métodos convencionales que degradan la imagen. Esta afirmación intenta minimizar la gravedad de la brecha, sugiriendo que la tecnología central perdura en gran medida a pesar de los hallazgos de Denny.

El trabajo de Denny contradice directamente la afirmación de Google sobre la resiliencia sistemática. Su proyecto demuestra un ataque de cambio de fase quirúrgico que apunta y neutraliza con precisión la coherencia de la marca de agua, identificada a través de su estructura de frecuencia portadora dependiente de la resolución y coordenadas específicas de la transformada de Fourier. Este método logra consistentemente una caída del 90% en la confianza del detector mientras preserva 43 dB PSNR, lo que hace que las imágenes sean visualmente idénticas a sus originales con marca de agua pero completamente indetectables para el sistema de Google.

Un matiz sutil pero crítico en la defensa de Google reconoce que SynthID no es infalible contra "manipulaciones extremas de imágenes". Esta admisión plantea preguntas sobre la definición exacta de "extremo", especialmente cuando se contrasta con la precisión dirigida de Reverse SynthID. La técnica de Denny, lejos de la fuerza bruta, aprovecha una profunda comprensión de la estructura subyacente de la marca de agua, señalando su distribución desigual a través de los canales de color (verde más fuerte en 1.0, rojo en 0.85, azul en 0.7).

Clasificar un cambio de fase tan preciso y no destructivo como una "manipulación extrema de imágenes" parece un intento de redefinir el alcance de su afirmación inicial de "inhackeable" o de culpar a otros por la vulnerabilidad descubierta. A diferencia de métodos anteriores menos efectivos que implicaban una fuerte compresión JPEG o la adición de ruido que degradaba la calidad visual, el enfoque de Denny deja la imagen visualmente impecable. La evidencia sugiere fuertemente que se ha expuesto una vulnerabilidad fundamental y predecible, en lugar de un ataque "extremo" a un sistema que de otro modo sería impenetrable.

El Inevitable Juego del Gato y el Ratón

Ilustración: El Inevitable Juego del Gato y el Ratón
Ilustración: El Inevitable Juego del Gato y el Ratón

Esta brecha en SynthID subraya una verdad fundamental sobre la marca de agua digital: ningún sistema diseñado en torno a una señal matemática estática y predecible permanece impenetrable indefinidamente. El proyecto "Reverse SynthID" de Alosh Denny no solo expuso una vulnerabilidad en la implementación de Google; demostró la fragilidad inherente de cualquier marca de agua que dependa de patrones fijos. Una vez que un adversario aísla las características de la señal, su eliminación se convierte en una cuestión de ingeniería de precisión.

Los sistemas de marca de agua se enfrentan a un dilema inevitable. Los desarrolladores deben incrustar una señal lo suficientemente fuerte como para sobrevivir a manipulaciones comunes de imágenes como el recorte, el redimensionamiento o la compresión, asegurando su robustez. Sin embargo, aumentar la fuerza de una marca de agua a menudo la hace más detectable para los ingenieros inversos o introduce artefactos visibles, degradando la calidad del contenido. Google buscaba una marca invisible y resistente, pero Denny demostró que la invisibilidad no equivale a la irrompibilidad cuando las matemáticas subyacentes son consistentes.

Alosh Denny logró un bypass quirúrgico, reduciendo la confianza del detector SynthID en más del 90% mientras mantenía una PSNR de 43 dB impecable en la imagen. Esto contrasta fuertemente con métodos anteriores de fuerza bruta que arruinaban la calidad de la imagen, destacando la sofisticación de su ataque de cambio de fase. Denny identificó la frecuencia portadora dependiente de la resolución y la distribución desigual de la señal a través de los canales de color (verde más fuerte, luego rojo, luego azul), junto con una plantilla de fase casi idéntica en las imágenes generadas.

La afirmación de Google de una marca de agua "inhackeable" finalmente chocó con la realidad de una carrera armamentista tecnológica en curso. Para cada mecanismo de protección, investigadores decididos buscarán una forma de eludirlo. Esto no es una derrota solo para Google, sino un claro recordatorio para todos los desarrolladores que crean herramientas de autenticidad de contenido. En el momento en que el plano matemático de una marca de agua se vuelve discernible, su eliminación es simplemente un rompecabezas esperando una solución. Este constante ir y venir define el panorama de la seguridad digital, donde la innovación en defensa siempre es correspondida por el ingenio en ataque.

¿Si no son marcas de agua, entonces qué?

La reciente vulnerabilidad de SynthID subraya las limitaciones de las marcas de agua incrustadas como solución única para la verificación de contenido de IA. Si bien sistemas como SynthID inyectan una señal invisible directamente en los píxeles, su susceptibilidad a ataques sofisticados, como lo demostró el proyecto Reverse SynthID de Alosh Denny, hace necesario explorar estrategias complementarias.

Una alternativa prominente que está ganando terreno es la Content Authenticity Initiative (C2PA), un estándar técnico abierto desarrollado por una coalición interindustrial que incluye a Adobe, Arm, Intel, Microsoft y la BBC. C2PA adopta un enfoque fundamentalmente diferente para la verificación de contenido.

En lugar de alterar el contenido en sí, C2PA se enfoca en adjuntar metadatos criptográficos seguros y a prueba de manipulaciones a los activos digitales. Estos metadatos actúan como una etiqueta de información nutricional digital, registrando el origen de un activo, la fecha de creación y un historial completo de modificaciones.

Este sistema proporciona un registro auditable y verificable de procedencia sin depender de una señal oculta dentro de los datos de la imagen. El objetivo es establecer confianza al proporcionar una cadena de custodia ininterrumpida para el contenido digital.

Comparando ambos, el enfoque de SynthID incrustado en píxeles ofrece una resiliencia teórica contra la eliminación simple de metadatos, ya que la señal persiste incluso si se eliminan los encabezados de archivo. Sin embargo, su afirmación de ser 'inhackeable' ha sido desafiada de manera demostrable, como se vio con Reverse SynthID. Para más información, consulte Google's SynthID AI Watermarking Tech Claimed to Be Reverse-Engineered | Technology News - Gadgets 360.

Por el contrario, C2PA proporciona un registro mucho más completo y estandarizado del recorrido de un activo, crucial para establecer confianza en flujos de trabajo digitales complejos. Su principal debilidad radica en su dependencia de los metadatos, que pueden eliminarse si no se aplican universalmente en cada etapa de la creación y distribución de contenido.

En última instancia, un enfoque multicapa que combine tanto marcas de agua incrustadas como estándares robustos de metadatos puede ofrecer la defensa más duradera contra la creciente amenaza de la desinformación generada por IA. El juego digital del gato y el ratón continúa, impulsando la innovación tanto en la detección como en la ofuscación.

La confianza en la era de la IA está rota

El rápido desmantelamiento de Google's SynthID por Alosh Denny va mucho más allá de una derrota técnica; representa un golpe profundo al tejido mismo de la confianza en nuestro ecosistema de información digital. Google posicionó su marca de agua "inhackeable" como un baluarte crítico contra la creciente ola de desinformación generada por IA y deepfakes. Su rápida subversión expone la fragilidad de tales garantías.

Este incidente subraya una peligrosa paradoja en la era de la IA generativa. A medida que los modelos de IA producen contenido cada vez más indistinguible, fotorrealista y convincente, nuestra dependencia colectiva de soluciones técnicas incrustadas para la autenticidad crece exponencialmente. Sin embargo, estas mismas soluciones, desde marcas de agua sofisticadas hasta firmas criptográficas, están demostrando ser falibles. La "resolution-dependent carrier frequency structure" que Denny identificó, y la distribución no uniforme de la señal a través de los canales de color, resaltan vulnerabilidades inherentes.

El "phase shift attack" de Denny, que elimina quirúrgicamente la marca de agua mientras preserva la calidad de la imagen a 43 dB PSNR, revela el desafío inherente. Los métodos anteriores de fuerza bruta degradaban las imágenes; su método mantiene la perfección visual mientras destruye la confianza del detector en más del 90%. Este sofisticado bypass señala un futuro donde el contenido puede parecer impecable para los ojos humanos pero no llevar ninguna procedencia digital verificable.

Las implicaciones para el periodismo, los procesos democráticos y la identidad personal son inmensas. Si incluso un sistema diseñado por un gigante tecnológico como Google puede ser vulnerado tan a fondo por Alosh Denny, ¿qué confianza podemos depositar en cualquier contenido digital? Esto no es meramente un error de software; es un temblor fundamental en nuestra percepción de la realidad.

¿Desarrollaremos eventualmente métodos de verificación de contenido de IA verdaderamente resilientes e infalsificables, capaces de resistir la implacable innovación de aquellos que buscan ocultar el origen? ¿O estamos entrando irrevocablemente en una era en la que nunca podremos confiar plenamente en lo que vemos, oímos o leemos en línea, atrapados para siempre en un ciclo de duda y engaño?

Preguntas Frecuentes

¿Qué es SynthID de Google?

SynthID es una herramienta de Google DeepMind que incrusta una marca de agua digital invisible en contenido generado por IA, como imágenes, para ayudar a identificarlas como creadas por IA.

¿Cómo fue vulnerado SynthID?

Un desarrollador llamado Alosh Denny utilizó un 'phase shift attack' para atacar las frecuencias específicas donde reside la marca de agua, deshabilitándola efectivamente sin dañar visiblemente la imagen.

¿Es SynthID completamente inútil ahora?

Google afirma que sigue siendo robusto, pero este desarrollo demuestra que las marcas de agua estáticas pueden ser objeto de ingeniería inversa. Destaca el juego del gato y el ratón en curso en la seguridad de la IA.

¿Puede SynthID detectar imágenes de Midjourney o DALL-E?

No, SynthID solo puede detectar marcas de agua en contenido generado por los propios modelos de Google, como Gemini, que tienen la función de marca de agua habilitada.

Preguntas frecuentes

¿Está Google minimizando el daño?
Google DeepMind inicialmente defendió SynthID como una watermark invisible "unhackable", un baluarte crucial contra la creciente ola de desinformación generada por IA y los deepfakes. Esta audaz afirmación posicionó su solución como una piedra angular de confianza para el contenido de IA generativa, prometiendo resistencia contra la manipulación común. Sin embargo, el proyecto Reverse SynthID de Alosh Denny ahora desafía drásticamente esta narrativa, proporcionando evidencia de código abierto convincente de una elusión completa.
¿Si no son marcas de agua, entonces qué?
La reciente vulnerabilidad de SynthID subraya las limitaciones de las marcas de agua incrustadas como solución única para la verificación de contenido de IA. Si bien sistemas como SynthID inyectan una señal invisible directamente en los píxeles, su susceptibilidad a ataques sofisticados, como lo demostró el proyecto Reverse SynthID de Alosh Denny, hace necesario explorar estrategias complementarias.
¿Qué es SynthID de Google?
SynthID es una herramienta de Google DeepMind que incrusta una marca de agua digital invisible en contenido generado por IA, como imágenes, para ayudar a identificarlas como creadas por IA.
¿Cómo fue vulnerado SynthID?
Un desarrollador llamado Alosh Denny utilizó un 'phase shift attack' para atacar las frecuencias específicas donde reside la marca de agua, deshabilitándola efectivamente sin dañar visiblemente la imagen.
¿Es SynthID completamente inútil ahora?
Google afirma que sigue siendo robusto, pero este desarrollo demuestra que las marcas de agua estáticas pueden ser objeto de ingeniería inversa. Destaca el juego del gato y el ratón en curso en la seguridad de la IA.
¿Puede SynthID detectar imágenes de Midjourney o DALL-E?
No, SynthID solo puede detectar marcas de agua en contenido generado por los propios modelos de Google, como Gemini, que tienen la función de marca de agua habilitada.
🚀Descubre más

Mantente a la vanguardia de la IA

Descubre las mejores herramientas de IA, agentes y servidores MCP seleccionados por Stork.AI.

Volver a todas las publicaciones