Actualizado el 11/05/2024

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. Nightshade impide que las IA utilicen tus imágenes para entrenarse

Nightshade impide que las IA utilicen tus imágenes para entrenarse

Escrito por Guillem Alsina el 15/11/2023 a las 18:16:20
505

De los muchos aspectos de la incipiente inteligencia artificial que provocan polémica, uno es el uso de imágenes sujetas a derechos de propiedad intelectual como datos para el entrenamiento de grandes modelos, lo cual denuncian algunos artistas.


El uso que dichos modelos de IA hacen de las imágenes para su entrenamiento es, básicamente, tanto el reconocimiento de partes (como objetos y personajes plasmados en fotografías y pinturas), como la abstracción del estilo que imprime el artista para, posteriormente, poder imitarlo en imágenes generadas por encargo de los usuarios.


Es de esta imitación de su estilo de lo que se quejan, principalmente, los artistas, que en algunos casos han buscado prohibir el uso de sus imágenes para el entrenamiento de IA por vía judicial y, en otros como el que nos ocupa, recurren a herramientas de software para prevenir que esto suceda.


Nightshade es una de estas herramientas, creada en la Universidad de Chicago por el equipo de desarrolladores liderado por Ben Zhao, que contraataca a las empresas que se encuentran tras los modelos de IA que recogen indiscriminadamente las imágenes publicadas en Internet para entrenar a sus modelos, empleando la técnica del data poisoning, o lo que sería en castellano, el “envenenamiento de datos”.


Mediante el sutil cambio de una serie de bits, que no alteran la percepción que tiene de la imagen la persona que la ve, se puede cambiar la forma como la inteligencia artificial ve esos datos. Por ejemplo, convertir lo que el ojo humano ve como un gato, en algo que la máquina lo vea y clasifique como un perro.


De esta forma, si en la fase de entrenamiento, la IA trabaja con miles de imágenes que contienen el mismo sutil cambio, es probable que cuando un usuario solicite que genere la imagen de un perro, esta acabe generando algo parecido a un gato o, peor todavía, una mezcla de ambos animales.


Para que este data poisoning funcione de forma efectiva, se hace preciso que el modelo de IA entrene con una cantidad mínima de imágenes modificadas para que esta sea significativa y pueda cambiar la percepción que el modelo tiene de animales, personas y objetos, una posibilidad que, aunque difícil, no es imposible.


Y ello es lo que debe actuar de disuasor para el empleo indiscriminado de las imágenes por parte de las compañías que producen modelos de IA: el miedo a que los datos de entrenamiento acaben siendo corrompidos y, por lo tanto, los resultados finales, no sean fiables.


La mecánica completa del sistema, con ejemplos, la explican en el MIT Technology Review.


Con anterioridad, el mismo equipo que ha desarrollado Nightshade, había presentado Glaze, otra herramienta similar que, en este caso, enmascara el estilo original del artista que ha creado la imagen para que la IA no pueda imitarlo.


Esta herramienta también abre otro “melón”: ¿podría utilizarse con fines maliciosos contra una IA, envenenando a posta datos legítimos? Es una posibilidad, pero se necesitarían muchas imágenes de fuentes distintas, por lo que, a la práctica, realizar este tipo de ataque parece remota a día de hoy, aunque es algo que deberá seguirse de cerca.





Noticias Relacionadas:


Diez resoluciones