Noticias del Mundo

La herramienta de inteligencia artificial se entrena en secreto con imágenes reales de niños

Un nuevo informe publicado por Human Rights Watch el lunes dijo que más de 170 imágenes e información personal de niños brasileños fueron extraídas de un conjunto de datos de código abierto sin el conocimiento o consentimiento de los niños y utilizadas para entrenar inteligencia artificial.

Los informes dijeron que las imágenes fueron extraídas del contenido publicado entre 2023 y mediados de la década de 1990, mucho antes de que cualquier usuario de Internet pudiera haber anticipado que el contenido podría usarse para entrenar inteligencia artificial. Human Rights Watch afirma que los datos personales de los niños, así como enlaces a sus fotografías, están incluidos en LAION-5B, un conjunto de datos que ha sido una fuente popular de datos de entrenamiento para nuevas empresas de inteligencia artificial.

«Primero se viola su privacidad porque sus fotos se extraen y se colocan en estos conjuntos de datos. Estas herramientas de inteligencia artificial luego se entrenan con estos datos para que se puedan crear imágenes realistas de los niños», dijo Hye Jung, investigadora de tecnología y derechos del niño en Human Rights Watch. Han, el investigador que descubrió las imágenes. «La forma en que esta tecnología está evolucionando es que cualquier niño que tenga una foto o un video de sí mismo en línea ahora está en riesgo porque cualquier actor malicioso puede tomar esas fotos y luego usar estas herramientas para manipularlas a voluntad».

LAION-5B se basa en Common Crawl, un repositorio de datos creado mediante el rastreo de la web y puesto a disposición de los investigadores, y se ha utilizado para entrenar varios modelos de IA, incluida la herramienta de generación de imágenes Stable Diffusion de Stability AI. Creado por la organización alemana sin fines de lucro LAION, el conjunto de datos es de acceso público y actualmente contiene más de 5.850 millones de pares de imágenes y títulos, según su sitio web.

Artículo Recomendado:  Síndrome de La Habana: CIA niega rastro de potencia extranjera

Las imágenes de niños que encontraron los investigadores provenían de blogs de mamás y otros blogs personales, de maternidad o de paternidad, así como también de fotografías de videos de YouTube menos vistos que parecían haber sido subidos con la intención de compartirlos con familiares y amigos.

«Solo mirar el contexto en el que se publicaron estas fotos muestra que se les concedió un nivel de privacidad», dijo Hye. «La mayoría de estas fotos no se encuentran en línea mediante una búsqueda de imágenes inversa».

El portavoz de LAION, Nate Tyler, dijo que la organización ha tomado medidas. «LAION-5B fue eliminado porque un informe de la Universidad de Stanford encontró enlaces en el conjunto de datos a contenido ilegal en la web pública», dijo, y agregó que el grupo está trabajando actualmente con «la Internet Watch Foundation, el Centro Canadiense para la Protección Infantil». La Universidad de Stanford y Human Rights Watch están trabajando juntos para eliminar todo el contenido ilegal conocido”.

Los Términos de servicio de YouTube no permiten el rastreo de contenido excepto en determinadas circunstancias que parezcan violar estas políticas. «Hemos dejado claro que la extracción no autorizada de contenido de YouTube viola nuestros Términos de servicio», dijo el portavoz de YouTube, Jack Maon. «Seguiremos tomando medidas contra este tipo de abuso».

En diciembre del año pasado, investigadores de la Universidad de Stanford descubrieron que los datos de entrenamiento de IA recopilados por LAION-5B contenían contenido de abuso sexual infantil. El problema de los deepfakes explícitos, que se utilizan para intimidar a los compañeros de clase, especialmente a las niñas, también está creciendo entre los estudiantes de las escuelas estadounidenses. A Hye le preocupa que, además de utilizar fotografías de niños para generar CSAM, la base de datos también pueda revelar información potencialmente confidencial, como ubicación o datos médicos. En 2022, una artista estadounidense descubrió una imagen suya en el conjunto de datos de LAION y se dio cuenta de que provenía de su historial médico privado.

Artículo Recomendado:  Ataque ruso mata a 22 civiles en el Día de la Independencia de Ucrania, dicen funcionarios de Kyiv

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba