Una ONG alerta sobre los riesgos de una aplicación que genera con inteligencia artificial imágenes falsas de personas, pero sin ropa.

Una ONG denunció el uso de inteligencia artificial (IA) para crear imágenes eróticas de personas reales y alertó que ya hubo intentos de suicidio en la Argentina por este motivo. En San Juan condenaron a 3 años de prisión condicional a un joven de 23 años por subir estas imágenes a las redes sociales.

"Una nueva amenaza se cierne sobre las mujeres y, en particular, sobre las chicas más jóvenes e incluso las niñas", advirtió la ONG "Humanos vs Inteligencia Artificial" que llamó la atención sobre el uso de ClothOff, una app que permite generar desnudos a partir de una foto normal.

Tras una generalización de casos en Europa, la semana pasada se conoció que un tribunal penal sanjuanino condenó a Mario Leandro Pérez González, de 23 años, por tener material de explotación sexual tras una denuncia que hicieron sus compañeras de la Facultad de Arquitectura y Diseño Gráfico de la Universidad Nacional de San Juan.

Sin su consentimiento, Pérez González había tomado fotos de las redes sociales de al menos 15 chicas, para luego "desnudarlas" borrando su ropa mediante el uso de IA. El paso siguiente fue subir esas imágenes a un sitio web para adultos, donde esas fotos se venden con precios en dólares.

El caso fue tratado originariamente por la Justicia de Faltas de San Juan, hasta que el Centro de Abordaje Integral de Niños, Niñas y Adolescentes Víctimas (ANIVI) de esa provincia presentó un informe en el que alertaba que Pérez González tenía, además, material real de explotación sexual de chicas y chicos.

ADEMÁS: Cómo optimizar el uso de las redes sociales con los smartphones

Las víctimas eran menores de 13 años y el imputado distribuía ese contenido en redes como WhatsApp. La semana pasada y tras un acuerdo entre la defensa y la fiscalía, se lo condenó por este último delito a tres años de prisión condicional.

"La Inteligencia Artificial (IA) de la empresa ClothOff genera imágenes falsas en la cual una mujer puede aparecer desnuda a partir de una foto normal, por ejemplo en una plaza", indicó un informe difundido por "Humanos vs Inteligencia Artificial".

La investigación fue realizada tras conocerse al menos 12 episodios de este tipo ocurridos en las provincias de Tucumán, Jujuy, Misiones y Córdoba, lo que motivó que la ONG lanzara un alerta por el peligro que encierra el uso sin controles de este dispositivo.

"Los abusos también han tenido lugar, con la misma app, en Lille, Francia; Burgos, España y Guadalajara, México", agregó el informe.

Al respecto, Javier Miglino, director de la citada ONG, señaló que "hace dos años fundamos en Suiza Humanos vs Inteligencia Artificial, la primera organización de este tipo en el mundo con la idea de impulsar un tipo de regulación para esa nueva tecnología, disruptiva y a la vez peligrosa, que poco a poco se instala en nuestro planeta".

El abogado explicó que hubo un repentino e intenso crecimiento de la utilización de la IA, no siempre con buenos propósitos. "Nunca pensamos que íbamos a tener que defender a niñas y adolescentes del uso depravado de la IA, que permite la publicación de sus fotos, completamente desnudas, en chats de WhatsApp", dijo en diálogo con este medio.

Las imágenes se construyen a partir de las fotos reales de las víctimas a través de un procedimiento por medio del cual el programa de IA de ClothOff, cuyo eslogan es "Undress girls for free" ("Desnuda a chicas gratis"), "diseña" un desnudo a partir de la imagen real propuesta.

En España hace unos días se descubrió un caso que involucró a 20 niñas y adolescentes retratadas con este procedimiento. En ese país, la creación de desnudos con inteligencia artificial es un delito a pesar de que sean imágenes manipuladas y se las considera material de explotación sexual de niñas y niños.

"Las fotos son falsas, a partir de imágenes reales y tan comunes que demuestran que cualquiera está en riesgo. Mientras tanto, la empresa ClothOff, solo se limita a colocar una marca de agua sobre la imagen sin siquiera señalar que se trata de una imagen ‘fake’", indicó Miglino.

"En apariencia y según los testimonios que hemos recogido, al menos 12 chicas fueron atacadas con esta IA en todo el país hasta ahora", señaló Miglino y destacó que dos de las jóvenes intentaron suicidarse. Afortunadamente, en ambos casos, la oportuna intervención de los padres evitó una tragedia mayor y se están recuperando. "Pero no podemos afirmar que están bien. Los compañeros de estudio que bajaron la App de ClothOff para desnudarlas, no saben el daño que han hecho", consideró.

Parte del Equipo Multidisciplinario Internacional de Humanos vs Inteligencia Artificial se comunicó con la empresa ClothOff, proveedora del software. "Nos indicaron que ‘no se responsabilizan del uso que se le vaya a dar a las imágenes que se generan (como por ejemplo extorsionar a alguien)", contó el abogado.

Para los propietarios de la App, "el internauta es el responsable de no usar la aplicación para fines ilegales o no autorizados", por lo que no acepta responsabilidades judiciales de lo que se pueda hacer con su tecnología. "Eso nos deja más preocupados aún", indicó el abogado.

Aparecen en esta nota:

Contacto

Registro ISSN - Propiedad Intelectual: Nº: RL-2021-110619619-APN-DNDA#MJ - Domicilio Legal: Intendente Beguiristain 146 - Sarandí (1872) - Buenos Aires - Argentina Teléfono/Fax: (+5411) 4204-3161/9513 - [email protected]

Edición Nro. 15739

 

Dirección

Propietario: Man Press S.A. - Director: Francisco Nicolás Fascetto © 2017 Copyright Diario Popular - Todos los derechos reservados