Amnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid Icons
Actuamos por los derechos humanos
en todo el mundo
Blog

5 ejemplos de malos usos de la inteligencia artificial que afectan directamente a la gente joven

Beatriz Martos (@BeatrizMartosV), responsable de campañas sobre tecnología,

En la era digital, la inteligencia artificial se ha convertido en una herramienta poderosa que moldea y afecta la vida de la juventud de formas inimaginables. Detrás de la promesa de mejorar sus vidas, también se esconden ejemplos alarmantes de malos usos que pueden tener un impacto profundo y preocupante como lo demuestran los cinco ejemplos que desarrollamos a continuación.

1. Aplicaciones que desnudan a niñas sin su consentimiento

Recientemente escuchamos con sorpresa y horror cómo en el pueblo extremeño de Almendralejo, hasta 20 niñas habían sido víctimas del uso de una aplicación que usa inteligencia artificial para “desnudar a chicas gratis”.

Esta aplicación, que fue descargada y utilizada por varones menores del propio entorno de las víctimas, , plantea una problemática seria. Su principal característica es que permite la creación de imágenes de desnudos falsos que son extremadamente realistas, lo que incluso puede ser considerado como pornografía infantil. La única condición requerida para crear estos desnudos falsos es que la persona objetivo (en este caso la chica que se pretende desnudar en la imagen), aparezca sola en la foto y no lleve ropa de abrigo.

Lo que agrava aún más la situación es que esta aplicación fue utilizada sin el conocimiento ni el consentimiento de las víctimas, que desconocían que sus imágenes estaban siendo manipuladas de esta manera. Una vez creadas estas imágenes falsas, fueron difundidas sin el consentimiento de las víctimas, tanto a través de aplicaciones de mensajería como en las redes sociales. Este tipo de violencia sexual realizada a través de la IA es muy grave pues viola el derecho a la intimidad personal, al honor y a la propia imagen de las víctimas y puede tener graves consecuencias emocionales y sociales en ellas.

2. Mensajes incendiarios que roban tus datos personales y obtienen ganancias económicas

Redes sociales como Tik Tok o Instagram, habituales en la vida diaria de millones de jóvenes, basan su modelo de negocio en vender los datos personales segmentados de sus usuarios/as. Cuanto más interactúen los/as usuarios/as con la red social (dando a like, guardando publicaciones, enviándolas, escribiendo comentarios, subiendo contenido, etc.) más datos personales son recopilados y vendidos, violando el derecho a la privacidad, a la libertad de expresión, a la igualdad y la no discriminación de menores de edad.

Un ejemplo de su mal uso se vio en los peligrosos algoritmos de Meta, propietaria de Facebook, que contribuyeron sustancialmente a las atrocidades perpetradas por el ejército de Myanmar contra la población rohinyá en 2017. Así lo afirmamos en nuestro informe: La atrocidad social. Meta y el derecho a un recurso para la comunidad rohinyá que detalla que Meta sabía o debía haber sabido que los sistemas de algoritmos de Facebook estaban impulsando la difusión de contenido dañino antirrohinyá en Myanmar, pese a lo cual la empresa no hizo nada.

En 2017, miles de personas rohinyás fueron víctimas de homicidio, tortura, violación y desplazamiento como parte de la campaña de limpieza étnica de las fuerzas de seguridad de Myanmar. En los meses y años que desembocaron en las atrocidades, los algoritmos de Facebook intensificaron una tormenta de odio contra la población rohinyá que contribuyó a la violencia en el mundo real”, señaló Agnès Callamard, secretaria general de Amnistía Internacional.

Niñas y mujeres rohinyás fueron violadas en masa en Myanmar debido al sistema de algoritmos usados por Facebook, y es que está demostrado que los mensajes negacionistas o que promueven discursos de odio provocan una mayor interacción de los/as usuarios/os.

© Pexels Pixabay

3. ¿Saliste a protestar? Ten cuidado con la tecnología de reconocimiento facial

El cambio climático, la precariedad laboral, el encarecimiento de los precios, la falta de acceso a una vivienda, el desmantelamiento de la sanidad pública… lamentablemente no faltan razones para salir a protestar y reivindicar nuestros derechos. Eso sí, ten mucho cuidado con las tecnologías de reconocimiento facial utilizadas para reprimir las protestas y acosar a las comunidades minoritarias, pues las personas negras o pertenecientes a minorías étnicas corren mayor riesgo de ser identificadas erróneamente y arrestadas falsamente. En algunos de estos casos, el reconocimiento facial ha sido hasta un 95% inexacto. Incluso cuando “funciona”, los agentes pueden atacar y acosar rápidamente a los y las manifestantes.

4. ¿Eres joven y buscas una hipoteca? ¡Atención al algoritmo!

Si eres joven y buscan una hipoteca, puede ser que el banco no te la otorgue porque el algoritmo que utiliza para evaluar las solicitudes de préstamos bancarios decide que tú no eres apto para recibir una hipoteca, y no porque no tengas la solvencia suficiente o una determinada estabilidad financiera (muy común por otra parte en estos tiempos), sino porque eres menor de una determinada edad; porque eres mujer; porque no eres blanco o porque estás casado/a con una persona de tu mismo sexo.

Esto se debe a que existe una ausencia de representación de personas que no son blancas, de jóvenes y de mujeres en el apartado de datos históricos, debido a que tradicionalmente eran los hombres blancos los que trataban con las entidades bancarias, por lo que si en el momento de crear este tipo de sistemas algorítmicos no se advierte de esta infrarrepresentación histórica, el algoritmo asigna más riesgo a otro tipo de personas que se salen de esta categoría y reproduce el sesgo discriminatorio, denegando créditos.

5. ¿Necesitas que tu hijo/a o hermano/a vaya a la guardería para tú poder trabajar y/o estudiar? ¡Ojalá el algoritmo no le deje fuera!

Cada vez más gobiernos están automatizando la prestación de servicios públicos, utilizando sistemas algorítmicos para decidir a quién se le deben otorgar subvenciones sociales o quiénes cumplen con las condiciones necesarias para formar parte de un determinado programa social. Estos sistemas algorítmicos pueden reproducir sesgos discriminatorios y rechazar tu solicitud de plaza en las guarderías públicas si provienes de una minoría étnica o tienes otra nacionalidad, como ya salió a la luz en los Países Bajos, donde se excluyó a miles de progenitores/as y cuidadores/as de familias, principalmente de ingresos bajos, de plazas en escuelas infantiles públicas.

Por todo esto, desde Amnistía Internacional exigimos:

  • Investigación y rendición de cuentas de gobiernos y empresas que usan la tecnología para silenciar activistas. La vigilancia digital ilegítima, la censura y los cierres de Internet deben ser impedidos.

  • Regulación efectiva de las grandes empresas tecnológicas para proteger los derechos humanos. Las grandes corporaciones deben aumentar su transparencia y su responsabilidad en posibles violaciones de derechos humanos.

  • Transparencia en el uso de algoritmos para la toma de decisiones que afectan de manera crucial a nuestras vidas y reparación efectiva en casos de discriminación y reproducción de prejuicios.

  • Prohibición del desarrollo, venta y uso de los sistemas de reconocimiento facial, de emociones y del lenguaje corporal utilizados para reprimir las protestas y acosar a las comunidades minoritarias.

Contigo somos independientes

Amnistía Internacional lo forman personas que defienden una humanidad justa y libre alrededor del mundo. Personas como tú, que creen en nuestro trabajo. Por eso, si tú también defiendes los derechos humanos, te necesitamos para seguir siendo independientes. Puedes hacerlo desde aquí en menos de un minuto, con cuotas a partir de 4 € al mes.

Nos mantenemos firmes con nuestros principios: no aceptamos ni una sola subvención de ningún gobierno, ni donaciones de partidos políticos.

Haz posible nuestra independencia.