SUIZA

La inteligencia artificial pone en peligro los derechos humanos y debe legislarse, según la ONU

Algunos sistemas atentarían contra la privacidad y son utilizados para discriminar.
miércoles, 15 de septiembre de 2021 · 09:23

La Comisión de los Derechos Humanos de las Naciones Unidas (ONU) ha exigido una moratoria sobre el uso de tecnología de inteligencia artificial (IA) que representa un “riesgo grave para los derechos humanos”, incluidos los sistemas de escaneo facial que son capaces de rastrear a las personas en espacios públicos.

Michelle Bachelet, Alta Comisionada de la ONU para los Derechos Humanos, dijo que los países deberían “prohibir expresamente las aplicaciones de inteligencia computacional que no cumplan con las leyes internacionales de derechos humanos”.

Las aplicaciones que deberían prohibirse incluyen los sistemas de “puntuación social” a través del cual los gobiernos juzgan a las personas en función de su comportamiento y ciertas herramientas basadas en inteligencia artificial que clasifican a las personas en grupos, por ejemplo, por origen étnico o género.

“Las tecnologías basadas en la inteligencia artificial pueden ser una fuerza para el bien, pero también pueden tener efectos negativos, incluso catastróficos, si se utilizan sin tener en cuenta cómo afectan los derechos humanos de las personas”, precisó Bachelet en un comunicado.

La Unión Europea ha implementado políticas contra el uso "riesgoso" de las tecnologías de identificación artificial. 

Sus comentarios surgen justo cuando la ONU publicó un nuevo informe en donde examina cómo algunos países y empresas se han apresurado en la aplicación de sistemas de inteligencia artificial “que afectan la vida y los medios de subsistencia de las personas sin establecer las salvaguardias adecuadas para prevenir la discriminación y otros daños”.

Aunque el máximo organismo mundial no pidió una prohibición total de la tecnología de reconocimiento facial, recomendó a los gobiernos “detener el escaneo de las características de las personas en tiempo real hasta que puedan demostrar que la tecnología utilizada es precisa, no discrimina y cumple con ciertos estándares de privacidad y protección de datos”.

El informe también pide extrema cautela en el uso de herramientas que intentan deducir los estados emocionales y mentales de las personas mediante el análisis de sus expresiones faciales o movimientos corporales, al alegar que dicha tecnología “es susceptible de sesgos, malas interpretaciones y carece de base científica”.

En China, este sistema es utilizado para controlar el movimiento social en las grandes ciudades.

 

China utiliza la IA para vigilar a su población

Aunque la Comisión de Derechos Humanos de la ONU prefirió no hacer alusión a las naciones específicas que utilizan la inteligencia artificial para “vigilar” a sus ciudadanos, se sabe que China ha implementado tecnología de reconocimiento facial como parte de la vigilancia en la región occidental de Xinjiang, donde viven muchos uigures, una etnia minoritaria.

“El uso de sistemas de reconocimiento de emociones por parte de las autoridades públicas, por ejemplo, para identificar a las personas que son objetivos políticos o policiales, o para evaluar la veracidad de sus declaraciones durante los interrogatorios, podría socavar los derechos humanos, como los derechos a la privacidad, la libertad, la justicia y un juicio justo”, concluyó la ONU en su informe.