NOTICIA

ONU pide “moratoria” de sistemas de inteligencia artificial que amenazan DD.HH.

Michelle Bachelet llamó a evaluar los riesgos que presentan para la vida privada o la libertad de expresión.

La ONU pidió este miércoles imponer una moratoria a la venta y el uso de algunos sistemas de inteligencia artificial (IA), como el reconocimiento facial, hasta que se activen garantías para proteger los derechos humanos.

“La inteligencia artificial puede ser una fuerza para el bien, que ayude a las sociedades a superar algunos de los mayores retos de nuestro tiempo. Pero las tecnologías de IA también pueden tener efectos nocivos e incluso catastróficos, cuando se emplean sin prestar la debida atención a su capacidad de vulnerar los derechos humanos”, declaró la Alta Comisionada de la ONU para los Derechos Humanos, Michelle Bachelet, en un comunicado.

Bachelet llamó a evaluar los riesgos que presentan para la vida privada o la libertad de expresión los diferentes sistemas que se apoyan en la inteligencia artificial.

“Dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo”, pidió entretanto.

Bachelet citó como ejemplo las tecnologías que permiten tomar decisiones automáticas o aquellas que establecen perfiles.

“Perjudicar a las personas”

Los sistemas de IA se usan “para decidir quién recibe servicios públicos, quién tiene oportunidad de obtener un empleo y, por supuesto, afectan a la información que la gente ve y que puede compartir en Internet”, señaló la Alta Comisionada.

Este informe, que había sido pedido por el Consejo de Derechos Humanos -la instancia más alta de la ONU en ese área-, analizó las formas en las que esas tecnologías han sido a menudo aplicadas sin que se haya evaluado de manera correcta su funcionamiento o impacto.

La inteligencia artificial ha hecho que muchas personas hayan sido injustamente tratadas, “ya sea porque se les ha denegado prestaciones del seguro social debido a la aplicación de instrumentos deficientes de IA o porque han sido arrestadas como consecuencia de errores en los sistemas de reconocimiento facial”, dice el comunicado.

“El riesgo de discriminación inherente a las decisiones basadas en la IA -decisiones capaces de cambiar, definir o perjudicar a las personas- es muy real”, añadió Bachelet.

El informe describe detalladamente cómo los sistemas de IA se basan en grandes bases de datos con información personal “compilada, intercambiada, combinada y analizada con métodos diversos y a veces opacos”.

“Los datos que alimentan y orientan a los sistemas de IA pueden ser deficientes, discriminatorios, obsoletos o poco pertinentes. El almacenamiento de datos a largo plazo entraña también riesgos particulares”, advierte.

Uso frecuente

El informe destaca en particular el uso cada vez más frecuente de los sistemas basados en la IA por parte de las fuerzas del orden.

El reconocimiento facial se usa para identificar a determinadas personas a distancia y en tiempo real, lo que puede permitir un seguimiento ilimitado de los individuos, señala.

“No podemos seguir reaccionando tardíamente a los efectos de la IA, ni permitir que se use de manera ilimitada, sin fronteras ni supervisión, para enfrentarnos luego a sus casi inevitables consecuencias sobre los derechos humanos”, insistió Bachelet, reconociendo que “la capacidad de la IA para servir a la población es innegable”.

“Pero también lo es su capacidad de contribuir a violaciones de derechos humanos en gran escala, de manera casi indetectable. Es necesario adoptar urgentemente medidas para imponer límites basados en los derechos humanos a la utilización de la IA por el bien de todos”, concluyó. (I)

Fuente:http://www.eluniverso.com