Copyright de la imagen
imágenes falsas

El gigante tecnológico Amazon ha prohibido a la policía usar su controvertido software de reconocimiento facial durante un año.

Esto se produce después de que activistas de derechos civiles hayan expresado su preocupación por posibles prejuicios raciales en la tecnología de vigilancia.

Esta semana, IBM también anunció que dejaría de ofrecer su software de reconocimiento facial para «vigilancia masiva o perfil racial».

Las decisiones se ven sometidas a una presión cada vez mayor sobre las empresas para que reaccionen ante la muerte bajo custodia de George Floyd.

Amazon dijo que la suspensión del uso de la aplicación de la ley de su software Rekognition era para dar a los legisladores estadounidenses la oportunidad de promulgar leyes para regular cómo se usa la tecnología.

«Hemos abogado por que los gobiernos establezcan regulaciones más estrictas para regular el uso ético de la tecnología de reconocimiento facial y, en los últimos días, el Congreso parece estar listo para asumir este desafío», dijo Amazon en un comunicado.

«Esperamos que esta moratoria de un año pueda darle al Congreso suficiente tiempo para implementar las reglas apropiadas, y estamos listos para ayudar si es necesario».

Sin embargo, la compañía ha dicho que aún permitirá que las organizaciones que se ocupan de la trata de personas utilicen la tecnología.

Al igual que otros productos de reconocimiento facial, Amazon Rekognition puede usar inteligencia artificial (IA) para comparar rápidamente una imagen de, por ejemplo, la cámara del teléfono de un oficial y tratar de combinarla con fotos tomadas de bases de datos policiales que pueden contener cientos de miles de fotos.

La tecnología de reconocimiento facial ha sido criticada por algún tiempo por posibles sesgos, los estudios muestran que la mayoría de los algoritmos tienen más probabilidades de identificar por error las caras de los negros y otras minorías que las de los blancos.

En el pasado, Amazon defendió Rekognition contra las acusaciones de parcialidad, sin dejar de ofrecerlo a la policía.

La muerte bajo custodia de George Floyd, un hombre afroamericano, reavivó estas preocupaciones porque las tácticas policiales y el uso de la tecnología para la aplicación de la ley han sido objeto de escrutinio.

A principios de esta semana, IBM dijo que ya no ofrecería su tecnología de reconocimiento facial porque los sistemas de inteligencia artificial utilizados en la aplicación de la ley deben ser probados «por sesgo».

En una carta al Congreso, el CEO de IBM, Arvind Krishna, dijo que «la lucha contra el racismo es más urgente que nunca» y definió tres áreas en las que la compañía quería trabajar con el Congreso: la reforma vigilancia policial, uso responsable de la tecnología y ampliación de habilidades y oportunidades educativas.

Solicitar legislación

En los últimos meses, el Congreso ha estado sopesando la legislación tecnológica potencial, con legisladores, empresas y activistas por las libertades civiles que piden regulaciones de software de vigilancia más estrictas.

Los demócratas en la Cámara de los Comunes presentaron el lunes un proyecto de ley de reforma policial que prohibiría a las autoridades federales usar el reconocimiento facial en tiempo real, pero los activistas dijeron que la medida no fue lo suficientemente lejos.

La American American Civil Liberties Union ha declarado que cualquier uso de reconocimiento facial en las imágenes de la cámara policial debería estar prohibido, y que los fondos federales deberían limitarse a las agencias locales de aplicación de la ley que no no restringió el uso de la tecnología de la misma manera.