[ad_1]
El organismo de control de datos de Gran Bretaña determinará si los sistemas de inteligencia artificial exhiben prejuicios raciales al procesar solicitudes de empleo.
La Oficina del Comisionado de Información dijo que la discriminación basada en IA podría tener "consecuencias dañinas para la vida de las personas" y llevar a que alguien sea rechazado para un trabajo o se le niegue indebidamente un préstamo bancario o un beneficio social.
Estudiará el uso de algoritmos para filtrar solicitudes de empleo, en medio de temores de que puedan afectar las oportunidades laborales para personas de minorías étnicas.
"Investigaremos las preocupaciones sobre el uso de algoritmos para evaluar las solicitudes de contratación, lo que podría afectar negativamente las oportunidades de empleo para personas de diversos orígenes", dijo el ICO.
La investigación se anuncia como parte de un plan de tres años para la ICO bajo el nuevo Comisionado de Información del Reino Unido, John Edwards, quien se unió a la ICO en enero después de liderar a su neozelandés.
En un discurso el jueves, se espera que Edwards diga que la ICO "considerará el impacto que el uso de la IA podría tener en grupos de personas que no forman parte de las pruebas de este software, como personas neurodiversas o personas de minorías étnicas". ". ”.
El CEO de ZipRecruiter, un sitio web de empleos, le dijo a The Guardian este año que al menos las tres cuartas partes de todos los currículos enviados para trabajos en los Estados Unidos son leídos por algoritmos. Una encuesta de gerentes de contratación realizada por la firma de investigación y asesoría Gartner el año pasado encontró que casi todos dijeron que usan IA para alguna parte del proceso de reclutamiento y contratación, por ejemplo, al revisar las solicitudes antes de que una persona las vea.
Según el Reglamento General de Protección de Datos del Reino Unido, que aplica el ICO, las personas tienen derecho a la no discriminación en relación con el procesamiento de sus datos. El ICO ha advertido en el pasado que los sistemas basados en IA podrían producir resultados que desfavorezcan a ciertos grupos si no están representados de manera precisa o justa en el conjunto de datos en el que se entrena y prueba el algoritmo. La Ley de Igualdad del Reino Unido de 2010 también brinda a las personas protección contra la discriminación, ya sea causada por un sistema de toma de decisiones humano o automatizado.
El Dr. David Leslie, director de investigación de ética e innovación responsable en el Instituto Alan Turing, dijo: "El uso de modelos de IA basados en datos en los procesos de contratación plantea una serie de cuestiones éticas espinosas, que requieren una reflexión previa y una evaluación diligente por parte de tanto diseñadores de sistemas como compradores.
"Más fundamentalmente, los modelos predictivos que podrían usarse para evaluar aplicaciones que utilizan técnicas de aprendizaje automático supervisado corren el riesgo de replicar, o incluso aumentar, los patrones de discriminación y desigualdades estructurales que podrían estar integrados en los conjuntos de datos utilizados para entrenarlos".
En otra parte de su plan de tres años, el organismo de control del Reino Unido considerará si priorizar el interés público al considerar las quejas sobre las solicitudes de libertad de información. El ICO dijo que se necesitan cambios en el proceso de quejas para el esquema FoI, que otorga a los miembros del público el derecho legal de solicitar información oficial de los organismos públicos, debido al aumento de las quejas y la disminución de los recursos para tratarlas.
Edwards dijo que el sistema actual para el manejo de quejas de FoI, por razones como respuestas tardías o divulgaciones incompletas, no estaba funcionando y consultaría sobre un nuevo régimen. El número de quejas llegó a 6361 en el año hasta el 30 de abril de 2022, que es ligeramente inferior al año anterior, pero se compara con 5433 en 2016/17.
“Quiero explorar si deberíamos poder elevar algunos casos o eliminar algunos y decir, esto va por la vía rápida, porque es de interés público”, dijo Edwards.
Suscríbase a First Edition, nuestro boletín diario gratuito, todos los días de la semana a las 7 a.m. BST
Edwards dijo que la organización espera evitar acusaciones de parcialidad en lo que prioriza mediante la publicación de una lista de criterios para examinar las quejas.
Edwards dijo que la ICO consideraría priorizar las presentaciones de periodistas y parlamentarios, aunque también sopesaría un sistema de "candidato ciego" donde se oculta la identidad de la persona u organización que realiza la presentación. . La información en poder de las autoridades públicas escocesas está cubierta por el propio Comisionado del país y la Ley de Libertad de Información.
“¿Deberíamos diferenciar quién está haciendo la solicitud… y decir que un periodista está actuando en nombre del público en general para arrojar luz sobre un tema en particular? Así obtienen puntos extra. Un miembro del parlamento, por ejemplo, tiene un papel muy particular que desempeñar para hacer que las autoridades ejecutivas y públicas rindan cuentas, por lo que tal vez haya espacio para agregar peso adicional a estos [requests].”
[ad_2]
