Coronel de EE. UU. se retracta de sus comentarios sobre un 'experimento mental' de ataque simulado con drones | Ejercítio EE.UU

[ad_1]

Un coronel de la Fuerza Aérea de EE. UU. se "equivocó" cuando dijo en una conferencia de la Royal Aeronautical Society el mes pasado que un dron había matado a su operador en una prueba simulada porque el piloto estaba tratando de anular su misión, según la compañía.

La confusión había comenzado con la circulación de una publicación de blog de la compañía, en la que describía una presentación del Coronel Tucker "Cinco" Hamilton, jefe de pruebas y operaciones de IA con la Fuerza Aérea de EE. UU. y piloto de pruebas experimentales de cazas, en el Cumbre de capacidades futuras de combate aéreo y espacial en Londres en mayo.

Según la publicación del blog, Hamilton le había dicho a la multitud que en una simulación para probar un dron impulsado por inteligencia artificial y entrenado e incitado a matar a sus objetivos, un operador había instruido al dron en ciertos casos para que no matara a sus objetivos y el dron respondió por matando al operador.

Los comentarios generaron serias preocupaciones sobre el uso de IA en armas y largas conversaciones en línea. Pero la Fuerza Aérea de EE. UU. negó el jueves por la noche que se hubiera llevado a cabo la prueba. La Royal Aeronautical Society respondió en un comunicado el viernes que Hamilton se retractó de sus comentarios y aclaró que la "simulación de drones de IA deshonestos" era un "experimento mental" hipotético.

"Nunca realizamos este experimento y no lo necesitaríamos para darnos cuenta de que este es un resultado plausible", dijo Hamilton.

La controversia surge cuando el gobierno de EE. UU. comienza a debatir cómo regular la inteligencia artificial. Los especialistas en ética y los investigadores de inteligencia artificial se han hecho eco de las preocupaciones sobre la tecnología que argumentan que, si bien existen objetivos elevados para la tecnología, como curar el cáncer, por ejemplo, la tecnología aún está muy lejos. Mientras tanto, señalan la evidencia de larga data de los daños existentes, incluido el mayor uso, en ocasiones, de sistemas de vigilancia poco confiables que identifican erróneamente a personas negras y morenas y pueden conducir a vigilancia excesiva y arrestos falsos, la perpetuación de información errónea en muchas plataformas y el daño potencial. de usar tecnología incipiente para impulsar y operar armas en áreas de crisis.

“No se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se habla de ética e IA”, dijo Hamilton durante su presentación en mayo.

Aunque la simulación de la que hablaba Hamilton en realidad no sucedió, Hamilton argumenta que el "experimento mental" sigue siendo interesante de considerar cuando se navega sobre si usar IA en armas y cómo.

“Aunque este es un ejemplo hipotético, ilustra los desafíos del mundo real que plantean las capacidades impulsadas por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, dijo en un comunicado aclarando sus comentarios iniciales.

En una declaración a Insider, la portavoz de la Fuerza Aérea de EE. UU., Ann Stefanek, dijo que los comentarios del coronel se sacaron de contexto.

“El Departamento de la Fuerza Aérea no ha realizado tales simulaciones de drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, dijo Stefanek.

[ad_2]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir