La IA debería tener licencia como la medicina o la energía nuclear, sugiere el Partido Laborista | Inteligencia Artificial (IA)

[ad_1]

El Reino Unido debería prohibir que los desarrolladores de tecnología trabajen en herramientas avanzadas de inteligencia artificial a menos que tengan una licencia para hacerlo, dijo el Partido Laborista.

Se espera que los ministros introduzcan reglas mucho más estrictas sobre las empresas que entrenan sus productos de IA en grandes conjuntos de datos del tipo utilizado por OpenAI para construir ChatGPT, dijo a The Guardian la portavoz digital del Partido Laborista, Lucy Powell.

Sus comentarios se producen en medio del pensamiento en la parte superior del gobierno sobre cómo regular el mundo cambiante de la IA, con el primer ministro Rishi Sunak reconociendo que podría representar una amenaza "existencial" para la humanidad.

Uno de los asesores del gobierno en inteligencia artificial también dijo el lunes que la humanidad podría estar a solo dos años de que la IA sea capaz de ser más astuta que las personas, la última de una serie de advertencias sobre la amenaza que representa el rápido desarrollo de la tecnología.

Powell dijo: "Mi verdadera preocupación es la falta de regulación de los modelos de lenguaje grandes que luego se pueden aplicar a una variedad de herramientas de IA, ya sea que gobiernen cómo se construyen, cómo se administran o cómo se controlan. ”

Sugirió que la IA debería ser autorizada de la misma manera que las drogas o la energía nuclear, las cuales están reguladas por organismos gubernamentales independientes. “Ese es el tipo de modelo en el que deberíamos estar pensando, donde tienes que tener una licencia para construir estos modelos”, dijo. "Estos me parecen buenos ejemplos de cómo se puede hacer".

El gobierno del Reino Unido publicó un libro blanco sobre IA hace dos meses, que detallaba las oportunidades que la tecnología podría brindar, pero decía relativamente poco sobre cómo regularla.

Desde entonces, una serie de desarrollos, incluido el progreso en ChatGPT y una serie de advertencias severas de expertos de la industria, han provocado una revisión en la parte superior del gobierno, y los ministros ahora actualizan apresuradamente su enfoque. Esta semana, Sunak viajará a Washington DC, donde argumentará que el Reino Unido debería estar a la vanguardia de los esfuerzos internacionales para redactar un nuevo conjunto de pautas que rijan la industria.

Los laboristas también están compitiendo para finalizar sus propias políticas de alta tecnología. Powell, quien hablará con expertos de la industria en la conferencia TechUK en Londres el 6 de junio, dijo que creía que la interrupción de la economía británica podría ser tan drástica como la desindustrialización de las décadas de 1970 y 1980. .

Se espera que Keir Starmer, el líder laborista, pronuncie un discurso sobre el tema en la London Tech Week la próxima semana. Starmer llevará a cabo una reunión de gabinete en la sombra en una de las oficinas de Google en el Reino Unido la próxima semana, dando a los ministros en la sombra la oportunidad de hablar con algunos de los principales ejecutivos de inteligencia artificial de la compañía.

Powell dijo que en lugar de prohibir ciertas tecnologías, como ha hecho la UE con herramientas como el reconocimiento facial, cree que el Reino Unido debería centrarse en regular cómo se desarrollan.

Los productos como ChatGPT se crean mediante algoritmos de entrenamiento en grandes almacenes de información digital. Pero los expertos advierten que si estos conjuntos de datos contienen datos sesgados o discriminatorios, los propios productos pueden mostrar evidencia de esos sesgos. Esto podría tener un efecto dominó, por ejemplo, en las prácticas de empleo si se utilizan herramientas de inteligencia artificial para ayudar a tomar decisiones de contratación y despido.

Powell dijo: “Sesgo, discriminación, vigilancia: esta tecnología puede tener muchas consecuencias no deseadas.

omitir la promoción del boletín

Argumentó que al obligar a los desarrolladores a ser más abiertos sobre los datos que utilizan, los gobiernos podrían ayudar a mitigar estos riesgos. "Esta tecnología está cambiando tan rápido que requiere un enfoque gubernamental activo e intervencionista, en lugar de un enfoque de laissez-faire".

Matt Clifford, presidente de la Agencia de Investigación e Invención Avanzada, que el gobierno creó el año pasado, dijo el lunes que la IA se estaba moviendo mucho más rápido de lo que pensaba la mayoría de la gente. Dijo que ya podría usarse para lanzar armas biológicas a gran escala o ataques cibernéticos, y agregó que los humanos podrían verse abrumados rápidamente por la tecnología que habían creado.

En declaraciones a Tom Newton Dunn de TalkTV, Clifford dijo: "Ciertamente es cierto que si tratamos de crear una inteligencia artificial que sea más inteligente que los humanos y no sabemos cómo controlarla, creará potencial para todo tipo de riesgos actuales y futuros". . Entonces, creo que hay muchos escenarios diferentes de los que preocuparse, pero ciertamente creo que es justo que esto ocupe un lugar muy alto en la agenda de los formuladores de políticas.

Cuando se le preguntó cuándo podría suceder eso, agregó: “Nadie lo sabe. Existe una gama muy amplia de predicciones entre los expertos en IA. Creo que dos años serán como máximo una especie de final alcista del espectro.

[ad_2]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir