¿Plagio asistido por IA? El bot ChatGPT dice que tiene una respuesta a esto | chatbots

[ad_1]

'A bullshit confidente capaz de escribir bullshit muy convincentes”: no se trata de un desmontaje de un estudiante aburrido o de un ex primer ministro británico, sino de una descripción de un programa de escritura de inteligencia artificial que provoca quebraderos de cabeza a sus creadores.

A medida que crece el temor en la academia sobre un nuevo chatbot de IA que puede escribir ensayos convincentes, incluso si algunos de los hechos que usa no son estrictamente ciertos, la compañía de Silicon Valley detrás de un chatbot publicado el mes pasado se apresura a "huella digital" de su lanzamiento para evitar una ola de "IAgiarismo" - o plagio asistido por IA.

ChatGPT, un generador de texto basado en inteligencia artificial que se lanzó al público a principios de diciembre, ha sido elogiado y criticado por la calidad de su producción. Los usuarios pueden hacerle preguntas que van desde simples consultas objetivas ("¿Cuál es la montaña más alta de Gran Bretaña?")

Los líderes escolares y los profesores universitarios han expresado su preocupación de que ChatGPT, que puede proporcionar respuestas convincentes que parecen humanas a las preguntas de los exámenes, podría desencadenar una ola de trampas en las tareas y las conferencias.

Ahora, los creadores del bot, OpenAI, con sede en San Francisco, están tratando de contrarrestar el riesgo al "marcar con agua" la salida del bot y hacer que el plagio sea más fácil de detectar.

El logotipo de OpenAI se ve en la pantalla con el sitio web de ChatGPT en el móvil que se ve en esta ilustración en Bruselas, Bélgica, el 12 de diciembre de 2022. OpenAI - ChatGPT - Ilustración de ChatBot, Bruselas, Bélgica - 12 de diciembre de 2022
ChatGPT, lanzado a principios de diciembre, ha sido elogiado y criticado por la calidad de su producción. Fotografía: Jonathan Raa/NurPhoto/Rex/Shutterstock

Hablando en la Universidad de Texas, el académico visitante de OpenAI, Scott Aaronson, dijo que la compañía estaba trabajando en un sistema para contrarrestar las trampas al "marcar las salidas estadísticamente". La tecnología funcionaría alterando sutilmente la elección específica de palabras de ChatGPT, dijo Aaronson, de manera que no sería perceptible para un lector pero sería estadísticamente predecible para cualquiera que busque signos de texto generado por máquina.

“Queremos que sea mucho más difícil tomar una salida GPT y hacerla pasar como si viniera de un ser humano”, dijo Aaronson. "Podría ser útil para prevenir el plagio académico, obviamente, pero también, por ejemplo, la generación masiva de propaganda, ya sabes, enviar spam a todos los blogs con comentarios aparentemente relacionados con el tema que apoyan la invasión rusa de Ucrania sin ni siquiera un edificio lleno de trolls en Moscú". O hacerse pasar por el estilo de escritura de alguien para incriminarlo.

“De hecho, tenemos un prototipo funcional del esquema de marca de agua”, agregó Aaronson. "Parece funcionar bastante bien; empíricamente, unos pocos cientos [words] parecen ser suficientes para obtener una señal razonable de que sí, este texto es de GPT.

El bot no funciona perfectamente. Tiene una tendencia a "alucinar" hechos que no son estrictamente ciertos, lo que el analista de tecnología Benedict Evans describió como "como un estudiante universitario que responde con confianza a una pregunta para la que no ha asistido a una conferencia. Suena como una mierda confiada que puede escribir algo muy mierda convincente.

Pero la tecnología ha sido adoptada con entusiasmo por exactamente este tipo de estudiante, que necesita producir un ensayo aceptable rápidamente. El lanzamiento de ChatGPT no ha activado ningún detector de plagio convencional hasta el momento, porque el texto que produce no se ha escrito antes, lo que deja a los revisores luchando por descubrir cómo identificar a los tramposos.

Desde el lanzamiento de ChatGPT, varias organizaciones han implementado políticas específicas contra el envío de texto generado por IA como trabajo propio. Stack Overflow, un sitio de preguntas y respuestas que se especializa en ayudar a los programadores a resolver problemas de codificación, prohibió a los usuarios enviar respuestas escritas por ChatGPT. "El principal problema es que aunque las respuestas producidas por ChatGPT tienen una alta tasa de errores, generalmente se ven bien y las respuestas son muy fáciles de producir", escribieron los administradores del sitio.

"En general, debido a que la tasa promedio de respuestas correctas de ChatGPT es demasiado baja, publicar respuestas creadas por ChatGPT es significativamente perjudicial para el sitio y para los usuarios que solicitan o buscan respuestas correctas".

El capitalista de riesgo estadounidense Paul Graham, cuya esposa, Jessica Livingston, es una de las patrocinadoras, ha denominado "AIgiarismo" al uso de herramientas de IA para generar una escritura que pueda considerarse propia. "Creo que las reglas contra el IAgiarismo deberían ser más o menos las mismas que las reglas contra el plagio", dijo Graham en diciembre. "El problema con el plagio no es solo que le estás quitando el crédito a otra persona, sino que lo reclamas falsamente para ti mismo. Lo último sigue siendo cierto en el agiarismo. Y, de hecho, lo primero también es algo cierto con la tecnología de IA actual. ”

[ad_2]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir