Tecno
Universidades dudan sobre herramienta para detectar el plagio de Inteligencia Artificial
-
Cuéntale a tus contactos
-
Recomiéndalo en tu red profesional
-
Cuéntale a todos
-
Cuéntale a tus amigos
-
envíalo por email
Turnitin, que ya utilizan más de 10.000 instituciones educativas de todo el mundo, lanzó este martes un servicio que, según afirmó, puede identificar textos generados por inteligencia artificial con un 98% de fiabilidad. OpenAI, creadora de los populares servicios ChatGPT, ha declarado que su sistema de detección de plagios sólo funciona el 26% de las veces.
“Los educadores nos han dicho que ser capaces de detectar con precisión el texto escrito con IA es su primera prioridad en este momento”, dijo el director ejecutivo de Turnitin, Chris Caren. “Necesitan ser capaces de detectar IA con una certeza muy alta para evaluar la autenticidad del trabajo de un estudiante y determinar la mejor manera de comprometerse con ellos”.
El lanzamiento, sin embargo, ha sido polémico. Algunas instituciones, entre ellas Cambridge, han manifestado que optarán por no participar en el nuevo servicio, según personas familiarizadas con la decisión.
A las universidades les preocupa que la herramienta pueda acusar falsamente a los estudiantes de hacer trampas, implique la entrega de datos de los estudiantes a una empresa privada e impida experimentar con nuevas tecnologías como la IA generativa.
Esas preocupaciones han llevado a la UCISA, el organismo británico de apoyo a la tecnología en la educación, a trabajar con Turnitin para garantizar que las universidades tuvieran la opción de excluirse temporalmente de la función.
La popularidad de ChatGPT, un sistema creado por la empresa OpenAI -respaldada por Microsoft- que puede elaborar argumentos y escribir franjas de texto convincentes, ha suscitado la preocupación generalizada de que los estudiantes utilicen el software para hacer trampas en los trabajos escritos.
Esto ha suscitado un debate entre académicos, consultores de enseñanza superior y científicos cognitivos de todo el mundo sobre cómo podrían las universidades desarrollar nuevos modos de evaluación en respuesta a la amenaza que supone la IA para la integridad académica.
Deborah Green, directora ejecutiva de UCISA, se mostró preocupada por el hecho de que Turnitin lanzara su sistema de detección de IA sin avisar a los estudiantes mientras preparaban los trabajos de curso y los exámenes este verano.
Aunque las universidades acogen con satisfacción la nueva herramienta, necesitan tiempo para evaluarla: “No hemos tenido oportunidad de probarla, así que simplemente no sabemos lo que hace y lo que no hace”.
Charles Knight, director adjunto de la consultora Advance HE, dijo que a los profesores les preocupaba no tener forma de investigar por qué los ensayos habían sido marcados como escritos por IA.
En una sola universidad, una tasa de error del 1% supondría cientos de estudiantes acusados erróneamente de hacer trampas, añadió, con escasos recursos de apelación.
“Es una caja negra”, dijo. “No tenemos ni idea de lo que significan esos resultados y no podemos saber cómo ha llegado el software a esas conclusiones”.