Una compañía de software educativo ha desarrollado un software que dice que las escuelas y universidades pueden usar para detectar si los estudiantes están usando inteligencia artificial para completar sus pruebas y ensayos, según un nuevo informe.
Turn It In tiene una larga historia de desarrollo de herramientas que los educadores pueden usar para detectar plagio. La compañía ahora ha recurrido a un sistema de inteligencia artificial que, según dice, puede determinar de manera efectiva si los estudiantes son responsables de su trabajo o si han recurrido a la inteligencia artificial como ChatGPT.
Sin embargo, la herramienta Turn It In no es infalible, según una prueba realizada en la Universidad del Sur de California. La Dra. Karen North, profesora de la universidad, descubrió que si bien la herramienta puede detectar una gran cantidad de artículos generados por inteligencia artificial, algunos trabajos escapan al error y otros trabajos originales reciben señales falsas, según un informe de NBC News.
Todo lo que necesitas saber sobre la IA: ¿Para qué se utiliza?

Algunos estudiantes de todo el país han recurrido a ChatGPT para falsificar la tarea, lo que ha causado un gran problema para los maestros. (Marco Bertorello/AFP vía Getty Images)
La educación es solo una de las innumerables áreas en las que los expertos dicen que la IA ya tendrá o tendrá un enorme impacto en los próximos años.
El interés en la IA aumentó después del lanzamiento a finales del año pasado de ChatGPT de OpenAI, una herramienta conversacional con la que los usuarios pueden pedir borradores de todo tipo de trabajos escritos, desde ensayos universitarios hasta guiones de películas.
Mark Weinstein: Tres formas de regular la IA ahora antes de que sea demasiado tarde
Aunque es avanzado, los expertos dicen que es solo el comienzo de cómo podemos usar la inteligencia artificial. Al ver el enorme potencial, algunos líderes de la industria firmaron una carta pidiendo detener el desarrollo hasta que se puedan establecer límites responsables y mejores prácticas.

El CEO de OpenAI, Sam Altman, dijo que la seguridad es importante en el desarrollo de la IA, pero argumentó que detenerse en el desarrollo no es la respuesta. (Jason Redmond/AFP vía Getty Images)
Haga clic aquí para la aplicación FOX NEWS
Sin embargo, Sam Altman, quien dirige OpenAI, argumentó la semana pasada que esa pausa no es la forma correcta de abordar el problema.
“Creo que andar con cuidado y ser más estricto en temas de seguridad es realmente importante”, dijo en una entrevista. “El mensaje, no creo que sea la mejor forma de afrontarlo”.