
Alumna revisando los apuntes de su trabajo.
13 de febrero de 2025. La detección de textos generados por inteligencia artificial (IA) se ha convertido en una prioridad para sectores como la educación, los medios de comunicación y la protección de derechos de autor. Sin embargo, las herramientas utilizadas para esta tarea presentan un problema fundamental: la generación de falsos positivos, tal y como explica Álvaro Bayón, profesor del Máster en Divulgación Científica de la Universidad Isabel I en Pantreon.com, entidad con la que colabora habitualmente.
Algunas plataformas, como Turnitin o ZeroGPT, aseguran ser capaces de identificar contenido escrito por IA. No obstante, “su fiabilidad es cuestionable debido a la falta de transparencia en sus algoritmos y a las imprecisiones en sus resultados. El riesgo de que un texto genuino sea etiquetado erróneamente como generado por IA no es menor y puede acarrear consecuencias graves para estudiantes, profesionales y creadores de contenido”, argumenta el profesor Bayón.
Los detectores de IA no son una excepción a esta regla. Turnitin, una de las herramientas más utilizadas en entornos académicos, reconoce una tasa de falsos positivos del 1 %. A primera vista, esta cifra podría parecer baja. Sin embargo, si se toma como ejemplo un instituto con 500 estudiantes, en el que cada uno entrega 10 trabajos al año, el número de falsos positivos podría alcanzar los 50 textos. Este margen de error es suficiente para generar problemas en el ámbito educativo, ya que “alumnos que nunca han usado IA podrían ser acusados injustamente de hacer trampa”, subraya el profesor Bayón.
El caso de ZeroGPT es aún más preocupante. Usuarios que han probado la herramienta han reportado que textos de su propia autoría, escritos antes del desarrollo de ChatGPT, han sido erróneamente identificados como generados por IA. En una de estas pruebas, seis de diez textos humanos fueron marcados como falsos positivos. La fiabilidad de esta herramienta quedó aún más en entredicho cuando se descubrió que incluso documentos históricos, como la Constitución de los Estados Unidos y el Génesis, fueron clasificados como generados por inteligencia artificial.
“Toda prueba de detección sin importar su contexto, conlleva un margen de error. En el caso de las herramientas de IA, los errores más comunes se presentan en forma de falsos positivos y falsos negativos”, señala el profesor Bayón. La sensibilidad de un sistema mide su capacidad de identificar correctamente los casos positivos, mientras que la especificidad evalúa su capacidad de reconocer correctamente los casos negativos.
Identificación de errores por la IA
Los errores en la identificación de textos generados por IA no afectan a todos los usuarios por igual. Algunos factores aumentan la probabilidad de que un texto legítimo sea considerado erróneamente como artificial. Uno de los principales problemas detectados es la barrera idiomática. Las personas que escriben en un segundo idioma tienen mayor riesgo de ser clasificadas con falsos positivos. En español, un estudiante cuya lengua materna sea el catalán podría ser más propenso a ser señalado por un detector que alguien criado en un entorno hispanohablante.
Otro factor que influye en estos errores es la neurodivergencia. Diversas investigaciones han señalado que las personas dentro del espectro autista tienen una mayor tendencia a generar textos que los detectores identifican como escritos por IA. Esto sugiere que los modelos utilizados por estas herramientas arrastran sesgos que pueden generar discriminación involuntaria.
Además, el estilo personal de un escritor también puede jugar en su contra. Los autores con un sello distintivo en su forma de escribir pueden ver sus textos identificados como generados por IA si su estilo se asemeja al de los modelos utilizados en el entrenamiento de estas herramientas. Un periodista con una larga trayectoria y numerosas publicaciones en línea tiene más probabilidades de ser detectado como IA que alguien con poca presencia en internet.
A todo ello se suma, el entorno en el que se escribe un texto, ya que puede influir en su detección. Las plataformas como Google Docs y Microsoft Word han integrado herramientas de asistencia basadas en IA. Si los textos escritos en estos editores son utilizados posteriormente para entrenar modelos de lenguaje, existe la posibilidad de que las herramientas de detección los marquen erróneamente como contenido generado por inteligencia artificial.
Las consecuencias de los falsos positivos
Los errores en la detección de IA pueden tener repercusiones graves, especialmente en el ámbito educativo. Si un estudiante es acusado de haber usado IA en su trabajo sin pruebas contundentes, su credibilidad y desempeño académico pueden verse afectados. La falta de transparencia en los algoritmos de detección dificulta la posibilidad de apelar una acusación basada únicamente en estas herramientas.
Turnitin reconoce en su documentación que "si no se reconoce la existencia de los falsos positivos, se producirá una interacción mucho más defensiva y confrontacional que podría, incluso, dañar las relaciones en el aula", matiza Álvaro Bayón. La confianza ciega en estos sistemas por parte de algunos docentes puede generar un ambiente de inseguridad e injusticia entre los estudiantes.
Algunos profesores han optado por estrategias alternativas para verificar la autoría de un texto. Una de ellas consiste en pedir al alumno que explique y defienda su trabajo sin leerlo. Si realmente ha sido escrito por él, será capaz de argumentar su contenido. Sin embargo, este método no siempre es aplicable y no soluciona el problema estructural de la falta de fiabilidad en los detectores de IA.
“A pesar de su evidente margen de error, estas herramientas se están utilizando como un criterio determinante en evaluaciones académicas y revisiones de contenido”, explica el profesor Bayón. Mientras los algoritmos sigan presentando errores y sesgos significativos, su implementación en entornos académicos y profesionales debe ser cuestionada. El profesor Bayón considera que, se corre el riesgo de confiar en sistemas imperfectos que pueden perjudicar a personas inocentes en nombre de una lucha contra el uso de inteligencia artificial que, irónicamente, depende de otra IA para su verificación.