Obtener visibilidad del uso de la IA en la redacción estudiantil permite asegurar la equidad entre los estudiantes.
La percepción de que algunos estudiantes prosperan gracias a un mal uso deliberado de la IA puede desmotivar a los otros estudiantes que respetan con rigurosidad los lineamientos de integridad. Al mismo tiempo, si las consecuencias de hacer un mal uso deliberado de la IA se aplican a los usos involuntarios de esta, se puede disminuir la motivación del mismo modo y, paradójicamente, aumentar la probabilidad de que los estudiantes bien intencionados busquen hacer trampa para poner a todos en igualdad de condiciones.
Crear un espacio confiable para la redacción de los estudiantes, que incluya expectativas claras con respecto al uso de la IA en el proceso de escritura, puede ayudar a disipar estas tensiones. Mediante un espacio confiable, se puede respaldar prácticas éticas, reducir la probabilidad de casos de mala conducta académica y reforzar la motivación de los estudiantes. Este es sólo uno de los elementos que conforma el cambio general hacia “diseñar para lograr la integridad” en la educación; es una respuesta estratégica y pedagógica a la influencia creciente de la IA.
Entonces, ¿qué es un “espacio confiable” para la redacción de los estudiantes? Además, si el enfoque está en la confianza, ¿cuál es la función de la detección de IA dentro de dicho espacio?
¿Qué implica un espacio confiable para la redacción de los estudiantes?
Un espacio confiable se refiere a un ambiente donde se otorga a los estudiantes la seguridad psicológica para experimentar, cometer errores y pulir sus prácticas académicas sin miedo a recibir sanciones.
A los estudiantes les cuesta explorar la intersección entre la IA y la integridad académica; en especial, con la proliferación del marketing que promociona “ayuda con las tareas” y los asistentes que aparecen (sin que se solicite) para ofrecer respuestas en herramientas de aprendizaje. Aunque es inevitable cometer errores, la conducta indebida se puede evitar, y las respuestas institucionales deben reflejar esto.
Un espacio confiable para la redacción permite a los estudiantes llevar a cabo las tareas utilizando las herramientas que tienen a disposición, incluida la IA, y luego recibir retroalimentación formativa sobre el resultado y el proceso. Esto permite a los educadores debatir las implicaciones de los diferentes usos de la IA, desde la mejora del texto hasta el uso de contenido producido por IA sin editar en los ejercicios, y avanzar hacia la integración ética de la IA y la integridad académica.
No se trata de vigilancia, sino de transparencia. Los estudiantes necesitan desarrollar la alfabetización en IA y la integridad académica a través de retroalimentación y orientación, en lugar de miedo y sanciones.
¿Por qué es importante un espacio confiable para la integridad académica?
Las investigaciones muestran de manera constante que los enfoques formativos orientados hacia la integridad académica que están basados en el diálogo y la retroalimentación son más efectivos que los punitivos (Sbaffi y Zhao, 2022).
Mientras que los sistemas que se basan en sanciones tienden a aislar y estigmatizar a los estudiantes, se ha demostrado que las prácticas restaurativas fortalecen el vínculo de los estudiantes con la comunidad académica y fomentan el cambio conductual. (KPU). Los espacios confiables permiten que se desarrollen estas conversaciones constructivas en un momento en el que la falta de claridad con respecto a la IA puede llevar a infracciones inadvertidas de la integridad.
Es importante que los educadores sepan diferenciar entre errores y conductas indebidas relacionadas con la IA porque los estudiantes ven los errores involuntarios de manera diferente al plagio deliberado (Tight, 2024). Si se tratan de la misma manera, se pueden socavar el compromiso y la motivación. Al identificar el uso de la IA y abordarlo con retroalimentación formativa en lugar de medidas punitivas, las instituciones pueden preservar relaciones de apoyo entre estudiantes y tutores; se demuestra en reiteradas circunstancias que estas reducen la probabilidad de que se produzcan casos de mala conducta académica (Bretag y Harper, 2019).
No sólo eso: crear un espacio confiable también garantiza que la justicia en la evaluación sea visible para los estudiantes. Esto resulta esencial para lograr un compromiso y una motivación continuos.
Como afirman Miles et al. (2022): “Un estudiante que no hace trampa y, en consecuencia, no recibe ninguna asistencia adicional puede estar en desventaja en comparación con aquellos estudiantes que sí hacen trampa y no son descubiertos. Es esencial que haya igualdad para todos los estudiantes dentro del entorno de aprendizaje, y estos necesitan saber que la institución promueve de forma activa oportunidades equitativas para que todos ellos triunfen con imparcialidad”.
Al brindar claridad, retroalimentación formativa y recuperación efectiva, las instituciones demuestran que los errores y las conductas indebidas relacionadas con la IA se manejan de manera justa, lo que reduce las percepciones de que hay ventajas injustas. Esto es importante ya que hacer trampa es “contagioso”. Cuando los estudiantes observan las trampas de sus compañeros o sobrestiman su prevalencia, se reduce su propia probabilidad de que cumplan con los lineamientos de integridad académica, lo que crea un “círculo vicioso” (Chacko, et al., 2024).
En otras palabras: crear un espacio confiable para la redacción de los estudiantes genera diálogo, aumenta la alfabetización en IA, mejora la motivación y el compromiso y mitiga los riesgos que se agravan con la mala conducta académica.
¿Cuál es la función de la detección de IA en un espacio “confiable”?
Para entablar un diálogo formativo con los estudiantes sobre el uso de la IA generativa, los educadores necesitan ver cómo y cuándo la pueden haber usado. A primera vista, esto puede parecer opuesto al concepto de espacio “confiable”. Pero, en este contexto, la detección de IA simplemente se usa para identificar las instancias en que se usó la IA, no para inferir las intenciones subyacentes.
Aquí, “confianza” no se refiere a que los educadores tengan fe ciega en que los estudiantes siempre se comportan a la perfección. Se refiere a que los estudiantes tengan la confianza de que se los tratará con justicia y de manera equitativa mientras exploran las herramientas y los procesos de aprendizaje nuevos, y de que recibirán orientación constructiva para desarrollar su alfabetización en IA y análisis crítico.
Si los educadores quieren crear un espacio confiable para la redacción de los estudiantes, es clave combinar la transparencia en la escritura y el razonamiento humano, y eso implica utilizar herramientas de detección de IA para resaltar las áreas que se deben revisar y comentar.
Eso no significa restarle importancia a la “detección como elemento de disuasión”, que, junto a las sanciones institucionales, sigue teniéndose en cuenta por los estudiantes a la hora de tomar decisiones con respecto a la integridad (Ortiz-Bonnin y Blahopoulou, 2025).
No obstante, ya que las investigaciones indican que casi la mitad de los estudiantes (HEPI, Turnitin/Vanson Bourne) evitan usar la IA por completo por miedo a que se les acuse de hacer trampa, un detector de IA no sólo sirve para corregir la dependencia excesiva. Cuando se implementa como una forma de iniciar el debate sobre los usos adecuados, también respalda que aquellos estudiantes que de otra manera evitarían la IA interactúen y la adopten con más seguridad, lo que mejora significativamente la equidad entre los estudiantes.
Si la detección de IA no es precisa en un 100 %, ¿vale la pena usarla?
Nunca habrá una detección de IA que logre una precisión del cien por ciento, en especial, mientras las herramientas de IA generativa se vuelven cada vez más sofisticadas. Por su propia naturaleza, el contenido de la IA generativa es difícil de identificar.
Esto no invalida la utilidad de los detectores de IA. De hecho, los verificadores de IA tienen una efectividad muy alta al promover redacciones originales y de calidad. Sólo significa que están diseñados para utilizarse dentro de un marco de salvaguardas más amplio.
Aunque no hay una sola solución de detección de IA que funcione a la perfección de manera aislada, cuando se combina con el razonamiento humano, un detector de IA es un componente esencial en la respuesta global al riesgo.
Piensa que el software de detección de IA es como una herramienta de diagnóstico médico. En un reconocimiento, se pueden resaltar áreas preocupantes, pero se necesita un profesional con entrenamiento para interpretar los resultados y determinar un plan de acción apropiado.
Ocurre lo mismo con las herramientas de detección de IA. El objetivo no es lograr una detección perfecta y sancionar. Es brindar tal transparencia en la escritura que asegure la equidad entre los estudiantes, valide el esfuerzo auténtico y genere confianza en el uso apropiado de la IA.
Los datos son, en esencia, oportunidades de diálogo. ¿Cómo se manifiesta esto en la práctica?
Convertir los datos en oportunidades de diálogo: charlas formativas sobre la IA en la práctica
Estudiante A: Entrega un ejercicio que cuenta con un tiempo de redacción promedio y marcas de alerta mínimas sobre similitudes con contenido existente o de IA. No se necesita intervención; la auditoría del proceso confirma que el estudiante está creando un trabajo auténtico y original.
Estudiante B: Entrega un ejercicio con un tiempo de redacción menor que el promedio y una marca de alerta menor sobre una similitud con contenido de IA. Al revisar, el educador descubre que el estudiante ha confiado demasiado en el material fuente con una interpretación limitada. Esto incentiva una charla constructiva sobre cómo usar el material fuente y citarlo, para ayudar al estudiante a mejorar sus habilidades y su seguridad.
Estudiante C: Entrega un ejercicio con poca redacción, numerosas marcas de alerta sobre similitudes con contenido existente y una frecuencia elevada de contenido pegado. Esto desencadena un debate sobre las prácticas de investigación y escritura del estudiante, que incluye orientación sobre el uso adecuado de la IA, prácticas de citación y el valor de la redacción auténtica para el desarrollo cognitivo.
Garantizar la equidad entre los estudiantes con espacios confiables
Crear un espacio confiable para la redacción de los estudiantes es un paso hacia una mayor imparcialidad en la evaluación, en especial, en la era de la IA generativa. Mediante la detección de IA y la retroalimentación formativa, las instituciones pueden ayudar a los estudiantes a explorar las áreas grises de las nuevas tecnologías y fortalecer su integridad académica.
Al eliminar las oportunidades para que los estudiantes obtengan una ventaja injusta a través de un mal uso de la IA no detectado, las instituciones mejoran tanto la equidad de los estudiantes como la confianza en la justicia de la evaluación. Esto crea una base sólida para el desarrollo cognitivo, lo que garantiza que el cerebro (como un músculo) se ejercite mediante indagaciones auténticas, que en última instancia llevarán a resultados de aprendizaje más profundos.
Crea un espacio confiable con Turnitin Feedback Studio y sus complementos de integridad