La gran farsa silenciosa
Vivimos un tiempo en el que la gran mayoría de las producciones de texto —académicas, periodísticas, científicas y educativas— no se escriben en soledad ni con la fuerza creativa del autor que las firma. Son coproducciones con inteligencia artificial. El fenómeno es tan masivo que ya no hablamos de excepción, sino de regla. Docentes que preparan planificaciones, alumnos que entregan ensayos, investigadores que redactan artículos y periodistas que publican notas: todos están usando IA, pero casi nadie lo reconoce.
Aquí aparece la trampa. No está en el uso de la herramienta, que puede ser legítima, sino en el ocultamiento sistemático. La transparencia no es bienvenida; al contrario, suele ser castigada. Quien se anima a confesar que usó IA en su trabajo es mirado con sospecha, como si hubiera cometido un fraude. Resultado: proliferan documentos que parecen humanos, pero que tienen escaso aporte humano real.
La incomodidad de la verdad
En el Decálogo por la transparencia y ética del uso de la inteligencia artificial en la producción académica señalé que la transparencia completa es, quizás, inalcanzable (Craig, 2024). Sin embargo, el camino más honesto es explicitar los grados de participación de la IA en los textos. Lo paradójico es que ese principio, en vez de celebrarse, incomoda. La mayoría prefiere el simulacro: fingir que escribe de cero, cuando en realidad está corrigiendo o adornando lo que salió de un modelo de lenguaje.
Esto no es un problema menor. Si aceptamos la mentira tácita como norma, estamos cultivando una cultura académica de fachada. El fraude deja de ser excepción para convertirse en paisaje naturalizado. Y lo más inquietante es que todos lo saben, pero pocos lo dicen.
La fábrica de documentos sin alma
La consecuencia inmediata de esta opacidad es la multiplicación de textos huecos. Documentos que cumplen con las formas, que aparentan rigor, pero que carecen de originalidad, reflexión y, en muchos casos, de verificación seria de los datos (Crawford, 2022). Se convierten en una especie de ruido académico, un océano de papeles que apenas disimulan su origen maquínico.
El problema no es solo ético; también es práctico. Cuando todo se llena de producciones generadas sin distinción, el valor del texto genuinamente humano —aquel que implica investigación, lectura crítica, escritura reflexiva— se diluye. La calidad se confunde con la cantidad. Y la academia, la ciencia y el periodismo pierden uno de sus capitales más valiosos: la confianza.
La resistencia a la transparencia
¿Por qué nadie quiere confesar el uso de IA? Porque vivimos en una cultura que todavía mide el valor del trabajo intelectual por la “pureza” de la autoría. Reconocer la mediación tecnológica parece una degradación, un gesto de debilidad. Y así, en lugar de abrir la discusión sobre cómo integrar la IA con ética y responsabilidad, se elige el silencio.
Pero el silencio es cómplice. La negativa a transparentar la coproducción con IA perpetúa desigualdades y mantiene intacta la ilusión de que los textos siguen naciendo de la mente individual, cuando en realidad se gestan en la interacción con máquinas (García-Peñalvo et al., 2024).
Trampas con nombre y apellido
La trampa no es abstracta. Tiene rostros concretos:
- El docente que entrega informes “propios” armados en diez minutos con ChatGPT.
- El alumno que presenta su ensayo como fruto de largas horas de estudio, cuando en verdad lo pegó de un generador automático.
- El investigador que publica un artículo en una revista indexada, adornado con citas bien colocadas pero escritas por una IA.
- El periodista que llena páginas de opinión con párrafos enteros generados en segundos.
Todos saben que no están solos en la escritura, pero todos callan. Y en ese pacto de silencio se esconde la verdadera estafa intelectual de nuestro tiempo.
La urgencia de decir basta
Lo que está en juego no es solo la autoría, sino la credibilidad de los sistemas educativos, de la ciencia y de los medios. Si seguimos produciendo bajo la lógica del engaño, nos encaminamos a una crisis de confianza difícil de revertir. La única salida es la transparencia, aunque incomode. Declarar el uso de IA no disminuye el valor del autor; al contrario, lo potencia, porque muestra honestidad y capacidad crítica para dialogar con la tecnología.
No reconocer la coproducción es ser tramposo. Y la trampa, tarde o temprano, siempre se paga.
Nota de transparencia
Como es lógico y en coherencia con lo expresado, este texto fue elaborado en coproducción entre el autor y un modelo de lenguaje de inteligencia artificial (ChatGPT-5, 2025). La IA fue utilizada para la revisión y la organización de ideas escritas originalmente por el autor, quien asume la responsabilidad de todo lo expresado.
Referencias
García-Peñalvo, F. et al. (2024). La nueva realidad de la educación ante los avances de la inteligencia artificial generativa. RIED. Revista Iberoamericana de Educación a Distancia, 27(1). https://doi.org/10.5944/ried.27.1
Craig, D. F. (2024). Decálogo por la transparencia y ética del uso de la inteligencia artificial en la producción académica. Recuperado de https://craig.ar/decalogo/ Decalogo-Trasparencia-Craig-v12
Crawford, K. (2022). Atlas de inteligencia artificial: poder, política y costos planetarios. Ciudad Autónoma de Buenos Aires: Fondo de Cultura Económica.
Comentarios recientes