Dificultades para Identificar la Autoría de Contenidos Generados por IA

Dificultades para Identificar la Autoría de Contenidos Generados por IA

Complicado identificar la autoría de contenidos generados por IA

Preocupaciones académicas, retos forenses y nuevos desafíos éticos

Durante el AI Summit 2025, expertos de la UNAM y del sector tecnológico abordaron los crecientes retos en torno a la autoría de contenidos generados por inteligencia artificial (IA). La investigadora Helena Gómez Adorno, del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS), explicó que identificar si un texto fue creado por un humano o una IA es cada vez más complicado. Antes se analizaban “huellas de estilo” como la puntuación o las elecciones léxicas; hoy, esos patrones se vuelven obsoletos con cada nuevo modelo de lenguaje.

Gómez Adorno señaló que la estilometría, junto con técnicas de machine learning y deep learning, han sido útiles en el pasado, pero ahora requieren actualizaciones constantes. Cada nuevo modelo de IA presenta estilos distintos, lo que obliga a reentrenar los sistemas de detección.

En el ámbito educativo, también existe preocupación. ¿Estas herramientas fomentan el pensamiento crítico o lo debilitan? ¿Cómo afectan los procesos de evaluación y enseñanza? Para la experta, es urgente integrar la IA al aprendizaje desde una perspectiva ética y pedagógica.

¿A quién pertenece lo generado por IA?

El investigador Jorge Pérez González, también del IIMAS, reflexionó sobre los derechos de autor en creaciones realizadas con ayuda de IA. En la generación de una imagen, por ejemplo, participan desarrolladores de algoritmos, generadores de bases de datos y usuarios que dan las instrucciones. Esto plantea una pregunta esencial: ¿quién es el verdadero autor?

En regiones como Estados Unidos y Europa, la ley exige que exista intervención humana para reconocer autoría. Además, los avances en algoritmos de clasificación permiten detectar plagio o distinguir entre imágenes reales y sintéticas mediante firmas digitales, patrones y metadatos. No obstante, Pérez González advirtió que estamos entrando en un “círculo vicioso” donde las IA generan contenido que otras IA supervisan, por lo que la intervención humana sigue siendo crucial.

El reto de distinguir voces reales de sintéticas

Desde la perspectiva forense, Fernanda López Escobedo, de la Escuela Nacional de Ciencias Forenses, subrayó los avances y riesgos de los sintetizadores de voz. Aunque han permitido imitar emociones y dialectos, también han sido utilizados para cometer fraudes y difundir desinformación.

La experta explicó que el análisis forense de voz ya no sólo consiste en comparar la voz sospechosa (dubitada) con una muestra confirmada (indubitada), sino también en determinar si esa voz fue generada por IA. Antes era sencillo reconocer una voz sintética por su tono plano; ahora, los sintetizadores imitan tan bien la entonación y la emoción humanas que diferenciar entre una voz real y una artificial se ha vuelto un verdadero reto técnico.

Según López Escobedo, la clave está en identificar lo que aún no es tan imitable: detalles como la duración de las vocales o la relajación al final de una oración, aunque incluso estos rasgos podrían ser replicados por IA en el futuro.


En resumen:

  • Detectar la autoría de textos y contenidos generados por IA es un desafío creciente.
  • La intervención humana sigue siendo indispensable en la supervisión y la evaluación de la creatividad asistida por IA.
  • Se requieren políticas claras, alfabetización digital desde etapas tempranas y herramientas tecnológicas actualizadas para enfrentar estos retos.

🔗 Agradecemos a la Dirección General de Comunicación Social de la UNAM por el contenido original. Puedes consultar la nota completa aquí: Boletín UNAM-DGCS-383

📬 ¿Te interesa este tipo de temas?
¡Suscríbete a nuestro newsletter
para recibir contenido especializado sobre ciencia, tecnología, educación y actualidad universitaria!