La revista adhiere a los principios y recomendaciones de organismos internacionales —entre ellos UNESCO (2021, 2023), la Comisión Europea (2019, 2024),  COPE (2023) y WAME (2023)— sobre el uso ético, transparente y responsable de herramientas de inteligencia artificial (IA) en la producción, revisión y publicación de trabajos científicos. El uso de estas herramientas se admite de manera regulada, siempre que se sustente en principios de integridad, transparencia, trazabilidad, protección de datos y supervisión humana, y que la responsabilidad institucional y académica recaiga en todo momento sobre las personas involucradas en el proceso editorial.

1. Autoría

Las herramientas de IA no pueden figurar como autoras de artículos, imágenes, figuras, tablas ni ningún otro componente de un manuscrito. En tanto sistemas sin personalidad jurídica, no pueden asumir responsabilidad sobre el trabajo producido, declarar conflictos de interés, suscribir acuerdos de cesión de derechos ni garantizar la integridad de los datos. Este criterio es compartido por COPE (2023), WAME (2023) y la Declaración de Heredia (Penabad-Camacho et al., 2024).

Los autores y autoras son plenamente responsables del contenido de sus manuscritos, incluidas las secciones producidas total o parcialmente con asistencia de IA. Esta responsabilidad abarca la exactitud factual, la originalidad, la correcta citación de fuentes, la integridad de los datos y la eventual presencia de sesgos, errores o contenidos generados de manera incorrecta por el sistema ("alucinaciones").

2. Usos permitidos y declaración obligatoria

Se permite el uso de herramientas de IA generativa para tareas auxiliares de escritura, tales como corrección gramatical y ortográfica, mejora del estilo, traducción, formateo de referencias y ajustes de edición. En todos los casos, el uso debe ser declarado de forma explícita.

Cuando se hayan empleado herramientas de IA en cualquier etapa del proceso de investigación —incluyendo búsqueda y sistematización de bibliografía, análisis de datos, generación de texto o elaboración de figuras— los autores y autoras deberán consignarlo en la sección de metodología del artículo, especificando qué herramientas se utilizaron y con qué finalidad.

Además, inmediatamente antes de la sección de referencias bibliográficas, deberá incluirse un apartado titulado "Uso de inteligencia artificial", en el que se detalle qué sistemas se emplearon y para qué tareas; o bien se declare expresamente que no se recurrió a ninguna herramienta de este tipo. Esta declaración es obligatoria en todos los envíos.

Queda expresamente prohibido el uso de IA para crear, alterar, manipular o fabricar datos, resultados, imágenes, mediciones u otros elementos de la investigación original.

3. Revisión por pares

Los evaluadores y evaluadoras no pueden utilizar herramientas de IA para revisar los manuscritos que reciban en el marco del proceso de evaluación por pares. El uso de estas herramientas en esa instancia implicaría la transferencia de información confidencial a sistemas de terceros, con el consecuente riesgo de incumplimiento de las obligaciones de confidencialidad, privacidad y protección de datos que rigen el proceso editorial (COPE, 2023; European Commission, 2024; Oxford University, 2025).

4. Equipo editorial

El equipo editorial tampoco podrá emplear herramientas de IA para realizar comprobaciones, análisis o valoraciones sobre los manuscritos recibidos, por las mismas razones vinculadas a la confidencialidad y la protección de datos de autores/as y evaluadores/as.

El uso de IA en tareas administrativas o de gestión interna que no involucren el contenido de los manuscritos deberá contar con autorización expresa de la dirección editorial y realizarse con plena conciencia de los riesgos asociados.

5. Marco de referencia

Esta política se funda en los siguientes documentos y recomendaciones internacionales:

Bittle, K., & El-Gayar, O. (2025). Generative AI and academic integrity in higher education.  Information, 16 (4), 296. https://doi.org/10.3390/info16040296

European Commission, Directorate-General for Research and Innovation. (2024, March 20). Guidelines on the responsible use of generative AI in research developed by the European Research Area Forum. https://research-and-innovation.ec.europa.eu/news/all-research-and-innovation-news/guidelines-responsible-use-generative-ai-research-developed-european-research-area-forum-2024-03-20_en

European Commission High-Level Expert Group on Artificial Intelligence. (2019). Ethics guidelines for trustworthy AI. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

Organisation for Economic Co-operation and Development. (2019). OECD AI Principles. https://oecd.ai/en/ai-principles

Oxford University. (2025). Policy for using Generative AI in Research: Guidelines for researchers and professional staff. University of Oxford. https://www.ox.ac.uk/research/support-researchers/research-practice/policy-generative-ai-research

Penabad-Camacho, L., Penabad-Camacho, M. A., Mora-Campos, A., Cerdas-Vega, G., Morales-López, Y., Ulate-Segura, M., Méndez-Solano, A., Nova-Bustos, N., Vega-Solano, M. F., & Castro-Solano, M. M. (2024). Heredia Declaration: Principles on the use of Artificial Intelligence in Scientific Publishing.  Revista Electrónica Educare, 28 (S), 1–10. https://doi.org/10.15359/ree.28-S.19967

Publication Ethics Committee. (2023). Authorship and AI tools. COPE. https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools

UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa

UNESCO. (2023). Guidance for generative AI in education and research. https://unesdoc.unesco.org/ark:/48223/pf0000386693

UNESCO IESALC. (2023). ChatGPT e inteligencia artificial en la educación superior: Guía de inicio rápido. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000385146_spa

WAME. (2023). Chatbots, generative AI, and scholarly manuscripts: WAME recommendations on chatbots and generative artificial intelligence in relation to scholarly publications. World Association of Medical Editors. https://wame.org/page3.php?id=106