Política del uso de la Inteligencia Artificial (IA)
La revista de la Sociedad Científica del Paraguay establece las siguientes directrices para el uso responsable, transparente y éticamente adecuado de herramientas de Inteligencia Artificial (IA) generativa en la preparación, análisis y presentación de manuscritos sometidos a evaluación.
1. Política sobre el uso de Inteligencia Artificial (IA) para AUTORES
1.1. Autoría
- Las herramientas de IA generativa no pueden ser consideradas autoras ni coautoras.
- La responsabilidad ética, legal e intelectual del manuscrito recae exclusivamente en los autores humanos.
- Los autores deben revisar, validar y asumir plenamente cualquier contenido producido con apoyo de IA.
1.2. Declaración de uso de IA
- Todo uso de IA en la preparación del manuscrito debe declararse explícitamente.
- La declaración debe incluir:
Herramienta utilizada
Versión o plataforma (si corresponde)
Función específica (p. ej., redacción, análisis de datos, generación de figuras)
- Esta información debe ubicarse en la sección de Metodología, Agradecimientos o en una nota aclaratoria.
1.3. Responsabilidad sobre el contenido
- Los autores deben verificar la exactitud de datos, referencias, interpretaciones y figuras generadas con IA.
- No se permite el uso de IA para fabricar datos, manipular imágenes o alterar resultados.
- El uso de IA para mejorar la claridad lingüística es aceptable siempre que no modifique el contenido científico.
2. Política sobre el uso de Inteligencia Artificial (IA) para REVISORES
2.1. Confidencialidad y ética
- Los revisores no deben introducir contenido del manuscrito en herramientas de IA generativa que no garanticen confidencialidad.
- Está prohibido cargar textos completos o fragmentos sustanciales del manuscrito en plataformas públicas de IA.
2.2. Uso permitido
- Los revisores pueden utilizar IA para:
Mejorar la redacción de sus comentarios
Verificar conceptos generales
Apoyar la claridad de sus observaciones
- En todos los casos, el juicio crítico y la evaluación científica deben ser exclusivamente humanos.
2.3. Responsabilidad del revisor
- Los revisores deben garantizar que sus dictámenes no dependan de interpretaciones generadas por IA.
- Deben evaluar si el manuscrito declara adecuadamente el uso de IA por parte de los autores.
- Si detectan señales de uso inapropiado de IA (p. ej., referencias inexistentes, incoherencias), deben informarlo al editor.
3. Política sobre el uso de Inteligencia Artificial (IA) para EDITORES
3.1. Supervisión editorial
- Los editores deben verificar que los autores hayan declarado el uso de IA cuando corresponda.
- Pueden solicitar aclaraciones adicionales sobre el uso de IA durante la revisión o edición final.
3.2. Uso Responsable de IA en procesos editoriales
- Los editores pueden utilizar IA para:
Apoyar tareas administrativas (p. ej., sugerencias de revisores)
Mejorar la claridad de comunicaciones editoriales
Detectar posibles inconsistencias o patrones de texto atípicos
- La IA no debe reemplazar la evaluación editorial ni la toma de decisiones.
3.3. Integridad y confidencialidad
- Los editores no deben cargar manuscritos completos en herramientas de IA que no garanticen privacidad.
- Toda decisión editorial debe basarse en criterios científicos, éticos y humanos, no en recomendaciones automatizadas.
3.4. Gestión de incumplimientos
- Si se detecta uso indebido de IA por parte de autores o revisores, el editor debe:
Solicitar aclaraciones
Requerir correcciones
Rechazar el manuscrito si corresponde
Informar al Consejo Editorial en casos graves











