Política del uso de la Inteligencia Artificial (IA)

Política editorial sobre el uso de Inteligencia Artificial (IA) en la producción de manuscritos
La revista de la Sociedad Científica del Paraguay establece las siguientes directrices para el uso responsable, transparente y éticamente adecuado de herramientas de Inteligencia Artificial (IA) generativa en la preparación, análisis y presentación de manuscritos sometidos a evaluación.
 

1. Política sobre el uso de Inteligencia Artificial (IA) para AUTORES

1.1. Autoría

  • Las herramientas de IA generativa no pueden ser consideradas autoras ni coautoras.
  • La responsabilidad ética, legal e intelectual del manuscrito recae exclusivamente en los autores humanos.
  • Los autores deben revisar, validar y asumir plenamente cualquier contenido producido con apoyo de IA.

1.2. Declaración de uso de IA

  • Todo uso de IA en la preparación del manuscrito debe declararse explícitamente.
  • La declaración debe incluir:
Herramienta utilizada
Versión o plataforma (si corresponde)
Función específica (p. ej., redacción, análisis de datos, generación de figuras)
  • Esta información debe ubicarse en la sección de Metodología, Agradecimientos o en una nota aclaratoria.

1.3. Responsabilidad sobre el contenido

  • Los autores deben verificar la exactitud de datos, referencias, interpretaciones y figuras generadas con IA.
  • No se permite el uso de IA para fabricar datos, manipular imágenes o alterar resultados.
  • El uso de IA para mejorar la claridad lingüística es aceptable siempre que no modifique el contenido científico.

2. Política sobre el uso de Inteligencia Artificial (IA) para REVISORES

2.1. Confidencialidad y ética

  • Los revisores no deben introducir contenido del manuscrito en herramientas de IA generativa que no garanticen confidencialidad.
  • Está prohibido cargar textos completos o fragmentos sustanciales del manuscrito en plataformas públicas de IA.

2.2. Uso permitido

  • Los revisores pueden utilizar IA para:

           Mejorar la redacción de sus comentarios

           Verificar conceptos generales

           Apoyar la claridad de sus observaciones

  • En todos los casos, el juicio crítico y la evaluación científica deben ser exclusivamente humanos.

2.3. Responsabilidad del revisor

  • Los revisores deben garantizar que sus dictámenes no dependan de interpretaciones generadas por IA.
  • Deben evaluar si el manuscrito declara adecuadamente el uso de IA por parte de los autores.
  • Si detectan señales de uso inapropiado de IA (p. ej., referencias inexistentes, incoherencias), deben informarlo al editor.

3. Política sobre el uso de Inteligencia Artificial (IA) para EDITORES

3.1. Supervisión editorial

  • Los editores deben verificar que los autores hayan declarado el uso de IA cuando corresponda.
  • Pueden solicitar aclaraciones adicionales sobre el uso de IA durante la revisión o edición final.

3.2. Uso Responsable de IA en procesos editoriales

  • Los editores pueden utilizar IA para:

          Apoyar tareas administrativas (p. ej., sugerencias de revisores)

          Mejorar la claridad de comunicaciones editoriales

          Detectar posibles inconsistencias o patrones de texto atípicos

  • La IA no debe reemplazar la evaluación editorial ni la toma de decisiones.

3.3. Integridad y confidencialidad

  • Los editores no deben cargar manuscritos completos en herramientas de IA que no garanticen privacidad.
  • Toda decisión editorial debe basarse en criterios científicos, éticos y humanos, no en recomendaciones automatizadas.

3.4. Gestión de incumplimientos

  • Si se detecta uso indebido de IA por parte de autores o revisores, el editor debe:

           Solicitar aclaraciones

           Requerir correcciones

           Rechazar el manuscrito si corresponde

           Informar al Consejo Editorial en casos graves