SciELO - Scientific Electronic Library Online

 
vol.75 número6Influencia del estrés oxidativo en la evolución de la aterosclerosis carotídea índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Compartir


Angiología

versión On-line ISSN 1695-2987versión impresa ISSN 0003-3170

Angiología vol.75 no.6 Madrid nov./dic. 2023  Epub 29-Ene-2024

https://dx.doi.org/10.20960/angiologia.00587 

Editorial

La inteligencia artificial en publicaciones

Artificial intelligence in papers

José A González Fajardo1 

1Servicio de Angiología, Cirugía Vascular y Endovascular. Hospital Universitario 12 de Octubre. Madrid

En el último número de Angiología se abordó, en una editorial del Dr. Fernández-Samos (1) y en una carta al director del Dr. Roco-Videla y cols. desde chile (2), el problema de la inteligencia artificial y de su uso en el análisis de la investigación y de la literatura biomédica. Sin lugar a duda planteaban un interesante tema a debate que es necesario afrontar.

En noviembre de 2022, OpenAI lanzó una nueva herramienta de procesamiento de lenguaje natural de código abierto llamada ChatGPT. ChatGPT es una evolución de un chatbot que está diseñado para simular una conversación humana en respuesta a indicaciones o preguntas (GPT significa “transformador generativo preentrenado”). El lanzamiento ha provocado un entusiasmo inmediato sobre sus muchos usos potenciales, pero también inquietud sobre el posible uso indebido o el uso fraudulento del modelo de lenguaje para hacer trampas a la hora de escribir ensayos y en la tareas y ejercicios de estudiante, incluidos los de medicina.

En enero de 2023, la revista Nature (3) informó acerca de dos preimpresiones y dos artículos publicados en los campos de la ciencia y la salud que incluían a ChatGPT como autor firmado. Cada uno de estos añadían una afiliación a ChatGPT y uno de los artículos incluía una dirección de correo electrónico para el “autor” no humano. Según Nature, la inclusión de ChatGPT en la firma del autor de ese artículo fue un “error que pronto será corregido”. Sin embargo, estos artículos y sus “autores” no humanos ya han sido indexados en PubMed y Google Scholar.

Otras revistas (Science o JAMA) (4) y diversas organizaciones están desarrollando rápidamente políticas que prohíben la inclusión de estas tecnologías no humanas como “autores” y que van desde prohibir la inclusión de texto generado por IA en el trabajo enviado hasta exigir total transparencia, responsabilidad y rendición de cuentas sobre cómo se utilizan en una publicación académica. La Conferencia Internacional sobre Aprendizaje Automático, que publica convocatorias para la revisión y la discusión de artículos en sus conferencias, también ha anunciado una nueva política: “Los artículos que incluyan texto generado a partir de un modelo de lenguaje a gran escala (LLM) como ChatGPT están prohibidos a menos que el texto producido se presente como parte del análisis experimental del artículo”.

Nosotros somos una revista sencilla y modesta, pero que, reconociendo estas preocupaciones, creemos que debemos posicionarnos con respecto a estas nuevas tecnologías. Como dicen nuestros compañeros: “Estamos en el umbral de una nueva era en el ámbito de las publicaciones académicas, donde los aspectos éticos desempeñarán un papel fundamental para garantizar la calidad y el futuro de la divulgación científica”. Se hace necesario, por tanto, abordar los desafíos éticos y establecer criterios claros para los autores de trabajos científicos. En este sentido, la revista Angiología declara explícitamente que no aceptará ningún trabajo parcial o totalmente generado por IA y prohíbe la inclusión de estas tecnologías no humanas como autores.

En las nuevas normas editoriales se incluirá el siguiente párrafo:

Responsabilidades del autor:

Será responsabilidad ética de los autores el uso parcial o total de inteligencia artificial en la elaboración de manuscritos, quedando prohibida su inclusión como autores.

Se desaconseja el envío y la publicación de contenido creado mediante inteligencia artificial, modelos de lenguaje, aprendizaje automático o tecnologías similares. Si lo hubiera, debería ser reconocido y explicado en la sección “Material y métodos”.

En la primera página de un manuscrito, los autores deberán incluir una declaración formal de que el documento no ha sido elaborado con inteligencia artificial.

En esta nueva era de información masiva y desconfianza generalizadas, el uso responsable de los modelos de lenguaje de IA y la declaración transparente sobre cómo se utilizan estas herramientas son vitales para promover y proteger el esfuerzo de los verdaderos autores de manuscritos que se envían para publicación. Tratamos así, desde nuestra modesta posición, de proteger la credibilidad y la integridad de la investigación y el reconocimiento de los autores.

BIBLIOGRAFÍA

1. Fernández-Samos Gutiérrez R. La inteligencia artificial en la redacción y autoría de publicaciones científicas. Angiología 2023;75(5):281-3. DOI:10.20960/angiologia.00512 [ Links ]

2. Roco-Videla A, Aguilera-Eguía R, Olguin-Barraza M, Flores-Fernández C. El papel de la inteligencia artificial en las revisiones sistemáticas:implicaciones y desafíos para la divulgación científica. Angiología 2023;75(5):344-5. DOI:10.20960/angiologia.00552 [ Links ]

3. Tools such as ChatGPT threaten transparent science;here are our ground rules for their use. Nature 2023;613:612. DOI: https://doi.org/10.1038/d41586-023-00191-1 [ Links ]

4. Flanagin A, Bibbins-Domingo K, Berkwits M, Christiensen SL. Nonhuman “Authors”and Implications for the Integrity of Scientific Publication and Medical Knowledge. JAMA 2023;329:637-9. DOI:10.1001/jama.2023.1344. [ Links ]

Creative Commons License This is an open-access article distributed under the terms of the Creative Commons Attribution License