SciELO - Scientific Electronic Library Online

 
vol.75 número5Estudio coste-efectividad del diagnóstico de trombosis venosa profunda en el medio hospitalario índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Compartir


Angiología

versión On-line ISSN 1695-2987versión impresa ISSN 0003-3170

Angiología vol.75 no.5 Madrid sep./oct. 2023  Epub 11-Dic-2023

https://dx.doi.org/10.20960/angiologia.00512 

Editorial

La inteligencia artificial en la redacción y autoría de publicaciones científicas

Rafael Fernández-Samos-Gutiérrez1 

1Servicio de Angiología, Cirugía Vascular y Endovascular. Complejo Asistencial Universitario de León. León

ChatGPT (Chat Generative Pre-trained Transformer) es un chatbot de inteligencia artificial (IA) de acceso libre desarrollado en 2022 por OpenAI (San Francisco, California, EE. UU., 30/11/2022) (1).

Es un modelo con más de 175 millones de parámetros entrenado para realizar tareas relacionadas con el lenguaje, desde la traducción hasta la generación de texto, y va perfeccionándose y creciendo mediante aprendizaje supervisado y aprendizaje por refuerzo.

Lo más sorprendente de ChatGPT es que es capaz de dar respuestas acertadas y completas y de expresarse de manera natural con información muy exacta, lo que hace complicado distinguir si un texto ha sido generado por una IA, lo que revoluciona el proceso editorial, porque estos programas utilizan técnicas avanzadas y procesos naturales de aprendizaje y lenguaje (2).

En muy poco tiempo, los editores de revistas médicas y los investigadores han tenido que poner sobre la mesa el papel que pueden representar las herramientas de IA en la literatura científica y si es correcto citarlas en las autorías de las publicaciones (3,4), ya que existe una amenaza real de avalancha de artículos falsos escritos por máquinas que puede ahogar el proceso científico en un “océano de basura” (5).

Las revistas tienen motivos para preocuparse (6), porque puede comprometerse la propia existencia del proceso de revisión por pares, un mecanismo fundamental que rige cómo se hace la ciencia. La facilidad de producir artículos atractivos pero insustanciales saca a la luz lo delgada que es la barrera que separa la ciencia real de lo absurdo. Es urgente conocer si mediante IA pueden escribirse trabajos científicos convincentes.

La IA, por el momento, no puede generar ideas nuevas, pero puede organizar y desarrollar las que se le proporcionen, lo que supone un punto de partida para desarrollar en un futuro no muy lejano textos de estilo “humano” que podrían llegar a sustituir el conocimiento, la creatividad y el pensamiento científico (7), ya que la IA puede participar en la redacción de borradores, resúmenes y traducciones, en la recopilación y análisis de datos, en la bibliografía e incluso recomponiendo los textos para ajustarlos al tamaño exigido y formateando o reescribiendo el lenguaje para hacerlo más inteligible, ofreciendo sugerencias sobre su estructura de forma rápida y fácil para llegar a escribir, al final, el trabajo completo (8). Una herramienta de este tipo también podría salvar la brecha lingüística facilitando la publicación de investigaciones realizadas y escritas en otros idiomas.

Los trabajos escritos por ChatGPT pueden ser lo “suficientemente científicos” como para engañar, y peor aún, los artículos escritos en coautoría con IA ya están abriéndose camino en la literatura. Un programa de IA no puede ser un autor. Una violación de estas políticas puede constituir un fraude científico equiparable a la alteración de imágenes o al plagio de trabajos existentes, con fronteras éticas aún por determinar (9).

Hasta ahora, el proceso de escribir un trabajo científico requería la guía y la supervisión de investigadores “humanos” expertos en el tema que aseguraban la veracidad, la coherencia y la credibilidad del contenido antes de que se enviara para su publicación. Aunque los chatbots pueden ayudar, necesitan ser “alimentados” por los investigadores, y si lo que se les aporta es incorrecto, generarán resultados erróneos. Por esta razón, tanto los chatbots como otros tipos de IA no pueden reemplazar, de momento, la experiencia, el juicio, la personalidad y ni la responsabilidad de un investigador.

¿Cómo puede reconocerse si un texto ha sido generado por IA? Estos textos suelen carecer de matices, estilo y originalidad. También se dispone de detectores de IA o de revisores expertos. Pero, desgraciadamente, muchos defectos similares pueden encontrarse en textos escritos por “humanos” (“copia-pega” de trabajos previos, errores en las traducciones de trabajos escritos en idiomas distintos al nativo del que los redacta), por lo que los programas detectores de plagio pueden equivocarse (10). Por ese motivo, las editoriales, para protegerse, deberían proveerse de detectores de IA como parte del proceso editorial.

Como perspectiva de futuro, la IA podría ser entrenada para extraer automáticamente y “comprender” toda la información relevante de registros electrónicos y datos de los pacientes (signos vitales, resultados de laboratorio, historias médicas, etc.) para ayudar a los profesionales en la toma de decisiones o para redactar informes de alta (11), ya que hoy en día las historias electrónicas están implantadas en todos los hospitales y los sistemas sanitarios y de cuidados en salud tienden a automatizarse, sobre todo en lo referido a la documentación. Los chatbots también pueden usarse en aspectos asistenciales, minimizando las posibilidades de error, por ejemplo, en las zonas de triaje de las urgencias donde se necesitan actuaciones rápidas, tanto de forma presencial como remota (12).

¿Es correcto citar a ChatGPT entre los autores de un manuscrito? Esta cuestión, que no está por el momento definida, puede llegar a tener consecuencias impredecibles. El Comité Internacional de Editores de Revistas Médicas (13) recomienda basar la evaluación de la autoría en cuatro criterios. Para figurar como autor, hay que:

  1. Haber contribuido sustancialmente a la concepción o al diseño del trabajo o a la adquisición, análisis e interpretación de los datos.

  2. Haber redactado el artículo o haberlo revisado críticamente añadiendo contenido intelectual importante.

  3. Haber dado la aprobación final a la versión que se publicará.

  4. Haber aceptado responsabilizarse de todos los aspectos del trabajo, garantizando que las cuestiones relativas a la exactitud o a la integridad de cualquier parte del trabajo se investiguen y se resuelvan adecuadamente.

Por estos motivos, las secciones de los artículos creadas con IA deberían estar adecuadamente especificadas y la metodología utilizada para generarlas debería explicarse en el propio artículo, incluyendo el nombre y la versión del software utilizado, en aras de la transparencia.

Se desaconseja encarecidamente la presentación de trabajos elaborados íntegramente mediante IA, sobre todo si se trata de revisiones sistemáticas de la literatura, entre otras cosas por la inmadurez del sistema y su tendencia a perpetuar los sesgos estadísticos y de selección presentes en las instrucciones del creador del sistema, a menos que los estudios en cuestión tengan por objeto precisamente evaluar la fiabilidad de tales sistemas (objetivo que, obviamente, debe explicitarse en el propio trabajo) (14). También se desaconseja la generación de imágenes y su uso en artículos científicos porque son contrarios a las normas de ética de las publicaciones científicas, a menos que estas imágenes sean en sí mismas objeto de la investigación.

El proceso de verificación de la información es lo que da valor a las revistas arbitradas, pero como hacer bien ese proceso requiere mucho trabajo, genera una disminución casi inevitable en la calidad de la revisión por pares.

Existe un problema objetivo de sobreproducción de contenidos científicos, lo que hace casi imposible que un experto se mantenga al día en los avances de su propio campo disciplinar. Es difícil entender por qué la comunidad científica debe facilitar o promover una herramienta de IA que aumente la velocidad y la cantidad de artículos, mientras que lo mejor sería publicar trabajos científicos de mejor calidad y mayor significación estadística. El perfeccionamiento de estas herramientas podría hacer que la capacidad de escribir un artículo científico pasara de ser un requisito previo a convertirse en una habilidad accesoria.

¿Dónde queda nuestra responsabilidad? La incorporación de la tecnología está en la línea de salida para contribuir a la investigación médica y al cuidado de los pacientes. La medicina debe considerar el uso de los chatbots y el de la IA, asegurar que son adecuados para este propósito, que cumplen con los estándares de nuestras especialidades y reconocer los errores que pueden suceder con su uso (15).

Hay muchas cuestiones éticas sobre las que la comunidad científica tendrá que reflexionar, ya que la IA no hará sino mejorar con el tiempo: la tecnología está aquí, así que será mejor aprender a vivir con ella.

P. D.: este artículo no ha sido escrito con ChatGPT.

BIBLIOGRAFÍA/REFERENCES

1. OpenAI. Disponible en: https://openai.com/blog/chatGPT [consultado: 14-3-2023]. [ Links ]

2. King MR. The future of AI in medicine: a perspective from a Chatbot. Ann Biomed Eng 2022;51:291-5. DOI: 10.1007/s10439-022-03121-w [ Links ]

3. Thorp HH. ChatGPT is fun, but not an author. Science 2023;379(6630):312-3. DOI: 10.1126/science.adg7879 [ Links ]

4. Stokel-Walker C. ChatGPT listed as author on research papers. Nature 2023;613(7945):620-1. DOI: 10.1038/d41586-023-00107-z [ Links ]

5. Seife C. La inteligencia artificial evidencia una enfermedad en el proceso científico. Letras Libres 10-2-2023 [consultado: 14-3-2023]. Disponible en: https://letraslibres.com/ciencia-tecnologia/future-tense-inteligencia-artificial-chatgpt-revistas-cientificas-arbitrajeLinks ]

6. The Lancet Digital Health. ChatGPT: friend or foe? Lancet Digit Health 2023;5(3):e102. DOI: 10.1016/S2589-7500(23)00023-7 [ Links ]

7. Gordijn B. Have HT. ChatGPT: evolution or revolution? Med Health Care Philos 2023;26(1):1-2. DOI: 10.1007/s11019-023-10136-0 [ Links ]

8. Salvagno M, Taccone FS, Gerli AG. Can artificial intelligence help for scientific writing? Crit Care 2023;27(1):75. DOI: 10.1186/s13054-023-04380-2 [ Links ]

9. Stokel-Walker C. AI bot ChatGPT writes smart essays - should professors worry? Nature 2022. DOI: 10.1038/d41586-022-04397-7. Online ahead of print. [ Links ]

10. Gao CA, Howard FM, Markov NS, D, et al. Comparing scientific abstracts generated by ChatGPT to original abstracts using an artificial intelligence output detector, plagiarism detector, and blinded human reviewers. bioRxiv preprint. 2022. DOI: https://doi.org/10.1101/2022.12.23.521610 [ Links ]

11. Patel SB, Lam K. ChatGPT: the future of discharge summaries? Lancet Digit Health 2023;5(3):e107-8. DOI: 10.1016/S2589-7500(23)00021-3 [ Links ]

12. Kung TH, Cheatham M, Medenilla A, et al. Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models. PLOS Digit Health 2023;2(2):e0000198. DOI: 10.1101/2022.12.19.22283643 [ Links ]

13. International Committee of Medical Journal Editors (ICMJE). Recommendations for the Conduct, Reporting, Editing, and Publication of Scholarly Work in Medical Journals. Updated May 2022 [consultado: 14-3-23]. Disponible en: https://www.icmje.org/icmje-recommendations.pdfLinks ]

14. Ovadia D. ChatGPT como coautor de artículos científicos: ¿es posible? [consultado: 14-3-23]. Disponible en: https://www.univadis.es/viewarticle/chatgpt-como-coautor-de-art%25C3%25ADculos-cient%25C3%25ADficos-es-2023a10002b0Links ]

15. D'Amico RS, White TG, Shah HA, et al. I Asked a ChatGPT to Write an Editorial About How We Can Incorporate Chatbots into Neurosurgical Research and Patient Care... Neurosurgery 2023;92(4):663-4. DOI: 10.1227/neu.0000000000002414 [ Links ]

Conflicto de intereses:

el autor declara no tener conflicto de interés.

Creative Commons License This is an open-access article distributed under the terms of the Creative Commons Attribution License