ChatGPT (Chat Generative Pre-trained Transformer) es un chatbot de inteligencia artificial (IA) de acceso libre desarrollado en 2022 por OpenAI (San Francisco, California, EE. UU., 30/11/2022) (1).
Es un modelo con más de 175 millones de parámetros entrenado para realizar tareas relacionadas con el lenguaje, desde la traducción hasta la generación de texto, y va perfeccionándose y creciendo mediante aprendizaje supervisado y aprendizaje por refuerzo.
Lo más sorprendente de ChatGPT es que es capaz de dar respuestas acertadas y completas y de expresarse de manera natural con información muy exacta, lo que hace complicado distinguir si un texto ha sido generado por una IA, lo que revoluciona el proceso editorial, porque estos programas utilizan técnicas avanzadas y procesos naturales de aprendizaje y lenguaje (2).
En muy poco tiempo, los editores de revistas médicas y los investigadores han tenido que poner sobre la mesa el papel que pueden representar las herramientas de IA en la literatura científica y si es correcto citarlas en las autorías de las publicaciones (3,4), ya que existe una amenaza real de avalancha de artículos falsos escritos por máquinas que puede ahogar el proceso científico en un “océano de basura” (5).
Las revistas tienen motivos para preocuparse (6), porque puede comprometerse la propia existencia del proceso de revisión por pares, un mecanismo fundamental que rige cómo se hace la ciencia. La facilidad de producir artículos atractivos pero insustanciales saca a la luz lo delgada que es la barrera que separa la ciencia real de lo absurdo. Es urgente conocer si mediante IA pueden escribirse trabajos científicos convincentes.
La IA, por el momento, no puede generar ideas nuevas, pero puede organizar y desarrollar las que se le proporcionen, lo que supone un punto de partida para desarrollar en un futuro no muy lejano textos de estilo “humano” que podrían llegar a sustituir el conocimiento, la creatividad y el pensamiento científico (7), ya que la IA puede participar en la redacción de borradores, resúmenes y traducciones, en la recopilación y análisis de datos, en la bibliografía e incluso recomponiendo los textos para ajustarlos al tamaño exigido y formateando o reescribiendo el lenguaje para hacerlo más inteligible, ofreciendo sugerencias sobre su estructura de forma rápida y fácil para llegar a escribir, al final, el trabajo completo (8). Una herramienta de este tipo también podría salvar la brecha lingüística facilitando la publicación de investigaciones realizadas y escritas en otros idiomas.
Los trabajos escritos por ChatGPT pueden ser lo “suficientemente científicos” como para engañar, y peor aún, los artículos escritos en coautoría con IA ya están abriéndose camino en la literatura. Un programa de IA no puede ser un autor. Una violación de estas políticas puede constituir un fraude científico equiparable a la alteración de imágenes o al plagio de trabajos existentes, con fronteras éticas aún por determinar (9).
Hasta ahora, el proceso de escribir un trabajo científico requería la guía y la supervisión de investigadores “humanos” expertos en el tema que aseguraban la veracidad, la coherencia y la credibilidad del contenido antes de que se enviara para su publicación. Aunque los chatbots pueden ayudar, necesitan ser “alimentados” por los investigadores, y si lo que se les aporta es incorrecto, generarán resultados erróneos. Por esta razón, tanto los chatbots como otros tipos de IA no pueden reemplazar, de momento, la experiencia, el juicio, la personalidad y ni la responsabilidad de un investigador.
¿Cómo puede reconocerse si un texto ha sido generado por IA? Estos textos suelen carecer de matices, estilo y originalidad. También se dispone de detectores de IA o de revisores expertos. Pero, desgraciadamente, muchos defectos similares pueden encontrarse en textos escritos por “humanos” (“copia-pega” de trabajos previos, errores en las traducciones de trabajos escritos en idiomas distintos al nativo del que los redacta), por lo que los programas detectores de plagio pueden equivocarse (10). Por ese motivo, las editoriales, para protegerse, deberían proveerse de detectores de IA como parte del proceso editorial.
Como perspectiva de futuro, la IA podría ser entrenada para extraer automáticamente y “comprender” toda la información relevante de registros electrónicos y datos de los pacientes (signos vitales, resultados de laboratorio, historias médicas, etc.) para ayudar a los profesionales en la toma de decisiones o para redactar informes de alta (11), ya que hoy en día las historias electrónicas están implantadas en todos los hospitales y los sistemas sanitarios y de cuidados en salud tienden a automatizarse, sobre todo en lo referido a la documentación. Los chatbots también pueden usarse en aspectos asistenciales, minimizando las posibilidades de error, por ejemplo, en las zonas de triaje de las urgencias donde se necesitan actuaciones rápidas, tanto de forma presencial como remota (12).
¿Es correcto citar a ChatGPT entre los autores de un manuscrito? Esta cuestión, que no está por el momento definida, puede llegar a tener consecuencias impredecibles. El Comité Internacional de Editores de Revistas Médicas (13) recomienda basar la evaluación de la autoría en cuatro criterios. Para figurar como autor, hay que:
Haber contribuido sustancialmente a la concepción o al diseño del trabajo o a la adquisición, análisis e interpretación de los datos.
Haber redactado el artículo o haberlo revisado críticamente añadiendo contenido intelectual importante.
Haber dado la aprobación final a la versión que se publicará.
Haber aceptado responsabilizarse de todos los aspectos del trabajo, garantizando que las cuestiones relativas a la exactitud o a la integridad de cualquier parte del trabajo se investiguen y se resuelvan adecuadamente.
Por estos motivos, las secciones de los artículos creadas con IA deberían estar adecuadamente especificadas y la metodología utilizada para generarlas debería explicarse en el propio artículo, incluyendo el nombre y la versión del software utilizado, en aras de la transparencia.
Se desaconseja encarecidamente la presentación de trabajos elaborados íntegramente mediante IA, sobre todo si se trata de revisiones sistemáticas de la literatura, entre otras cosas por la inmadurez del sistema y su tendencia a perpetuar los sesgos estadísticos y de selección presentes en las instrucciones del creador del sistema, a menos que los estudios en cuestión tengan por objeto precisamente evaluar la fiabilidad de tales sistemas (objetivo que, obviamente, debe explicitarse en el propio trabajo) (14). También se desaconseja la generación de imágenes y su uso en artículos científicos porque son contrarios a las normas de ética de las publicaciones científicas, a menos que estas imágenes sean en sí mismas objeto de la investigación.
El proceso de verificación de la información es lo que da valor a las revistas arbitradas, pero como hacer bien ese proceso requiere mucho trabajo, genera una disminución casi inevitable en la calidad de la revisión por pares.
Existe un problema objetivo de sobreproducción de contenidos científicos, lo que hace casi imposible que un experto se mantenga al día en los avances de su propio campo disciplinar. Es difícil entender por qué la comunidad científica debe facilitar o promover una herramienta de IA que aumente la velocidad y la cantidad de artículos, mientras que lo mejor sería publicar trabajos científicos de mejor calidad y mayor significación estadística. El perfeccionamiento de estas herramientas podría hacer que la capacidad de escribir un artículo científico pasara de ser un requisito previo a convertirse en una habilidad accesoria.
¿Dónde queda nuestra responsabilidad? La incorporación de la tecnología está en la línea de salida para contribuir a la investigación médica y al cuidado de los pacientes. La medicina debe considerar el uso de los chatbots y el de la IA, asegurar que son adecuados para este propósito, que cumplen con los estándares de nuestras especialidades y reconocer los errores que pueden suceder con su uso (15).
Hay muchas cuestiones éticas sobre las que la comunidad científica tendrá que reflexionar, ya que la IA no hará sino mejorar con el tiempo: la tecnología está aquí, así que será mejor aprender a vivir con ella.
P. D.: este artículo no ha sido escrito con ChatGPT.