INTRODUCCIÓN
La utilización de prácticas seguras puede ayudar a minimizar los eventos adversos asociados a la terapia de nutrición enteral (TNE). Los profesionales de enfermería, responsables de la administración y la supervisión de la TNE (1), garantizan su calidad mediante el cumplimiento de las buenas prácticas y las recomendaciones de las directrices del área.
La búsqueda de estrategias que favorezcan el cumplimiento y la adhesión de los profesionales a las buenas prácticas sigue siendo un desafío para las instituciones hospitalarias. Para mejorar esas actitudes, la inserción de una lista de verificación resultó prometedora para el paciente quirúrgico. Alpendre y sus colegas (2) demostraron, con la validación de la Lista de Seguridad Quirúrgica Pre y Postoperatoria, que esa es una estrategia para promover la seguridad del paciente, evidenciando la importancia de esta herramienta para cambiar el comportamiento de los profesionales de la salud.
En lo que se refiere a la TNE, ningún estudio ha evaluado el uso de una lista de control para la administración segura a través de la SNE. Se sabe que, para la aplicación de los instrumentos, la evaluación de la concordancia entre observadores es un paso que permite establecer su reproducibilidad (3).
Específicamente en la esfera de la nutrición, la evaluación de la concordancia se utiliza para comparar los métodos de evaluación nutricional, los estudios de hábitos alimentarios y la antropometría (4,5). Sin embargo, hay pocos estudios (6,7) que evalúen el consenso entre observadores desde la perspectiva de la seguridad del paciente en el uso de la TNE.
Un estudio realizado por enfermeras (6) evaluó el consenso entre la aceptación comunicada por los pacientes adultos usuarios de la TNE y los registros realizados por las profesionales en las historias clínicas. Se observó que la concordancia entre los informes de los pacientes y los registros de las enfermeras se consideraba de débil a moderada (kappa = 0,45) (6). Otro estudio de concordancia (7) tenía por objeto evaluar el consenso entre el uso de una prueba de auscultación y los rayos X para detectar la posición de la sonda nasoenteral (SNE) (7). Dos enfermeras realizaron la auscultación y dieron su opinión sobre la posición anatómica de la sonda. Hubo una débil concordancia entre las enfermeras (PABAK = 0,054; p = 0,103). Además, la concordancia entre los métodos (auscultación y rayos X) era también muy débil para ambas enfermeras (PABAK = 0,188; p = 0,111 y PABAK = 0,128; p = 0,107) (7).
De hecho, en el ámbito de la TNE se necesita realizar estudios que permitan evaluar las prácticas asistenciales que afectan a la seguridad de los pacientes. Así pues, el objetivo de este estudio fue describir la evaluación de la concordancia entre observadores en la aplicación de una lista de control sobre la atención de los pacientes que utilizan TNE.
MÉTODO
Se trata de un estudio de fiabilidad realizado en 2018 en cuatro unidades de hospitalización de adultos de un hospital universitario del sur de Brasil. Este estudio es una etapa que precedió a la realización de un ensayo clínico abierto, registrado en el Clinical Trials (NCT 03497221) y aprobado en cuanto a sus aspectos éticos y metodológicos en el marco de la CAAE: 63247916.5.0000.5327 (8).
El equipo de recogida de datos estaba formado por enfermeras, estudiantes universitarios y becarios de iniciación científica: en total, ocho asistentes de investigación (AI). Antes de la recolección de datos, una enfermera (una de las autoras, SMRS) llevó a cabo el entrenamiento del equipo con el objetivo de estandarizar: a) el acercamiento a los pacientes y la obtención del consentimiento para el estudio; b) la cumplimentación del instrumento de recogida de datos; c) la evaluación y el monitoreo de los resultados; y d) los registros en los formularios de búsqueda. Se utilizaron manuales para estandarizar todos los procedimientos de la investigación y los AI recibieron capacitaciones específicas para su inserción en el campo: A) buenas prácticas en la investigación clínica y seguridad del paciente en la investigación; B) buenas prácticas en TNE, cuando se presentó la lista de control (compuesta por 25 elementos de buenas prácticas en TNE). En esta última etapa: 1) se aclararon los objetivos del proyecto de investigación, la lista de control y las dudas acerca del vocabulario y/o de la interpretación de las preguntas; 2) se presentaron los materiales y los dispositivos utilizados en la gestión de la dieta enteral (bomba de infusión, jeringas, botellas de dieta); 3) revisión de la lista de control a la cabecera del paciente, como momento para aclarar dudas, con evaluación conjunta entre los AI y la enfermera de referencia, así como sobre los criterios de evaluación subjetiva de los datos de la lista de control. Después de la capacitación in situ, en la que los AI aplicaron la lista de control a la cabecera del paciente, supervisados directamente por la enfermera (SMRS), comenzó la evaluación de la concordancia entre observadores.
Cada par de observadores independientes, “cegados” para la evaluación opuesta, realizó las evaluaciones simultáneamente. Los registros de las evaluaciones se hicieron por medio de formularios electrónicos (Google Forms®), utilizando tablets o smartphones, y se enviaron a una base de datos a la que solo se tuvo acceso en el período de análisis de los datos.
La evaluación realizada por la enfermera (SMRS) se consideró el “estándar” (“evaluadora de referencia”), mientras que la evaluación realizada por el AI se consideró como “evaluación de prueba”. Por cada evaluación de un AI había una evaluación estándar realizada por la enfermera (SMRS).
Para no influir en el análisis de la evaluadora de referencia, un miembro colaborador, ajeno a la investigación, ocultó los nombres de los AI en la base de datos, sustituyéndolos por un número (del 1 al 8). El cegamiento se mantuvo hasta el final del análisis de los datos.
La concordancia entre observadores se evaluó a partir del coeficiente kappa (k) o mediante el coeficiente kappa ajustado (PABAK). El análisis de la concordancia de cada elemento de la lista de control y la concordancia global se realizó a través del programa Statistical Package for the Social Sciences - SPSS®, versión 20.0. Para calcular los intervalos de confianza (IC 95 %) se utilizó el programa WinPepi® o la calculadora Single Case Research®, como se indica. Se utilizó la clasificación propuesta por Landis y Koch (3) para clasificar el nivel de concordancia con el valor de kappa: k = 1,0: de concordancia perfecta; k = 0,99-0,81: de concordancia casi perfecta; k = 0,80-0,61: de concordancia considerable; k = 0,60-0,41: de concordancia moderada; k = 0,40-0,21: de concordancia aceptable; k = 0,2-0,1: de concordancia ligera; y k = 0,0: de concordancia pobre (3).
Tras un análisis provisional de los datos, cuando hubo concordancias globales (de los elementos totales de la lista de control) o en elementos específicos de la lista de control con k < 0,81, los AI se sometieron a una nueva capacitación, así como a la repetición de todas las etapas de la evaluación por pares, lo que se denominó “momento 2” de un mismo AI. Los AI que no estaban disponibles para repetir la capacitación y la evaluación de la concordancia cuando estaba indicado, o que no alcanzaron una k > 0,80 después de la segunda ronda de capacitación, fueron considerados no aptos y, por lo tanto, no recogieron datos del ensayo clínico.
La concordancia se describió a nivel global (considerando el total de 25 elementos de la lista de control) y estratificada (para cada elemento de la lista de control). A efectos didácticos, la presentación de la concordancia de los elementos de control se agrupó por áreas temáticas: 1) los elementos relacionados con los procedimientos de infusión de la dieta y del agua por la SNE y con los cuidados de la bomba de infusión; 2) los elementos que se refieren a los materiales de apoyo en la gestión de la dieta enteral; 3) los elementos que se refieren al cuidado del paciente en el uso de la dieta enteral.
RESULTADOS
Se realizaron un total de 451 evaluaciones por pares entre la evaluadora de referencia (enfermera) y los ocho AI. Los AI 6 y 7 participaron en dos momentos diferentes de las evaluaciones, ya que no alcanzaron un nivel aceptable de concordancia en el primer bloque de evaluaciones. Así, los resultados de ambos AI se muestran en el momento 1 y en el momento 2.
El mayor número de evaluaciones se produjo con el AI 2 (n = 54); el menor, con el AI 7, en su segundo momento de evaluación (momento 2) (n = 28). La concordancia general entre la enfermera y los AI fue casi perfecta en la mayoría de los pares de evaluaciones. Entre todos los pares de evaluaciones, la más concordante se dio con el AI 7 en el “momento 2” de la evaluación (k = 0,96; IC = 0,95-0,98) y la peor con el AI 8 (k = 0,73; IC = 0,70-0,77) (Tabla I).
AI: asistente de investigación; IC: intervalo de confianza; k: coeficiente kappa; 1,0: concordancia perfecta; 0,99-0,81: concordancia casi perfecta; 0,80-0,61: concordancia considerable; 0,60-0,41: concordancia moderada; 0,40-0,21: concordancia aceptable; 0,2-0,1: concordancia ligera; 0,0: concordancia pobre.
Aunque la concordancia global con el AI 6 en el primer momento (momento 1) mostró una concordancia casi perfecta, en elementos específicos de la lista de control la concordancia fue menor (Tabla II). Esto requirió más entrenamiento y una segunda evaluación (momento 2), cuando se observaron mejoras en prácticamente todos los elementos relacionados con las botellas de dieta, el agua y la bomba de infusión para la gestión de la dieta enteral.
AI: asistente de investigación; IC: intervalo de confianza; k: coeficiente kappa; 1,0: concordancia perfecta; 0,99-0,81: concordancia casi perfecta; 0,80-0,61: concordancia considerable; 0,60-0,41: concordancia moderada; 0,40-0,21: concordancia aceptable; 0,2-0,1: concordancia ligera; 0,0: concordancia pobre. *Los valores del intervalo de confianza matemáticamente calculados como > 1 se consideran = 1.
Se observa también que con la mayoría de los AI hubo un mayor número de concordancia (kappa > 0,81) en la evaluación de los elementos objetivos de la lista de control (fechas, validez y presencia o no de la botella de agua de hidratación). Por otra parte, la concordancia fue menor cuando se evaluaron los elementos subjetivos sobre la presencia de suciedad/residuos de cola en la bomba de infusión utilizada para la gestión de la dieta enteral (Tabla II).
La concordancia en la mayoría de las evaluaciones de los elementos relacionados con las condiciones de los materiales y dispositivos (presencia de suciedad, identificación y validez de las líneas de infusión, jeringas dietéticas y vasos desechables) utilizados para la gestión de la dieta se mostró casi perfecta o considerable. La excepción fueron algunos elementos (Tabla III) que sugieren una mala interpretación y que requerirían una recapacitación. Aun así, hubo un menor número de concordancias con el AI 7 en el primer momento de la evaluación (momento 1) en cuanto a elementos específicos de la lista de control. En un segundo momento (momento 2), después de una nueva capacitación, hubo una mejora de la concordancia con el AI 7 en casi todos los elementos relacionados con los materiales de apoyo en la gestión de la dieta (Tabla III).
AI: asistente de investigación; IC: intervalo de confianza; k: coeficiente kappa; 1,0: concordancia perfecta; 0,99-0,81: concordancia casi perfecta; 0,80-0,61: concordancia considerable; 0,60-0,41: concordancia moderada; 0,40-0,21: concordancia aceptable; 0,2-0,1: concordancia ligera; 0,0: concordancia pobre. *Los valores del intervalo de confianza matemáticamente calculados como > 1 se consideran = 1.
Al evaluarse los elementos relacionados con el cuidado directo del paciente (cuidado de la posición de la cabeza y las condiciones de fijación de la SNE), la concordancia fue casi perfecta (k > 0,81), mostrándose considerable (k = 0,61-0,80) solo en la fecha de fijación de la sonda.
Al evaluarse los elementos más subjetivos, como la presencia de suciedad en la fijación de la SNE o de oleosidad y la fijación de la SNE desprendida o tirada, la comparación en la mayoría de los elementos fue débil, relativa o moderada. Además, “la posición de la cama del paciente (igual o > 30 °)” mostró una concordancia de moderada a aceptable (k < 0,49) en tres de los ocho observadores (Tabla IV).
AI: asistente de investigación; IC: intervalo de confianza; k: coeficiente kappa; 1,0: concordancia perfecta; 0,99-0,81: concordancia casi perfecta; 0,80-0,61: concordancia considerable; 0,60-0,41: concordancia moderada; 0,40-0,21: concordancia aceptable; 0,2-0,1: concordancia ligera; 0,0: concordancia pobre. *Los valores del intervalo de confianza matemáticamente calculados como > 1 se consideran = 1.
En vista de los resultados obtenidos, considerando que la concordancia entre la enfermera y los AI 1, 3 y 5 fue casi perfecta (k > 0,81) para la mayoría de los elementos de la lista de control, esos AI realizaron la recopilación de datos en el ensayo clínico que sucedió al presente estudio. La concordancia con los AI 2, 4, 6, 7 y 8 fue menor (k < 0,81) en muchos elementos específicos de la lista de control, lo que requirió una nueva capacitación y una nueva evaluación de la concordancia. Los AI 6 y 7, después de una nueva capacitación y evaluación, mostraron una concordancia casi perfecta (k > 0,81) y participaron en la recogida de datos, mientras que los AI 2 y 4 no continuaron en el proyecto y el AI 8 se capacitó para actividades distintas de la aplicación de la lista de control durante el ensayo clínico.
DISCUSIÓN
El presente estudio mostró una excelente concordancia entre observadores en la aplicación de una lista de control para la atención de los pacientes que utilizan una sonda nasoenteral, cuando se les capacitó y supervisó para reunir datos de una investigación clínica. Este estudio señaló también que la evaluación de la concordancia resultó fundamental para garantizar la fiabilidad de la recogida de datos para el ensayo clínico realizado a continuación, ya que algunos asistentes de investigación requirieron recapacitación y otro mostró una concordancia insuficiente. De esa manera, si no se hubiera hecho la evaluación de la concordancia, el ensayo clínico podría haberse visto afectado por un error sistemático de contraste.
Además, el estudio documentó la necesidad de evaluar detalladamente la concordancia entre evaluadores a fin de identificar los elementos cuya observación por parte de los asistentes de investigación puede verse comprometida por criterios de evaluación subjetivos, en los que existe una mayor posibilidad de discrepancias, aunque igualmente importante en cuanto al rigor metodológico.
Se obtuvieron resultados similares a los nuestros en un estudio realizado en China (9). Los autores evaluaron la concordancia entre una enfermera y un radiólogo al interpretar una imagen de rayos X para detectar la posición anatómica del extremo distal de un catéter central. Ambos evaluaron 599 imágenes y la concordancia entre observadores se consideró excelente (k = 0,93; p < 0,001; IC 95 %: 0,90-0,97). En otro estudio (10), en el que se evaluó la concordancia entre nueve patólogos para identificar la presencia de linfocitos infiltrados de tumores de mama en 124 portaobjetos, se encontró una concordancia baja (kappa entre 0,38 y 0,46). Frente a esos resultados, los autores llegaron a la conclusión de que esa prueba diagnóstica no debería aplicarse en la práctica asistencial (10). Los dos estudios presentados muestran los extremos de la concordancia entre observadores y cómo esta evaluación interfiere en la toma de decisiones sobre una práctica asistencial. Lo mismo puede extrapolarse al campo de la investigación, ya que la baja fiabilidad de los datos generados por un AI o más puede sesgar el estudio, comprometiendo la totalidad de los resultados.
Nuestro estudio demostró que la recapacitación se mostró fundamental para obtener mayores puntuaciones de concordancia entre observadores en el momento 2. En otro estudio que comparó la concordancia entre observadores radiólogos con experiencia limitada en la evaluación de imágenes de resonancia magnética abdominal se compararon con expertos en la interpretación de imágenes de resonancia magnética en pacientes con sospecha de apendicitis (11). En ese estudio hubo una formación previa de los no expertos que se asemeja al método empleado por nosotros (capacitación previa de los AI); aunque la concordancia obtenida fue considerable (kappa = 0,78), se mostró inferior a la del presente estudio. Eso demuestra que, en estudios de esta magnitud, cuando la concordancia entre observadores es baja, se debe considerar la evaluación de la necesidad de recapacitación.
Una posible limitación de nuestro estudio es que el rol del AI fuera desempeñado por estudiantes universitarios de enfermería y no todos son del mismo período de formación. Eso puede haber contribuido, en parte, a que algunos AI hayan obtenido resultados discrepantes en algunos de los elementos de la lista de control, aunque todos hayan sido sometidos a una capacitación presencial y a una supervisión directa, hasta que se dispusiera de conocimientos y aptitudes específicas para aplicar la lista de control. Por otra parte, el rigor metodológico adoptado por nosotros para insertar los AI en el campo de estudio, la creación de manuales de procedimientos de investigación, su capacitación y la supervisión directa fueron capaces de garantizar la calidad de la recogida de datos en el ensayo clínico que siguió (12).
CONCLUSIONES
La evaluación de la concordancia entre observadores es esencial para garantizar la fiabilidad de los datos recogidos en los estudios clínicos epidemiológicos. La evaluación de la fiabilidad entre observadores es una de las medidas importantes para reducir al mínimo el riesgo de sesgo en los estudios, lo que aumenta la solidez de las pruebas generadas mediante estudios metodológicos sólidos.
APROBACIÓN DEL COMITÉ DE ÉTICA DE LA INVESTIGACIÓN
Aprobado por el Comité de Ética de investigación del Hospital de Clínicas de Porto Alegre (vinculado a la Universidad Federal de Rio Grande do Sul - UFRGS), con el número 16-0534, en la plataforma Brasil bajo CAAE 63247916500005327, y registrado en Clinical Trials (NCT 03497221).