Mi SciELO
Servicios Personalizados
Revista
Articulo
Indicadores
- Citado por SciELO
- Accesos
Links relacionados
- Citado por Google
- Similares en SciELO
- Similares en Google
Compartir
Index de Enfermería
versión On-line ISSN 1699-5988versión impresa ISSN 1132-1296
Index Enferm vol.20 no.1-2 Granada ene./jun. 2011
https://dx.doi.org/10.4321/S1132-12962011000100020
METODOLOGÍA CUALITATIVA
El análisis de los datos cualitativos: un proceso complejo
The analysis of qualitative data: a complex process
Marcela Carrillo Pineda1, Juan Manuel Leyva-Moral2, José Luís Medina Moya3
1Departamento Formación Profesional, Facultad de enfermería. Universidad de Antioquia. Medellín, Colombia.
2Escuela Universitaria de Enfermería del Mar, Barcelona, España.
3Facultad de Pedagogía, Universidad de Barcelona. Barcelona, España
Dirección para correspondencia
RESUMEN
Este artículo muestra la complejidad del análisis de los datos cualitativos a partir de las ideas sobre el método planteadas por Morin y surge fruto del proceso analítico llevado a cabo durante la elaboración de nuestras tesis doctorales. Nuestra experiencia parte del método de las comparaciones constantes y representa un desafío dotado de contradicciones complementarias, donde los datos se agrupan y desagrupan, se integran y se desintegran de acuerdo con los principios hologramático, dialógico y recursivo. Como resultado establecemos las siguientes fases del proceso de análisis: 1) "El todo": desarrollando ideas; 2) Del todo a las partes: separando y agrupando; 3) De lo particular a lo general: re-agrupando; 4) Descomponer el todo en sus partes sin perder el todo: integrando y relacionando; 5) Relacionar las partes que dan sentido al todo: identificando la categoría central.
Palabras clave: Teoría de la complejidad, Investigación cualitativa, Método de las comparaciones constantes, Análisis.
ABSTRACT
This article shows the complexity of the analysis of qualitative data according to Morin's method and they are the result of the analytical process carried out during the development of our PhD thesis. Our experience begins with the constant comparison method and represents a challenge endowed with complementary contradictions, where data is grouped and ungrouped, integrated and disintegrated according to the hologrammatic, dialogic and recursive principles. As a result we establish the following analytical phases: 1) "The all": developing the ideas; 2) From "the all" to the parts: separating and clustering; 3) From particular to general: regrouping; 4) Undoing "the all" into its parts without losing "the all": integrating and relating; 5) Joining the parts that make sense of "the all": identifying the core category.
Key words: Complexity theory, Qualitative research, Constant comparison method, Analysis.
Introducción
En la investigación cualitativa la recolección y el análisis de la información son dos procesos complejos que se desarrollan de manera simultánea. El análisis acompaña al proceso de recolección de la información desde su inicio, guía el trabajo de campo y permite profundizar en los temas emergentes durante las posteriores inmersiones en el campo. Incluso, algunos investigadores cualitativos1-3 incluyen el proceso analítico como un apartado más del trabajo de campo, a diferencia de lo que ocurre en otro tipo de investigaciones.
Sin embargo, para su comprensión ha sido necesario enfrentarnos directamente a estos procesos, porque a pesar de haber leído previamente que la investigación cualitativa se caracteriza por sus diseños flexibles y abiertos, no fue sino hasta el momento de poner en práctica nuestra experiencia investigadora cuando realmente encontramos el sentido y entendimos el significado de dichas afirmaciones.
Este artículo es el resultado de las experiencias, aprendizajes, reflexiones y conclusiones sobre el análisis cualitativo, a las que hemos llegado durante nuestro proceso de formación doctoral. Nos hemos guiado por el método de las comparaciones constantes propuesto por Glaser y Strauss,4 el cual es un conjunto de guías y procedimientos para desarrollar conceptualizaciones de los datos de manera inductiva.3 Tuvimos en cuenta principalmente las recomendaciones sobre el muestreo y la saturación teórica, asuntos que a nuestro modo de ver son los argumentos principales para realizar de manera paralela la recolección y el proceso de análisis. El muestreo se hace en base a los temas y conceptos que van emergiendo desde los datos, cuyo interés es captar la variedad y la dimensión de un tema o fenómeno hasta lograr la descripción más completa posible del fenómeno que se está investigando. Por su parte, la saturación teórica señala el punto en el que no se percibe nada nuevo en la información que ofrecen los entrevistados.5
El método de las comparaciones constantes, a su vez, busca construir teoría más que comprobarla o descubrirla a través de la formulación de preguntas sensibilizadoras, teóricas y de naturaleza práctica y estructural mediante la comparación de incidentes en cuanto sus propiedades y dimensiones, y en cuanto a sus similitudes y diferencias. Dicha construcción implica hacer una nueva mirada de acuerdo con los presupuestos ontológicos y epistemológicos del investigador o investigadora, es decir, es explicar de una nueva forma la realidad que se pretende comprender. Para el análisis de los datos cualitativos, este método recomienda tres momentos para su desarrollo. En el primero, de naturaleza mayormente descriptiva, se realiza la codificación abierta para identificar categorías. Strauss y Corbin definen las categorías como aquellos "conceptos que representan fenómenos".5 En el segundo momento analítico, se relacionan las categorías con las sub-categorías por medio de la codificación axial y en el tercero se completan las descripciones, se refinan las categorías, se integran y se identifica la categoría central a través de la codificación selectiva.3,5 Las sub-categorías son aquellos conceptos clarificadores incluidos dentro de una categoría,5 mientras que la categoría central, con mayor carga conceptual y de abstracción, recoge las características comunes de las categorías.1 En otras palabras, la categoría central posee un poder analítico fruto de una mirada transversal, permitiendo al investigador formar un todo explicativo.
Es importante aclarar que el método de las comparaciones constantes es, como su nombre indica, un método que sirve de guía durante el proceso analítico en estudios cualitativos. Por tanto, no es exclusivo de una determinada tradición de investigación cualitativa y, en consecuencia, resulta válido en trabajos basados en diferentes tradiciones (es decir, puede utilizarse en estudios etnográficos, fenomenológicos y en estudios de teoría fundamentada). De lo que se trata es de analizar los datos y encontrar una buena explicación, por lo tanto, el investigador trabaja con ellos y no contra ellos.6
Nuestro propósito es mostrar la complejidad del proceso analítico, evitando los reduccionismos y acogiendo las incertidumbres y las contradicciones como parte del proceso mismo. Las ideas del pensador Edgar Morin nos han proporcionado herramientas útiles para entender nuestro proceso analítico desde el paradigma de la complejidad. Este último propone trascender el actual paradigma dominante, el de la simplificación, que separa lo que está ligado (disyunción), o unifica lo que es diverso (reducción). El paradigma de la complejidad, por su parte es un desafío que reúne "lo Uno y lo Múltiple", sin disolverlos.7 Está planteado como una reforma del pensamiento en el que el conocimiento pertinente es aquel que enfrenta la complejidad. Para Morín "complexus significa lo que está tejido junto",8 es decir, existe complejidad cuando los diferentes elementos que constituyen el todo son inseparables pero relacionados entre sí.
En particular hemos retomado las ideas que este autor plantea sobre el método y sobre las acciones estratégicas. El primero se refiere a "un viaje, un desafío, una travesía, una estrategia que se ensaya para llegar a un fin pensado, imaginado y al mismo tiempo insólito, imprevisto y errante";9 y las segundas son aquellas que se oponen a las acciones programadas, aunque puedan comportar elementos programados. La estrategia, en función de las informaciones recogidas y de los azares encontrados en el curso del camino, busca sin cesar reunir informaciones, verificarlas, y modificar su acción. Es decir, establece argumentos de acción y escoge uno en función de lo que ella conoce de un entorno incierto.10 En este sentido, nuestra experiencia analítica ha sido un ensayo permanente del método de las comparaciones constantes, ya que éste nos ha llevado a imaginarnos una meta alcanzable a la vez que incierta. Es decir, pese a que nuestro trabajo ha partido de un método planificado, ha sido re-construido durante la experiencia y la interacción con los datos y nos ha llevado a la obtención de resultados novedosos e imprevistos, a la construcción de nuestro propio método, a la utilización de nuevas estrategias y a pensar por nosotros mismos para resolver los problemas y los retos que trae consigo el proceso analítico.11
En general, nuestra vivencia durante el análisis cualitativo nos ha conducido por un camino no lineal ni secuencial, dotado de contradicciones complementarias, donde los datos se agrupan y desagrupan, se integran y se desintegran de manera dialógica y recursiva. En este proceso nos hemos movido del todo a las partes y de las partes al todo, sin perder ni el todo ni las partes, de acuerdo al principio hologramático propuesto por el paradigma de la complejidad. Presentar la complejidad de nuestra experiencia analítica y sobre todo, presentar las acciones estratégicas que hemos llevado a cabo, podría ser útil para aquellas personas interesadas en la investigación cualitativa porque la comprensión de nuestro método podría servir como ejemplo y ser replicable.12 Enseñar cómo elaborar este tipo de análisis es uno de los límites del método propuesto por Glaser y Strauss, al ser una estrategia que se mueve entre el método y el arte.13
Desarrollo
Para la descripción y el desarrollo de los argumentos que evidencian el porqué de la complejidad del proceso analítico, presentamos las siguientes fases, representadas de forma grafica en la figura 1: (1) El todo: Desarrollando ideas. (2) Del todo a las partes: Separando y agrupando. (3) De lo particular a lo general: re-agrupando. (4) Descomponer el todo en sus partes sin perder el todo: Integrando y relacionando. (5) Relacionar las partes que dan sentido al todo: Identificando la categoría central.
La ejecución de estas fases no se desarrolló de manera secuencial. Sin embargo, presentarlas de este modo, creemos que facilitará la comprensión de cómo a través de la codificación abierta, axial y selectiva hemos llegado de lo más concreto a lo más abstracto en el análisis de los datos en nuestras investigaciones. Estas fases evidencian que el análisis empieza con una desintegración de los datos, mediante la cual los datos se organizan con un orden diferente.7 Además, veremos que la agitación y el encuentro al azar son necesarios para esa organización, ya que cada una de estas fases intentará mostrar, por un lado, que la utilización de instrumentos y procedimientos no siempre ha sido premeditada sino que surge de los requerimientos de los datos o del contexto; y por otro lado, cuáles han sido las situaciones relevantes que han guiado las decisiones, a veces de manera intuitiva y aleatoria durante este proceso analítico.
Fase 1: El todo (desarrollando ideas). El objetivo principal de esta fase ha sido la elaboración de las notas memorísticas y el inicio del muestreo teórico. Las notas memorísticas ("memos") resultan de gran utilidad para expandir las ideas a través de preguntas reflexivas. El objetivo del muestreo teórico es maximizar las oportunidades de comparar los acontecimientos para determinar la variación de las categorías.5 En esta primera fase damos inicio al proceso recursivo del análisis, ya que los datos como producto del trabajo de campo se convirtieron en productores de nuevos datos. La inmersión en los datos, siguiendo las recomendaciones del "muestreo abierto",5 nos permitió reorientar el enfoque y la recolección de nueva información desde el inicio.14 En otras palabras, los datos son al mismo tiempo productores y causa de aquello que los origina.7
Con el microanálisis se inició la codificación abierta, no con la intención de asignar etiquetas para separar y re-ordenar los datos sino para abrir las ideas a través de la elaboración de memos analíticos.2 Esto se llevó a cabo, en primer lugar, haciendo una lectura inicial de todo el texto para entender el contexto general; y en segundo lugar, leyendo y re-leyendo de manera minuciosa cada observación, esto es renglón por renglón. En los márgenes de cada línea escribimos una idea, una impresión o preguntas relacionadas con el por qué, el cómo, el quién, el cuándo, con el objetivo de no dar nada por supuesto, dejarnos maravillar por los datos, de identificar aquellos temas que podrían haberse pasado por alto en las entrevistas anteriores y sobre todo, para elaborar las primeras hipótesis explicativas que dieran lugar a asuntos o temas sobre los cuales profundizar en posteriores observaciones y entrevistas.
La codificación en esta fase nos facilitó la identificación de los conceptos más amplios sobre los cuales expandir y focalizar los datos, ya que fue a partir de los primeros "memos" que se construyeron y se refinaron las posteriores inmersiones en el campo y las entrevistas. Además, estas preguntas se centraron en asuntos de los datos que, de manera consciente, no queríamos dar por entendidos, resistiéndonos a la tendencia de encontrar el sentido a los datos de forma precipitada.14 En este momento fuimos conscientes de que no era posible alcanzar un saber total, es decir, nos hallábamos ante una "Completud inalcanzable".7
Iniciar el análisis de forma paralela a la recolección de los datos ha sido el producto de la necesidad de buscar las certezas. En esta etapa necesitábamos ser tolerantes con la ambigüedad, el caos y las contradicciones.14 Cuando, como investigadores nóveles, nos acercamos a los datos por primera vez, encontramos un cúmulo de incertezas y desconcierto que nos exigió la utilización de acciones estratégicas para navegar en búsqueda de certezas. Nuestra intención no era plantear la búsqueda de verdades absolutas sino reconocer en las incertidumbres el motor para la búsqueda de estrategias, ya que aceptamos que las incertidumbres se generan por la imposibilidad de un conocimiento verdaderamente objetivo. Por ejemplo, el temor de sentirnos apabullados por la abundancia de la información nos llevó a tomar consciencia que debíamos empezar el análisis desde el inicio del trabajo de campo. Además, la incertidumbre por la inexperiencia en investigación nos llevó a iniciar la focalización desde la primera observación o entrevista, en cierto modo, como una precaución intencional para evitar la dispersión y no hacer de la recolección un proceso inacabable.
El resultado de esta primera fase analítica fue tener una idea global de los datos. Después de varias lecturas y re-lecturas de los datos, surgieron aspectos amplios que, aunque poco desarrollados, formaban parte de la vida de los participantes y abrieron el camino a la posterior construcción de las descripciones, siendo parte del conjunto de categorías y meta-categorías que emergieron durante el análisis en su totalidad. Esto evidencia que el análisis es un proceso flexible y recursivo porque, aunque las categorías se refinaron más adelante, desde ese momento se establecieron algunas de ellas en los esquemas mentales de los investigadores, lo cual facilitó su posterior identificación y delimitación. Por tanto, las categorías y las meta-categorías, no emergieron exclusivamente durante la codificación axial. Esto da cuenta de que las categorías son el resultado de las meta-categorías y de las subcategorías y al mismo tiempo productoras de éstas.
Fase 2: Del todo a las partes (separando y agrupando). En este apartado la codificación abierta se desarrolló en dos etapas: en la primera se separaron los datos en unidades significativas mediante etiquetas o códigos descriptivos y en la segunda, estas unidades significativas se agruparon en fenómenos o categorías. En consecuencia, reunimos los acontecimientos, sujetos y objetos similares bajo una clasificación común. Para mantener este juego complejo entre el todo y las partes durante la segmentación, identificación y agrupación de las categorías fue útil, previo a la codificación, hacer una lectura general de cada una de las entrevistas y las observaciones para identificar los temas amplios de que se trataban. Intentábamos dar respuesta a preguntas tales como "¿de qué se está hablando aquí?", o "¿qué está sucediendo aquí?". Estas preguntas permitieron la separación de los datos sin perder el todo y al mismo tiempo profundizar en las categorías.
En este sentido, de forma paralela a la codificación se elaboraron los denominados "memos analíticos" que ayudaron al muestreo teórico y a refinar las categorías. Su desarrollo permitió tomar distancia de los datos y hacer la validación permanente del análisis con los propios datos,2 a través de la comparación entre categorías y situaciones similares para ver las características y propiedades compartidas por éstas y así iniciar la agrupación y la re-agrupación. En este momento los memos no se elaboraron sólo con preguntas y su intención directa no era expandir los datos sino facilitar la profundización para encontrar la variedad y las dimensiones de las categorías y meta-categorías emergentes.
Para el desarrollo de esta fase, el proceso analítico se realizó con la ayuda de soportes informáticos, los cuales son programas de almacenamiento, separación y recuperación de datos.15 Estos programas se utilizaron de manera exclusiva para los procesos mecánicos de separación, agrupación, y reagrupación de los datos y no con la intención de sustituir a los investigadores. Estas herramientas informáticas fueron importantes para el aprovechamiento del tiempo y espacio en las labores propias de análisis e interpretación, ya que reemplazaron las formas manuales de organización y ordenación de los datos. Su principal ventaja fue la rápida recuperación de los datos, lo que permitió hacer lecturas y re-lecturas de las unidades significativas de cada una de las categorías de forma ágil, y en el contexto o texto en el que se inscribían, permitiendo alcanzar mayor profundidad en el análisis.
Volvamos de nuevo a la primera etapa del análisis dentro de esta segunda fase, la cual se llevó a cabo a través del microanálisis.5 Esto implica la lectura línea por línea de los datos para identificar los conceptos más significativos y asignarles un nombre. Algunas de estas etiquetas fueron comunes para varios fragmentos de texto. La mayor dificultad durante esta fase, fue la aparición de un elevado e inmanejable número de unidades de significado. Gracias a la incertidumbre percibida con esta situación, que nos impedía entender el conjunto de los datos, surgió la necesidad de hallar una manera de reducir los datos para hacerlos más manejables. Esta situación daba paso a la segunda etapa del análisis de esta segunda fase. Retomamos los datos ya codificados mediante el análisis comparativo descrito por Strauss y Corbin;5 leímos de nuevo las unidades de significado y agrupamos en categorías aquellas que compartían las mismas características a través de comparaciones continuas. Agrupar los resultados de esta manera nos permitió ver lo particular al mismo tiempo que el todo, asunto importante según el principio hologramático de la complejidad que nos facilitó superar el reduccionismo que no ve más que las partes y el holismo que no ve más que el todo.7 Se abría ante nosotros una nueva mirada compleja de los datos que nos exigía realizar el microanálisis y la agrupación de las categorías de forma simultánea. Para recordar las categorías y facilitar la comparación con las nuevas unidades de significado que iban emergiendo, fue sumamente importante haber definido previamente dichas categorías en términos de sus características, propiedades y dimensiones.
En resumen, descomponer los datos de manera detallada, pese a haber requerido una gran inversión de tiempo, fue muy productivo porque facilitó la comparación de propiedades y dimensiones y su posterior agrupación. Separar y agrupar los datos forma parte del principio dialógico, el cual se define como "la asociación compleja (complementaria/concurrente/antagonista) de instancias necesarias, conjuntamente necesarias para la existencia, el funcionamiento y el desarrollo de un fenómeno organizado".9 Este principio nos permitió entender que, como proceso complejo, el análisis se caracteriza por la existencia o construcción de contradicciones complementarias. Esta segmentación línea por línea, permitió que los datos hablaran por sí mismos y dieran cuenta del mundo de los participantes, sin forzarlos porque ayudaron mantener la dualidad separación y agrupación en el seno de la unidad de los datos.7
Fase 3: De lo particular a lo general (reagrupando). Esta fase analítica se caracterizó por la codificación axial, la cual se desarrolló mediante la identificación de las propiedades básicas de las categorías dando lugar a la reagrupación en campos. De forma simultánea, y dentro de cada uno de los campos, se identificaron similitudes y diferencias de las categorías en cuanto a características y a propiedades, lo cual dirigió el análisis hacia la reagrupación en meta-categorías. La principal razón para proceder de este modo fue percibir que muchos de los conceptos o unidades significativas no podían incluirse directamente en las categorías al no corresponder directamente con sus definiciones, aún guardando algún tipo de relación. En consecuencia, fue necesario un nuevo nivel de agrupación que permitiera visualizar simultáneamente varias categorías, y al mismo tiempo separarlas y re-agruparlas según compartieran o no características o propiedades. A partir de este momento, las unidades de significado que aparecieron durante las observaciones y las entrevistas posteriores, se etiquetaron con el nombre de la categoría, cuando era muy específica, o con el nombre de la meta-categoría cuando no teníamos claros sus límites. La codificación en este momento se realizó analizando párrafos u oraciones enteras para identificar la idea principal. Este tipo de codificación se recomienda cuando ya se tienen las categorías establecidas y se quiere hacer una codificación específica en relación con ellas.5 De esta manera empezó el refinamiento de los datos en lo concerniente a diferenciar entre categorías, meta-categorías y campos.
Todos los campos y alguna meta-categoría recibieron un nombre en base a los conceptos identificados en la literatura. Sin embargo, no fue la literatura quien hizo emerger su significado (proceso deductivo) sino que estos emergieron directamente de los datos (proceso inductivo) de forma pertinente ya que explicaban lo que sucedía en nuestros estudios.
Fase 4: Descomponer el todo en sus partes sin perder el todo (integrando y relacionando). En esta fase del análisis se utilizó simultáneamente la codificación axial y la codificación selectiva. Siguiendo las recomendaciones de Strauss y Corbin,5 se terminaron de refinar las categorías, las meta-categorías y los campos, desarrollándolas y descomponiéndolas en términos de sus partes. Este momento se caracterizó por haber vuelto a la mirada detallada de los datos, pero ya no con base al todo, sino con la intención de de-construir las categorías para integrarlas y relacionarlas entre sí. La principal ventaja se dio al alcanzar, al mismo tiempo, la mirada general y particular de los datos. La principal dificultad fue una inversión de tiempo mayor de lo esperado, que implicó hacer lecturas y comparaciones permanentes, tanto entre unidades de significado como entre éstas y sus categorías y meta-categorías.
Strauss y Corbin,5 sugieren que el final del análisis debe incluir un diagrama teórico integrador que ayude a redondear las relaciones y a descubrir los errores en la lógica. En consecuencia, quisimos hacer una descripción clara y gráfica de la teoría que sintetizara los principales conceptos y sus conexiones,16 pero ¿cómo hacerlo sin perder los detalles de ese todo? Fue en este momento cuando refinamos las categorías y las meta-categorías tal y como hemos comentado anteriormente. Se trataba de visualizar de manera simultánea, cada una de las meta-categorías con sus categorías, incluyendo las unidades más significativas de cada una de ellas. Fue aquí donde se llegó a la necesidad de elaborar los mapas conceptuales.
Para lograr esto, decidimos volver al microanálisis, pero con una nueva intención: describir en profundidad cada una de las meta-categorías con relación a sí misma y a sus categorías. Para este momento, el soporte informático fue útil en la medida en que facilitó la recuperación ágil de las unidades de significado y su comparación simultánea con relación a las categorías y a las meta-categorías. A partir de este momento, las meta-categorías cobraban un sustancial poder explicativo dentro de los mapas conceptuales.
Fase 5: Relacionar las partes que dan sentido al todo (identificando la categoría central). En esta fase, gracias a la codificación selectiva, se identificó la saturación teórica de los datos, la cual Según Strauss y Corbin5 es el punto del análisis, durante la construcción de la categoría central, en el cual ya no emergen nuevas propiedades, dimensiones o relaciones entre los datos. Además, en esta fase se validaron las descripciones densas con los participantes. Con el apoyo de los mapas conceptuales se eliminaron los datos excedentes y se completaron las categorías. Los mapas conceptuales fueron presentados a los participantes de nuestros estudios, quienes discutieron alrededor de ellos, aclarando algunos datos y complementando otros. Esta presentación también fue importante porque los participantes se sintieron identificados y la descripción presentada en los mapas fue reconocible para ellos.
En este momento se intentó trascender la descripción hacia un último nivel de abstracción, a través de la identificación de los patrones o ejes que atraviesan, conforman y estructuran las acciones, las interacciones y los discursos de los participantes de nuestras investigaciones,1 es decir, los vectores cualitativos o categorías centrales. Esto facilitó la mirada longitudinal y trasversal de los datos y la identificación de las hipótesis explicativas finales, a partir de las cuales se construyó el último mapa conceptual global y se inició la escritura de los resultados. Nuestra justificación ante esta decisión se fundamentó en considerar que estos patrones permitirían de manera más explícita dar el salto de la descripción al análisis propiamente dicho, de tal manera que tuviéramos una representación del fenómeno basado en los datos. Vale la pena aclarar que aunque el nuevo conocimiento ha sido construido de acuerdo a los marcos teórico-conceptuales de los investigadores, ha emergido desde la perspectiva de los participantes.
Conclusiones
Los momentos incluidos en este trabajo aunque están presentados en etapas de manera secuencial, no se han llevado a cabo de manera lineal y menos aún mecánica. Han estado impregnados desde el inicio hasta el final por procesos cíclicos y dialógicos. Por un lado, la comparación de incidentes en cuanto sus características, propiedades y dimensiones, ha obligado a los investigadores a llevar un proceso de constante construcción, deconstrucción y reconstrucción tanto de los códigos y de las categorías como de las relaciones entre éstos. Por otro lado, las categorías y las meta-categorías no han emergido de manera simultánea, ni tampoco de manera exacta según las recomendaciones del método de las comparaciones constantes, sino que algunas han aparecido durante la codificación abierta y otras durante la codificación selectiva. Incluso los vectores o la categoría central no son el producto final aunque estén presentados en el apartado de resultados, pues han sido visibles, en mayor o menor medida, durante todo el proceso analítico.
El análisis cualitativo que presentamos es un proceso complejo dado que las categorías no fueron pre-establecidas, sino que las fuimos construyendo a partir de un juego inductivo-deductivo entre los datos y los presupuestos de los investigadores. Este juego es otra dualidad que permite llegar a una nueva mirada. Hemos trascendido la descripción para llegar a la interpretación a través de la codificación y la categorización,15 porque el proceso de identificar, organizar, refinar, relacionar e integrar las categorías ha exigido una interacción directa y dialéctica entre la investigadora y los datos, asunto que es clave en el análisis cualitativo.5
Por último, queremos reconocer la importancia de hacer una mirada a nuestro proceso analítico. Repensar cómo realmente ha sido nuestro camino en el proceso del análisis de los datos se ha presentado como una oportunidad de "reorganizar nuestro sistema mental para reaprender a aprender".17 Actuar y luego reflexionar sobre nuestras acciones creo que es la mejor forma de llegar a la construcción de nuestro propio método, porque como lo dijimos antes, el método es el camino y al mismo tiempo la meta. Asuntos que también han favorecido nuestra formación como doctorandos e investigadores en la medida en que nos hemos incluido como sujetos en permanente construcción en el proceso investigativo.
Bibliografía
1. Medina Moya, José Luis. Deseo de cuidar y voluntad de poder: la enseñanza de la enfermería. Barcelona: Universidad de Barcelona, 2005. [ Links ]
2. Cuesta Benjumea, Carmen de la. Cuidado Artesanal: la invención ante la adversidad. Medellín: Universidad de Antioquia, Facultad de Enfermería, 2004. [ Links ]
3. Cuesta Benjumea, Carmen de la. Tomarse el amor en serio: contexto del embarazo en la adolescencia. Medellín: Universidad de Antioquia, 2002. [ Links ]
4. Glaser, Barney G; Strauss, Anselm. The Discovery of grounded theory: strategies for qualitative research. London: Weidenfeld and Nicolson, 1968. [ Links ]
5. Strauss, Anselm; Corbin, Juliet. Bases de la investigación cualitativa: técnicas y procedimientos para desarrollar la teoría fundamentada. Medellín: Editorial Universidad de Antioquia, 2002: 110. [ Links ]
6. Noerager Stern, Phyllis. Erosionar la teoría fundamentada. En: Morse, Janice, editora. Asuntos críticos en los métodos de investigación cualitativa. Medellín: Universidad de Antioquia, Facultad de Enfermería, 2003: 246-259 [ Links ]
7. Morin, Edgar. Introducción al Pensamiento Complejo. Barcelona: Gedisa, 2007. p. 110, 101. [ Links ]
8. Morin, Edgar. Los siete Saberes Necesarios para la Educación del Futuro. Buenos Aires: Nueva Visión, 2009: 38 [ Links ]
9. Morin, Edgar; Roger Ciurana, Emilio; Motta, Raúl Domingo. Educar en la era planetaria. El pensamiento complejo como método de aprendizaje en el error y la incertidumbre humana. Valladolid: Universidad de Valladolid/ UNESCO, 2002: 15, 31. [ Links ]
10. Morin, Edgar. La Mente Bien Ordenada. Pensar la Reforma. Reformar el pensamiento. Barcelona: Seix Barral, 2007: 80. [ Links ]
11. Morin, Edgar. El Método. El Conocimiento del Conocimiento. Madrid: Ediciones Cátedra, 2009. [ Links ]
12. Huberman, Michael; Miles, Matthew B. Data Management and Analysis Methods. En: Denzin, Norman; Lincoln, Yvonna, Editors. Handbook of Qualitative Research. California: Sage Publications, 1994; Chapter 27: 428-444. [ Links ]
13. Flick, Uwe. An Introduction to Qualitative Research. London: Sage, 1998. [ Links ]
14. Martínez, Miguel. La investigación cualitativa etnográfica en educación: manual teórico-práctico. México: Trillas, 2007 [ Links ]
15. Coffey, Amanda; Atkinson, Paul. Encontrar el sentido a los datos cualitativos: estrategias complementarias de investigación. Medellín: Universidad de Antioquia, Facultad de Enfermería, 2003. [ Links ]
16. Strauss, Anselm. Qualitative analysis for social scientists. Cambridge: Cambridge University Press, 1987. [ Links ]
17. Morin, Edgar. El Método 1. La Naturaleza de la naturaleza. Madrid: Ediciones Cátedra; 2009 (8a ed.): 35. [ Links ]
Dirección para correspondencia:
Marcela Carrillo Pineda.
Facultad de enfermería,
Universidad de Antioquia.
Calle 64 No 53-09. Medellín, Colombia
marcelacarrillopineda@yahoo.es
Manuscrito recibido el 15.07.2010
Manuscrito aceptado el 04.09.2010