Teoría Fundamentada
Teoría Fundamentada
Teoría Fundamentada
Facultad de Educación, Universidad Católica de Temuco, Universidad Católica de Temuco C.P. 4780000
Temuco, [email protected]
Resumen
Las prácticas investigativas en educación han experimentado muchos cambios, principalmente en los
procedimientos de análisis. Estos cambios han sido motivados por la irrupción de la Teoría
Fundamentada en la práctica investigativa, pero también por la presencia de software específico para
análisis cualitativos de datos. Esta situación no está exenta de cuestionamientos y debates en torno al
real aporte de los ordenadores en la investigación de tradición interpretativa. Sin embargo, esto se
debería al desconocimiento de la relación método-software. En este trabajo se presentan los
procedimientos analíticos propuestos por la Teoría Fundamentada, y las posibilidades que ofrece el
software Atlas.ti para mejorar la práctica analítica cualitativa. La finalidad es contribuir a la
fundamentación teórico-metodológica en la investigación educativa.
Abstract
The research-based practices in education have experienced a lot of changes, specially in the analysis
procedures. These changes have been motivated by the irruption of the Grounded Theory in the
research-based practice, but also due to the presence of specific softwares for qualitative analysis of
data. This situation is not free from questioning and discussion regarding the true contribution of
computers in the research of interpretative tradition. Nevertheless, this would be due to the ignorance
of the relation between method-software. In this work, the analytical procedures proposed by the
Grounded Theory and the possibilities offered by the ATLAS.ti software in order to improve the
qualitative analytical practice are presented. The purpose is to contribute for the theoretical-
methodological strengthening in the educational research.
I. Introducción
Al igual que otras disciplinas científicas la investigación educativa se ha visto influenciada por las
tecnologías de la información, principalmente en sus procesos de análisis. Este artículo explora el
vínculo entre Atlas.ti y Teoría Fundamentada (en adelante tf), y se exponen las posibilidades que el
software ofrece para desarrollar la tf. Para ello, se revisan los principios orientadores de la construcción
teórica a partir del análisis de los datos haciendo uso de recursos informáticos.
Así, en el contexto de la formación de pregrado y postgrado, se observa confusión respecto del sentido
que debe tener el análisis de datos en la práctica investigativa. Confusión que impide reflexionar acerca
del componente relacional en el análisis de la realidad socioeducativa. Por el contrario, existe una
tendencia a fragmentar el conocimiento empírico. Esto opera como un principio reduccionista de la
ciencia que invisibiliza la naturaleza sociocultural e histórica de la realidad (Morín, 1984).
Los investigadores más ortodoxos tienen una postura reticente al uso de programas para el trabajo
interpretativo, ven en el trabajo artesanal la esencia del análisis cualitativo. Ciertamente los analistas
pasaban largas horas con los datos hasta el punto de alucinar o soñar con los mismos, en este sentido
la relación de quien investiga y los datos era íntima y duradera. Sin embargo, existen tres tipos de
analistas cualitativos: (1) los que prefieren técnicas artesanales (lápices de colores, tijeras, tarjetas,
fichas, entre otros.), (2) los que optan por programas de cómputo (procesadores de texto, hojas de
cálculo, bases de datos, entre otros), y (3) aquellos que prefieren el uso de programas específicos para
el análisis de datos (Cisneros, 2003).
Tesch (1990) fue el primero en distinguir entre programas para el análisis descriptivo-interpretativo y
otros para construir teorías. En la primera clasificación se incorporaron: TAP, QUALPRO, HyperQual, y
Etnograph, en tanto para la elaboración de teoría son pertinentes programas como: Aquad, Nudist,
Hipersearch y Atlas.ti.
Es menester reconocer que el análisis de datos asistido por computadora, independiente de la posición
a favor o en contra, otorga cabida a distintas tradiciones y diseños cualitativos. En este sentido se
reconoce como el primer programa para abordar el análisis del texto el General Inquirer desarrollado en
1966, sin embargo el análisis que se realizaba con este recurso más bien respondía a un análisis
cuantitativo del texto. Por esta razón el Etnograph, creado por Jhon Seidel, sería un programa pionero
para el análisis descriptivo-interpretativo de textos. Este software fue diseñado alrededor de conceptos
de descontextualización y re-contextualización, por lo que realiza una serie de funciones entre las que
se destacan la búsqueda selectiva de segmentos codificados, y la elaboración de frecuencias de códigos
(Revuelta y Sánchez, 2005).
Más allá del desarrollo de los CAQDAS, en este trabajo se abordarán aspectos epistemológicos y
metodológicos propios de la TF. Posteriormente se expondrán las contribuciones del software Atlas.ti a
los procedimientos propuestos por la TF, pero también las potenciales desventajas que puede traer su
uso. Por último, se comparten algunas reflexiones respecto de la importancia de la TF y Atlas.ti en la
formación y desarrollo de la investigación educativa.
II. Bases teóricas y metodológicas de la Teoría Fundamentada
A lo largo de los últimos años la TF ha ganado adeptos y espacios en la investigación educativa. Sin
embargo, en muchas ocasiones investigadores latinoamericanos declaran su utilización sin lograr
verdaderamente elaborar una teoría sustantiva. Esto ocurriría por desconocimiento paradigmático y de
los principios metodológicos que orientan la TF.
La TF fue pensada y propuesta por Barney Glaser y Anselm Strauss en las década de los 60. Sus
inspiraciones para desarrollar esta metodología estriban en la necesidad de salir al campo de
investigación para descubrir los conceptos que allí subyacen. Ambos investigadores compartían la
necesidad de hacer comparaciones constantes mientras se hacían los análisis cualitativos, con la
finalidad de desarrollar conceptos y relacionarlos.
La TF hunde sus raíces en el interaccionismo simbólico (Blumer, 1969). Por cuanto la comprensión de
los significados construidos intersubjetivamente, se superpone a la explicación causal (Erkláren). En
consecuencia, se intenta desarrollar interpretaciones del mundo de los sujetos en función de sus
propias interpretaciones, teniendo como objeto de investigación la acción humana. De esto, se plantea
que somos amalgamas resultado de nuestras relaciones en y con el mundo; el mundo siempre está con
nosotros (Merleau-Ponty, 1962). Por lo tanto, la complejidad del escenario investigativo en el contexto
educativo, desafía a construir conocimiento situado desde los sujetos y su mundo de vida.
Aceptar esta noción de una co-construcción intersubjetiva de la realidad (Schutz, 2003) implica que
refutemos el objetivismo crítico que exige la ciencia positivista, por cuanto la dicotomía sujeto-objeto se
vuelve indefendible (Crotty, 2003). En este sentido, los sujetos de la investigación educativa;
profesores, estudiantes, padres, entre otros, no pueden ser descritos independiente de nuestra relación
con ellos.
Para establecer la importancia de las construcciones teóricas derivadas de contextos particulares, y por
lo tanto de problemas o áreas de interés delimitados a ese contexto, Glaser y Strauss (1967) aluden al
término teorización sustantiva, que se contrapone al de teorización formal y se refiere al desarrollo
teórico de vasto alcance, caracterizado por leyes generales e hipótesis comprobables en la realidad.
De este modo, el término Teorización Sustantiva alude al área empírica, concreta y sustancial de la
investigación. En el caso de la educación, ejemplos de áreas sustantivas serían: convivencia escolar en
contextos interculturales, relaciones intersubjetivas entre profesores experimentados y principiantes
(San Martín y Quilaqueo, 2012), y conocimiento didáctico del profesor que se desempeña en escuelas
rurales, entre otras.
En cambio, la teorización formal está dirigida a un área de indagación general y conceptual como: clima
escolar, interculturalidad, enseñanza, entre otros. Estas áreas generales se desarrollan más allá del
contexto; es decir, la generalización y comprobación empírica son los principios que rigen a la teoría. En
efecto, teorizar es un proceso de construcción de teorías útiles para comprender la realidad descrita y
conceptualizada (Strauss y Corbin, 2002).
Por medio de la teorización sustantiva es posible cumplir con el criterio de transferibilidad, que es una
condición para la calidad de la investigación educativa (Sandín, 2006). Este criterio garantiza la
aplicabilidad de resultados en contextos similares al de la investigación. Dado que al delimitar las
condiciones y características del contexto en donde ocurre el fenómeno que se estudia, se incrementa
la claridad para identificar otros contextos similares en los cuales la teoría desarrollada podría encajar.
En síntesis, la teoría sustantiva da cuenta de realidades humanas singulares porque se alimenta con
procesos de recolección de datos de la investigación en curso de una manera dinámica y abierta
(Sandoval, 1997). A diferencia de procedimientos deductivos de la teoría formal o general, cuya
preocupación está en la verificación teórica, lo cual lleva a tener una perspectiva relativamente estática
y cerrada por su apego a la generalidad.
Otra característica de quienes trabajan con tf es la confianza que poseen acerca de su teoría, siempre
esperan una buena acogida por parte de la comunidad científica. Una última cuestión es la sensibilidad
teórica que poseen los investigadores para el trabajo con esta metodología; mientras más sensibilidad
con la pertinencia teórica de ciertos conceptos, más probable es que se reconozcan las dimensiones de
estos conceptos en los datos (Strauss y Corbin, 2002).
Finalmente, las habilidades que los investigadores muestran como resultado de la experiencia de
trabajar TF son las siguientes:
Dado que el objetivo de este artículo no es profundizar en el MCC, tarea que se realizará en un próximo
trabajo, se presentan algunos procedimientos analíticos del MCC, para efectos de exponer la lógica que
lleva a la construcción teórica en la TF. En consecuencia, se presentan las cuatro etapas más relevantes
para el análisis constructor de teoría (Flick, 2007): (i) comparación de incidencias aplicables a cada
categoría, (ii) integración de las categorías y sus propiedades, (iii) delimitación de la teoría, y (iv)
redacción de la teoría.
Además, y para efectos de aproximarse a una conceptualización del MCC, Valles (1997) realiza una
diferenciación entre la Inducción Analítica (IA) de Znaniecki, y el MCC.
a. El MCC no se ocupa, como meta principal, de testear provisionalmente los datos recogidos, sino de
generar categorías conceptuales, sus propiedades (aspectos significativos de las categorías) y las
hipótesis (o relaciones entre ellas).
b. En el MCC, las propiedades (de las categorías teóricas) no son únicamente causas, como en la
inducción analítica (en adelante IA), sino que pueden ser también "condiciones, consecuencias,
dimensiones, tipos, procesos, etc."
Se denomina codificación abierta al proceso de abordar el texto, con el fin de desnudar conceptos, ideas
y sentidos. Respecto a esto Strauss y Corbin (2002) son claros señalando que "para descubrir y
desarrollar los conceptos debemos abrir el texto y exponer los pensamientos, ideas y significados
contenidos en él" (Strauss y Corbin, 2002, p. 111). Este trabajo es profundamente inductivo, ya que
prescinde de una teoría para aplicar conceptos, leyes o dimensiones al texto que se está codificando.
La codificación abierta resulta del examen minucioso de los datos para identificar y conceptualizar los
significados que el texto contiene. Los datos son segmentados, examinados y comparados en términos
de sus similitudes y diferencias. Estas comparaciones deben quedar registradas en anotaciones
(memos) que acompañen a cada código (Charmaz, 2007). Es importante agregar que existen dos tipos
de códigos: abiertos e in vivo. Los primeros conceptualizan el fenómeno a través de la interpretación
del analista, en cambio los segundos son frases literales que expresan las palabras usadas por los
individuos.
El resultado de la primera codificación es una lista de códigos de la que, al compararlos respecto de sus
propiedades, dimensiones y significados, se obtiene una clasificación, mayor o de segundo grado,
denominada categoría. A este proceso de le denomina categorización, y se refiere al resumen de
conceptos en conceptos genéricos (Flick, 2007).
a. Acomodar las propiedades de una categoría y sus dimensiones, tarea que comienza durante la
codificación abierta.
c. Relacionar una categoría con sus subcategorías por medio de oraciones que denotan hipótesis.
d. Buscar claves en los datos que denoten cómo se pueden relacionar las categorías principales entre sí.
Además de lo anterior Flick (2007) se refiere al paradigma de codificación elaborado por Strauss y
Corbin (2002), el que guiará la relación entre categorías y subcategorías. En éste se propone realizar
preguntas a los datos (códigos, categorías y subcategorías), en términos de las condiciones, fenómeno,
contexto, condiciones interpuestas, estrategias de acción e interacción y consecuencias entre
categorías.
Lo anterior, da paso a una serie de pequeñas historias expresadas en las relaciones descubiertas entre
los datos:
(...) una explicación cuenta una historia sobre las relaciones entre las cosas o las personas y los
acontecimientos. Para narrar una historia compleja, uno debe designar los acontecimientos, plantear o
implicar sus dimensiones y propiedades, proporcionarles un contexto, indicar una o dos condiciones de
cualquier acción/interacción que sea esencial para la historia, y señalar o deducir una o más
consecuencias (Schatzman, 1991, p. 308).
Es una condición para la construcción de la teoría, que las hipótesis iniciales se validen a través de la
comparación con los datos. Esto dará paso a la integración de las categorías en una categoría central
que expresa el fenómeno en estudio.
2.6 Codificación Selectiva: el núcleo de la teoría
Este es el tercer paso en el proceso de codificación teórica, aunque no es una etapa independiente de la
codificación abierta y axial, sino una extensión de esta última, pero con un mayor nivel de abstracción.
El propósito de esta codificación es obtener una categoría central que exprese el fenómeno de
investigación e integre las categorías y subcategorías de la codificación abierta y axial. Entonces,
la categoría central "consiste en todos los productos del análisis, condensados en unas cuantas palabras
que parecen explicarnos de qué trata la investigación" (Strauss y Corbin, 2002). En este proceso el
analista tiene un conjunto de categorías y subcategorías que convergen en una unidad conceptual, que
a su vez integra la realidad expresada por todos los sujetos de la investigación.
Las relaciones entre las categorías y la categoría central están dadas por frases que no necesariamente
deben ser hipótesis o preposiciones explícitas sino que, pueden estar implícitas en la narración de la
teoría. Previo a esto, es importante tener una descripción clara y gráfica de la teoría, que sintetice los
principales conceptos y sus conexiones, sólo entonces se estará en condiciones de presentar el relato
del caso (Charmaz, 2007).
Es preciso señalar que existen criterios claros para determinar la función y determinación de la
categoría central, así como también, para integrar las categorías y subcategorías a la categoría central,
temas en los que se profundizará en trabajos posteriores.
Uno de los procedimientos analíticos que asegura la riqueza explicativa, y de relaciones teóricas entre
categorías, es la saturación teórica o de contenido. Si el investigador no recopila datos hasta saturar
todas las categorías, la teoría no se desarrollará equilibradamente y carecerá de densidad y precisión.
Además, la saturación permite identificar el momento en que es necesario detener la recolección de
datos (Strauss y Corbin, 2002).
En el instante en que las comparaciones constantes entre los datos no evidencian nuevas relaciones o
propiedades de los datos; la riqueza que representan los datos se comienza a agotar. En ese momento
se evidencia la saturación teórica, donde el muestreo teórico comienza a definir su término, por lo tanto
no es conveniente realizar más entrevistas y observaciones. Los datos comienzan a tornarse repetitivos
y no se obtiene nada nuevo: "El muestreo e integración de material nuevo se acaba cuando
la saturación teórica de una categoría o grupo de casos se ha alcanzado, es decir, cuando no emerge ya
nada nuevo" (Flick, 2007, p. 79).
Mediante la figura 2 se intenta mostrar el modelo circular del análisis cualitativo, circularidad que tienen
como eje central el análisis de los datos, en torno al cual giran procedimientos como: muestreo teórico,
saturación y el trabajo de recolección de información.
Para lograr la saturación de los datos, es necesario que el investigador sea paciente, es decir, es
preferible esperar atentamente la emergencia de la teoría. Para esto, el analista no debe dejar de hacer
preguntas a los datos, para así probar la estabilidad conceptual de los mismos, y asegurarse de que el
concepto teórico ha logrado un estado adecuado de desarrollo.
Para comprender la relación entre Atlas.ti y TF conviene recordar el principio de los métodos
interpretativos, el cual plantea que un investigador no comienza su trabajo con una teoría
preconcebida, excepto si quiere desarrollar una ya existente. Por el contrario, sugiere que los conceptos
e hipótesis sean elaborados a partir de los datos, y con ellos a lo largo de la investigación. Se reconoce
como rasgo fundamental de este enfoque metodológico el carácter circular del proceso (Flick, 2007),
esto obliga al investigador a reflexionar sobre el proceso completo de la investigación a raíz de los
nuevos pasos mostrándose un claro vínculo entre recogida e interpretación de datos, y selección de
material empírico.
Atlas.ti el principal soporte informático para desarrollar TF, este programa fue diseñado a finales de los
ochenta por el alemán Thomas Murh, quien recurriendo a la tecnología hizo un intento por aplicar los
planteamientos metodológicos de Glaser y Strauss. Este software permite expresar el sentido circular
del análisis cualitativo, por cuanto otorga la posibilidad de incorporar secuencialmente los datos, sin la
necesidad de recoger todo el material en un mismo tiempo. Por esta razón, permite llevar a cabo el
muestreo teórico necesario para realizar el análisis constructor de teoría.
Asimismo, Atlas.ti permite identificar aquellos códigos que requieren ser saturados, esto es posible a
través de la función code-primary-documents-table (códigos-documentos primarios-tablas), que
muestra la cantidad de citas que cada código tiene. Por tanto, esta función del software facilita la
aplicación de la saturación de contenido de cada código y categoría, tal como se propone en la TF.
La última versión de Atlas.ti permite trabajar en línea transformando los análisis en páginas htlm para
ser subidas al ciberespacio, esto admite que sea posible realizar codificaciones colaborativas, y aplicar
el criterio de triangulación de investigadores.
Es importante comprender el uso metodológico de Atlas.ti en relación a la TF, por esta razón en la tabla
I se sintetiza la coherencia entre software y método. La finalidad de las principales funciones del
programa es acoger los procedimientos constructores de teoría. En este sentido facilita la organización
del análisis a través de funciones que permiten: segmentar citas, conceptualizar, registrar reflexiones,
categorizar, relacionar procesos y mostrar la teoría que se construye a través de diagramas. Todos
estos procedimientos de primer y segundo orden, otorgan al análisis mayor poder explicativo para la
investigación educativa.
Metodólogos, como Valles (2002), establecen claras ventajas y desafíos del análisis cualitativo asistido
por computador, como por ejemplo: el ahorro de tiempo. Al respecto Flick (2007) destaca la velocidad
en la gestión, búsqueda y exposición de los datos y códigos. Esto representa una tremenda ventaja
cuando el investigador se enfrenta a grandes cantidades de datos y permite reflexionar sobre el actuar
de algunos investigadores, que al no incorporar los CAQDAS se obligan a diseñar limitados instrumentos
de recolección de datos, debido a la escasez de tiempo con la cuentan en sus proyectos de investigación
en educación.
Otra ventaja es la codificación y exploración de datos, que implica marcar fragmentos de texto para
luego codificarlos y obtener un listado de códigos descriptivos. Por otra parte, la codificación y los
fragmentos del texto pueden ser complementados con notas de campo o anotaciones (memos), lo que
posibilita la incorporación de ideas o reflexiones teóricas del investigador-analista.
La inclusividad es otra capacidad considerada como una ventaja de programas para análisis cualitativo.
De acuerdo con Seale (1999) los programas inclusivos son aquellos que admiten datos de distinta
naturaleza, tales como: entrevistas, notas de campo a partir de la observación, videos, periódicos,
memorandos, manuales, catálogos y otras modalidades de materiales pictóricos o escritos.
También, a raíz del trabajo inter-subjetivo entre miembros del equipo de investigación, el control y
auditoría supone una ventaja gracias a la facilidad que se le otorga al trabajo simultáneo de
investigadores. Algunos, CAQDAS como Atlas.ti ofrecen la posibilidad de emprender proyectos en donde
varios analistas trabajen de manera simultánea con distintos perfiles de usuario, permitiendo el trabajo
en línea con investigadores de otras latitudes. Esto se traduce en un aumento de transparencia, debido
al fortalecimiento de la comunicación online del equipo de investigación (Flick, 2007, p. 267).
Respecto de la visualización de los datos han sido mayores los aportes al trabajo de análisis tradicional
que se ha realizado hasta antes de la irrupción de la tecnología en la investigación cualitativa. De esta
manera existen programas que permiten trazar gráficos para dar a conocer relaciones complejas del
fenómeno en estudio, o también esquematizar árboles de conceptos que poseen ciertas jerarquías
sobre otros. Para esto, los programas mejor equipados como: Atlas.ti y Nudist NVivo, permiten trazar
redes conceptuales para facilitar la elaboración de modelos teóricos, y escritura de los hallazgos (Valles
2002).
Los mejores programas para análisis cualitativo de datos facilitan la construcción de teorías por medio
de la representación de los datos en mapas gráficos, diagramas o esquemas jerárquicos o relacionales
(Flick, 2007). Además facilitan el nivel analítico del trabajo con los datos por medio de memos que
permiten reflexionar respecto a las relaciones entre conceptos, y así construir las categorías que darán
cuerpo a la teoría.
Pese a lo anterior, el uso de CAQDAS no garantiza la presencia de todas las ventajas durante el proceso
analítico, dado que la destreza, formación, experiencia, creatividad, de quien investiga es clave para el
éxito en la construcción de la teoría, o por el contrario para el fracaso. Esto último, permite que se
desarrollen múltiples inconvenientes en el uso de CAQDAS, como los descritos a continuación.
Los principales inconvenientes del uso de Atlas.ti se relacionan con interpretaciones equivocadas de las
funciones del programa. En particular, se tiende a pensar que este software puede realizar la tarea
interpretativa propia de los análisis cualitativos, y que representa un ejercicio intelectual de
investigadores.
Otro inconveniente es el sesgo que produce insistir en el uso de un único programa informático. Esto se
transforma en un inconveniente cuando los investigadores no consideran que deba existir una
adecuación entre el software y el método o diseño que requiere el problema de investigación. Es decir,
fuerzan la utilización del uso de un programa en particular, sólo por el nivel de conocimiento que se
tiene del software, o simplemente porque consideran que agiliza el proceso de reducción de la
información. En consecuencia, es recomendable acceder a la variedad de programas que existen
actualmente, para poder comparar y selecciona el más conveniente para el trabajo de análisis que
demanda el método y el problema de investigación.
Autores como Amezcua y Gálvez, (2002, p. 433) advierten "sobre las grandes limitaciones que entraña
el análisis asistido por ordenador, como por ejemplo el fraccionamiento de la información, la pérdida de
la visión de conjunto y la descontextualización". Esto se fundamenta en el riesgo de perder la visión
holística del fenómeno en estudio, causada por el ejercicio constante de fraccionamiento de los datos.
Además, existe la posibilidad de quedar atrapado por la seducción de la herramienta, limitando su uso a
simples operaciones mecánicas carentes de reflexividad y construcción teórica (Amezcua y Gálvez,
2002).
Una voz autorizada para referirse al uso de CAQDAS para la construcción de teoría, es Barney Glaser,
quien en el seminario Investigación Avanzada Cualitativa Asistida por Ordenador realizado el 2001 en
Andalucía, expuso acerca de la Grounded Theory. Sin embargo, desató la polémica cuando se refirió a
la importancia de los computadores para la TF, al declarar:
Los ordenadores vuelven a poner lo cualitativo en lo cuantitativo (...) los ordenadores ignoran la
saturación de conceptos y sus propiedades (...) pueden ser útiles en el análisis de datos cualitativos,
donde la investigación va preconcebida, pero no en la grounded theory (GT) por su incompatibilidad e
ineficacia (...) son un malgasto de recursos y esfuerzos del investigador, la GT funciona más rápido
(Valles, 2001).
A partir de ese momento muchos investigadores partidarios del análisis cualitativo asistido por
computadora acusan a Glaser de ultra ortodoxo, quien critica a los tecnólogos de no conocer en
profundidad aspectos metodológicos de la TF. No obstante, para comprender este debate es importante
despejar algunas dudas que se asocian al aporte de las herramientas mencionadas. Una de estos
malentendidos es explicado por el metodólogo alemán Uwe Flick (2007) al afirmar que los CAQDAS no
hacen el análisis de una forma automática, como el SPSS (Paquete Estadístico para las Ciencias
Sociales) realiza una operación estadística o un análisis factorial. Por consiguiente, no se debe igualar a
Atlas.ti con programas estadísticos que operan matemáticamente con fórmulas aplicadas a variables.
(Dohan y Sánchez-Jankowski, 1998). Por tanto, la reflexión final es entender que no hay algoritmo
alguno para determinar el círculo hermenéutico, ni cálculo matemático posible que sature el análisis de
un significado.
La situación anterior, sin duda, reduce a los actores del contexto escolar en meros sujetos de
experimentación, por cuanto investigadores no expresan en los diseños de investigación su identidad
epistemológica, o en palabras de Tello (2012), el enfoque epistemetodológico. Por el contrario, usan
Atlas.ti por simple moda, sin reconocer el vínculo que tiene este programa con la TF. Como
consecuencia, se observan resultados "en esencia, descriptivos y teóricamente inestables (...) no
producen mucho conocimiento nuevo ni información rigurosa o teorías sólidas" (Thóening, 2004, p.
189).
Por ello, en el contexto de investigación educativa es necesario que se expliciten los procedimientos de
análisis sin olvidar que los resultados deben responder a construcciones teóricas que permitan
comprender el objeto de estudio. Zemelman ya advertía que en la investigación social de
Latinoamérica, "existe un desequilibrio entre el notable desarrollo tecno-metodológico y el escaso
desenvolvimiento del pensamiento abstracto a través de la epistemología" (Zemelman, 1998, p. 123).
Sin lugar a dudas, Atlas.ti es uno de los programas más potentes para el análisis de datos cualitativos,
y que aporta a la construcción teórica en la investigación educativa. Puesto que al permitir la
integración de datos de distinta naturaleza (texto, audio, video e imágenes) recoge la diversidad que
expresa la realidad socieducativa. Así, es posible superar el nivel descriptivo para alcanzar el nivel
conceptual que contribuye a la teorización en el campo de la investigación educativa. Además, la
formación de estudiantes en el uso de este software en coherencia con la TF, permite desvelar ese lado
oculto de la práctica investigativa que es el análisis de datos, ya que muchas veces el análisis
constituye la caja negra de la práctica investigativa.
Referencias
Andreu, J., García-Nieto, A. y Pérez Corbacho, A. (2007). Evolución de la teoría fundamentada como
técnica de análisis cualitativo. Madrid: CIS. [ Links ]
Bachelard, G. (1974). La formación del espíritu científico. Buenos Aires: Siglo XXI. [ Links ]
Blumer, H. (1969). Symbolic Interactionism. Perspective and Method. Los Ángeles, CA: University of
California Press. [ Links ]
Cisneros, C. (2003). Análisis cualitativo asistido por computadora. Sociologías, 9(5), 307. [ Links ]
Coffey, A. y Atkinson, P. (2003). Encontrar el sentido a los datos. Antioquia: Universidad de Antioquia.
[ Links ]
Creswell. (1998). Qualitative inquiry and research design. Choosing among five traditions. California:
Sage. [ Links ]
Crotty, M. (2003). The foundations of social research: Meaning and perspective in the research
process. Thousand Oaks, CA: Sage. [ Links ]
Gibbs, G. (2009). Analyzing qualitative data (1a. ed.). Londres: Sage. [ Links ]
Knoblauch, H., Flick, U. y Maeder, C. (2005). Qualitative methods in Europe: the variety of social
research.Ponencia presentad en el foro Qualitative Social Research. Reino Unido. [ Links ]
Kuhn, T. (2004). La estructura de las revoluciones científicas. México: Fondo de Cultura Económica.
[ Links ]
Marshall, C. y Rossman, G. (1995). Designing qualitative research. Thousand Oaks, CA: Sage.
[ Links ]
San Martín, D. (2011). Actos pedagógicos profesor principiante. Aletheia Mayor, 3. 67-100.
[ Links ]
San Martín, D. y Quilaqueo, D. (2012). Habitus profesional y relaciones intersubjetivas entre profesores
principiantes y experimentados. Perfiles Educativos, 34(136), 63-78. [ Links ]
Santos, B. (1987). Um discurso sobre as Ciencias [Un Discurso sobre las ciencias]. Secretaría Municipal
de Educación de Campinas. Brasil: Edigoes Afrontamento. [ Links ]
Schutz, A. (2003). El problema de la realidad social. Escritos I. Buenos Aires: Amorrortu. [ Links ]
Taylor, S. y Bogdan, R. (2000). Introducción a los métodos cualitativos (3a. ed.). Barcelona: Paidós.
[ Links ]
Tesch, R. (1990). Qualitative research. Analysis types and software tools. Basingstoke, Inglaterra:
Falmer Press. [ Links ]
Valles, M. (2001). Ventajas y desafíos del uso de programas informáticos (p.e. Atlas.ti y MAXqda) en el
análisis cualitativo. Una reflexión metodológica desde la grounded theory y el contexto de la
investigación social española.Seminario sobre Investigación Avanzada Cualitativa Asistida por
Ordenador (pp. 1-26). Granada: Fundación de Centros de Estudios Andaluces. [ Links ]
Weitzman, E. y Miles, M. (1995). Computer programs for qualitative data analysis. Thousand Oaks, CA:
Sage. [ Links ]
Zemelman. (1998). Crítica, epistemología y educación. Revista de Tecnología Educativa, 2(13), 119-
131. [ Links ]
Notas
1
CAQDAS es el acrónimo de Computer Assisted Qualitative Data Software, hace referencia a software
para el análisis cualitativo de datos asistido por ordenador.
2
Strauss al referirse a los términos sustantivo y teórico o formal, dan cuenta del estado y origen del
fenómeno. En el primer caso, apela a lo que emerge de las personas en tanto no ha sido redefinido ni
conceptualizado rigurosamente. El segundo caso está asociado a la rigurosa definición conceptual que
permite el tránsito de lo sustantivo hacia un nivel teórico o formal.
3
Tomado de Bases de la investigación cualitativa. Técnicas y procedimientos para desarrollar Teoría
Fundamentada(Strauss y Corbin, 2002, p. 8).
http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1607-40412014000100008
1° de julio de 2017