9.Se codificó con autocoding, esta vez usando códigos emergentes identificados con el word crunch o por lecturas previas, bajo confirmación previa y examinando la cita a la cual se asociaba cada código. Se decidió agregar el código “ponderación” por su utilidad para el análisis de los indicadores cruciales o prioritarios. También se identificaron como nuevos códigos importantes: “medir”, “poder” y “pertinencia” debido a una frecuencia identificada con la herramienta mencionada. Sin embargo, al revisar las palabras “pertinencia” y “poder” se pudieron identificar algunas citas que daban cuenta del sentido y significado que los consultados les daban, mostrando que no guardaban relación directa con esta investigación. También se tomó nota del tiempo de esta actividad para tenerlo en cuenta en el análisis de otras entrevistas.
10.Se revisaron los códigos con la herramienta coding analyzer, que muestra códigos con codificación redundante, y se procedió a eliminar o desenlazar las citas donde se presentaba redundancia. En este punto se pudo detectar que era mejor desencadenar la cita al código porque, si se había elaborado la cita, era porque tenía alguna importancia específica y en consecuencia valía la pena mantenerla, aunque no estuviera asociada a un código porque este ya se había enlazado con una cita de mayor extensión. Luego se volvió a pasar el coding analyzer para confirmar que no hubiera redundancia.
11.Se revisaron y copiaron las citas con mayor densidad, es decir, que tenían un mayor número de códigos asociados.
12.Se interpretaron los códigos —decodificación— de forma clara y precisa, revisando visualmente código por código con sus respectivas citas. En este paso fue importante tener en cuenta tanto los códigos de mayor frecuencia como aquellos en los que se había empleado más tiempo. En principio, se hizo énfasis en las citas de “acreditación” y luego en las de “ECAES” para obtener resultados de los objetivos específicos 4 y 5. Luego se asociaron los resultados de los códigos “crucial” e “indicadores” con “acreditación” y “ECAES”, y al final con los indicadores cruciales que resultaron en todos los procesos de cada programa académico para elaborar el esquema del sistema.
13.El trabajo de campo permitió identificar argumentos o apreciaciones que sustentaron, respaldaron y ratificaron la justificación y pertinencia del problema de investigación.
14.Mientras se codificaba, se elaboraron memos sobre reflexiones pertinentes para la identificación de indicadores cruciales y relaciones entre indicadores y sobre categorías emergentes de los datos de las entrevistas. Así se crearon nuevos códigos en la medida en que surgían categorías, factores o conceptos emergentes. Esta nueva codificación se denomina abierta (creación de nuevos códigos del investigador a partir de hallazgos relevantes en citas) o in vivo (por términos atractivos que surgen del word cruncher o de citas). Para escribir memos era necesario hacerse nuevas preguntas sobre posibles indicadores, comparar semejanzas y diferencias, abstraer, reducir y relacionar datos relacionados con citas y códigos. También fue importante tener en cuenta que podrían surgir propiedades sobresalientes de indicadores en las respuestas de las personas entrevistadas.
15.Durante todo el análisis se tuvieron en cuenta las recomendaciones de Denzin y Lincoln (1994) en cuanto a establecer patrones entre los datos y hacer descripciones, comparaciones (incluidas las extremas) y formulaciones de indicadores cruciales y sus interrelaciones o interconexiones. Asimismo, se asumió una actitud de permanente pregunta a los datos (por ejemplo, ¿qué pasa aquí en cada programa?, ¿qué hacen?, ¿cómo varían los factores, códigos o indicadores de cada familia en cada programa (fue necesario saber ir fácilmente a las citas que demuestran tal variación y poder recuperarlas para reportarlas como resultados, evidencias, análisis, discusión y conclusiones)?, ¿bajo qué condiciones ocurrían las variaciones?, ¿qué es esto?, ¿qué aporta esto en mi investigación en relación con la pregunta de investigación “para generar ideas y maneras de mirar los datos”?
También se mantuvo abierta la posibilidad de elaborar, modificar, verificar, aclarar, expandir o descartar hipótesis e identificar cuándo los entrevistados daban hechos fácticos y cuándo daban opiniones, suposiciones o especulaciones. De igual modo, se trató de determinar afirmaciones, opiniones o declaraciones desconcertantes y contradictorias, al tiempo que se examinaron posibles sesgos, parcializaciones, preferencias, suposiciones y perspectivas de las personas entrevistadas. A su vez se buscaron tanto patrones generales como variaciones, y al final se clasificaron y ordenaron citas y códigos.
A estas alturas del proceso se tuvo presente la importancia de pasar de la descripción a la conceptualización y de lo más específico a lo más abstracto. Al preguntarse en qué, dónde y cómo coincidían y diferían los datos se aplicó la técnica de la “voltereta”, que consiste en voltear de adentro para afuera o de arriba para abajo y viceversa, observando los opuestos o los extremos para encontrar indicadores significativos (esto también se hizo con los dos programas con resultados insatisfactorios en las pruebas ECAES 2004-2010). Por otro lado, al tratar de descifrar qué es lo que no se hacía en programas de resultados insatisfactorios que sí se hacía en los de resultados satisfactorios se recurrió a la comparación sistemática de conceptos, factores, indicadores o situaciones de los datos con los de la experiencia del investigador o tomados de la literatura.
Otras preguntas que tuvieron cabida en este paso fueron: ¿qué tan a menudo aparece un concepto y cómo emerge (bajo qué condiciones), con sus respectivas evidencias?, y ¿qué podría pasarle a un programa si algún factor, característica, propiedad o indicador estuviera ausente o cambiara (ejemplo del ave si le falta un ala)? El análisis de propiedades (características) y dimensiones (grados) asociadas a factores, citas, códigos, familias o hipervínculos también tuvo lugar en esta etapa. Finalmente, se crearon subcategorías en el análisis de los procesos que ocurren en un programa académico, preguntándose ¿cuándo?, ¿dónde?, ¿por qué?, y ¿cómo es probable que haya ocurrido algo?, siempre en relación con el objeto de investigación y sus factores asociados (códigos, familias, supercódigos, tablas, redes e hipervínculos).
A partir de esta información recabada y analizada fue posible empezar a comprender modelos y patrones de calidad en programas de pregrado bajo indicadores cruciales con miras a generar una nueva configuración de ideas (teoría sustantiva) sobre un nuevo sistema de indicadores cruciales y prioritarios para evaluar y mejorar la calidad de programas académicos universitarios en administración. De esta manera surgiría una teoría fundamentada, denominada “teoría de la interacción entre indicadores cruciales y prioritarios de calidad en educación superior”, resultante de esta investigación y materializada en la propuesta de sistema de indicadores y en la jerarquización de estos dada por la validación de expertos.
16.Otra consideración transversal al proceso fue la de las operaciones mentales reportadas por diferentes autores: identificación, comparación, análisis, síntesis, clasificación, codificación, decodificación, proyección de relaciones virtuales, diferenciación, representación mental (abstracción), transformación mental, razonamiento divergente, pensamiento convergente, razonamiento hipotético, razonamiento analógico, razonamiento lógico, razonamiento silogístico, razonamiento inferencial, evocación y transferencia. Así pues, cada día, antes de iniciar el análisis de datos, se leían y repasaban las definiciones de cada una de estas operaciones mentales.
Читать дальше