Eficiencia Del Análisis De Datos en la Investigación
Introducción
El análisis de datos visto desde un punto más general, más amplio, es una ciencia que se encarga de estudiar, analizar y examinar un conjunto de datos con el propósito de sacar conclusiones sobre la información para poder tomar decisiones, o simplemente ampliar los conocimientos sobre diversos temas. Durante el proceso de investigación el análisis de datos es de suma importancia debido a las múltiples funciones con las que cumple. El análisis de datos facilita que la organización mejore la información que tiene disponible para ayudarnos a tomar decisiones.
Desarrollo
El análisis de datos consiste principalmente en la realización de las operaciones a las que el investigador someterá los datos con la finalidad de alcanzar los objetivos del estudio. Todas estas operaciones no pueden definirse de antemano de manera rígida. La recolección de datos y ciertos análisis preliminares pueden revelar problemas y dificultades que desactualizarán la planificación inicial del análisis de los datos. Sin embargo es importante planificar los principales aspectos del plan de análisis en función de la verificación de cada una de las hipótesis formuladas.
Estas definiciones condicionarán a su vez la fase de recolección de datos. Al realizar una exploración o una encuesta los investigadores deben pasar por diferentes etapas dentro de la misma, una vez que la persona culmine la etapa de recolección y procesamiento de datos, da comienzo a la etapa más fundamental de todo trabajo investigativo: el análisis de datos, este puede ser cualitativo o cuantitativo. El análisis de datos cualitativos se define como el procedimiento a través del cual, se estructura y se maneja la información recabada por los investigadores.
Para fijar vínculos, traducir, extraer significados y conclusiones. Este análisis se caracteriza por su forma cíclica y circular, versus la posición lineal adoptada en los análisis de datos cuantitativos. En los datos pueden efectuarse ciertos análisis como los son los siguientes: Estadística descriptiva para cada variable, razones y tasas, estadística inferencial: de la muestra a la población, análisis paramétricos, análisis no paramétricos, análisis multivariados, análisis cualitativo de los datos y análisis cuantitativo y análisis cualitativo: cuestión de enfoques.
Cada uno de ellos es vital y de suma importancia durante la investigación. Es importante mencionar que para llevar a cabo dichos análisis existen diversos programas computacionales y no es necesario realizar todas las operaciones manualmente. Otra cosa importante de mencionar es que Existen dos grandes familias de técnicas de análisis de datos: Técnicas cualitativas: en las que los datos son presentados de manera verbal (o gráfica) – como los textos de entrevistas, las notas, los documentos. Técnicas cuantitativas: en las que los datos se presentan en forma numérica.
Estas dos modalidades son especies radicalmente diferentes, utilizan conocimientos y técnicas completamente diferenciadas. Por su parte, los datos cuantitativos se analizan en función de números y variables que puedan medirse, con la finalidad de poder establecer estadísticas. Este tipo de análisis es capaz de mostrar conclusiones mucho más precisas, es por esto, que es el método más utilizado en el campo de las ciencias exactas y naturales. De acuerdo a Schoenbach, en un estudio bien ejecutado, el plan de recolección de datos incluye procedimientos.
Los instrumentos, y formularios, diseñados y ensayados para maximizar su precisión. Todas las actividades de recolección de datos son monitorizadas para asegurar la adherencia al protocolo de recolección de datos y para promover acciones para minimizar y resolver situaciones de datos faltantes o cuestionables. Los procedimientos de monitorización son establecidos al inicio y mantenidos durante todo el estudio, dado que cuanto antes se detecten las irregularidades, mayor la probabilidad de que puedan ser resueltas de manera satisfactoria y más precozmente se puedan establecer medidas preventivas.
Es importante resaltar, que dentro del análisis de datos cualitativos, el investigador puede llegar a enfrentar ciertas dificultades al momento de desarrollarlo, algunas de ellas son: la naturaleza polisémica de los datos recabados, debido a los complejos significados que pueden hallarse en un video o grabación de audio, es necesario que el investigador esté muy bien preparado en cuanto al tema o punto que desea extraer de la realidad analizada. Otra dificultad sería la magnitud de los datos recogidos, es decir, la abundancia de información tanto textual como visual y de audio.
Debido a esta dificultad es que el investigador se apoya en los software informáticos, herramienta de gran utilidad para la sistematización y control de la metodología de análisis. La relación entre análisis e interpretación y la forma específica que toman, tanto separada como conjuntamente, varían de un estudio a otro, dependiendo de los distintos esquemas o niveles de investigación y, fundamentalmente, del diseño propuesto. Los datos, a partir de los cuales el investigador inicia el análisis, son diferentes según el nivel de elaboración realizado.
El cual depende de la naturaleza del problema de investigación y, consecuentemente, del tipo de investigación; también de las técnicas y procedimientos seguidos en la elaboración. El análisis de datos se convierte en un análisis descriptivo, para examinar y luego informar las medidas de frecuencia que se refiere a la incidencia, prevalencia y de extensión, que tienen relación con el tiempo y de asociación que habla de razones y tasas. Todas estas medidas se calculan por subgrupos importantes y probablemente para el total de la población de estudio.
Procedimientos de estandarización son muy importantes e inclusive para tener en cuenta las diferencias en las distribuciones por edad y otros factores de riesgo, tiempo de seguimiento, etc. Las diferentes pruebas estadísticas se dividen en 2 grandes conjuntos: las paramétricas y las no paramétricas. Una vez que se definió con claridad los aspectos señalados arriba se deberá establecer a cuál de estos 2 conjuntos pertenece la prueba. Cuando debemos tomar una decisión entre dos alternativas como por ejemplo “hipótesis nula” o “hipótesis alternativa” Schoenbach, establece que se puede cometer dos tipos de errores:
Tipo I: Rechazar erróneamente H0 (i.e., concluir, incorrectamente, que los datos no son consistentes con el modelo). Tipo II: No rechazar erróneamente H0 (i.e., concluir, incorrectamente, que los datos son consistentes con el modelo). Regularmente, en la probabilidad de error Tipo I es la que recibe más atención y se denomina el “nivel de significancia” de la prueba. Actualmente, hay muchos métodos para obtener el valor de significancia estadística. La selección depende del nivel de medición de las variables, el diseño de muestreo del cual se obtuvieron los datos, y otros factores.
Para ello hay diferentes métodos y procedimientos como lo es ANOVA, que básicamente se refiere al “Análisis de varianza para más de dos grupos” este se utiliza cuando se quiere comparar información entre más de dos grupos. El análisis multivariado viene a resolver (dicho someramente) este gran problema. Se trata de un conjunto de procedimientos estadísticos en general llamados a manejar un conjunto de variables de modo que sus efectos individuales puedan aislarse sin tener que recurrir a diseños donde el control de variables confusoras se torna imposible por la gran cantidad de sujetos que demandarían.
Por otro lado, si lo que se quiere es extraer un puntaje de la escala utilizando distintos ítems es el de obtener una medida más confiable del constructo que la que es posible a partir de un solo ítem. La confiabilidad en la escala se evalúa clásicamente usando el coeficiente alfa de Cronbach, que se puede considerar como el promedio de todas las correlaciones. En caso de que todos los ítems midan efectivamente el mismo constructo de la misma manera y que hayan sido contestadas muy parecidas, las únicas diferencias en sus valores deberían deberse a errores de mediciones aleatorios.
Hoy nos encontramos en mundo digitalizado siendo que nos apoyamos de múltiples y versátiles programas como el SPSS Y Minitab, programas que al tener acceso a los datos de los mismos o de externos como Microsoft Excel por ejemplo se puede capturar y convertir adaptándolo a la basa de dato del mismo programa SPSS o Minitab. La recolección y el análisis de la información son dos procesos complejos que se desarrollan de manera simultánea en la investigación cualitativa. El análisis acompaña al proceso de recolección de la información desde su inicio.
Guiando el trabajo de campo y permitiendo adentrarse en los temas que pueden surgir durante las posteriores inmersiones en el campo. Además, investigadores cualitativos incluyen el proceso analítico como un apartado más del trabajo de campo, a diferencia de lo que ocurre en otro tipo de investigaciones. No obstante en la investigación científica, especialmente, en las ciencias sociales como el campo educativo y de comunicación social, se pueden llevar a cabo a través de dos métodos distintos: cualitativa y cuantitativa.
Cada una con su propia fundamentación epistemológica, técnicas y métodos manteniendo en claro el objeto de estudio. Aunque ambos métodos se basan en diferentes reglas y proceso de desarrollo, estas no trabajan por separado por lo contrario se complementan. De esta manera “no se trata de ver que el cualitativo es el mejor y que el cuantitativo está superado o muy criticado” (Monje). Ambos permiten un acercamiento para conocer aspectos de la realidad distintos, y conocerlos de diferentes maneras.
Dependiendo del interés en que es lo que se quiere conocer, es que puede decidirse la utilización de uno u otro método. Cada una de las metodologías ofrece elementos importantes, tienen límites y tienen posibilidades. La tarea del investigador, en todo caso, es conocer los potenciales de cada paradigma, estar muy claro en sus preguntas de investigación y saber en cuál de ellos ubicarse para generar el conocimiento que se quiere. Los procesamientos del análisis de datos se pueden hallar a través de una recolección de forma cualitativa o cuantitativa a través de diferentes medios.
Conclusión
Este proceso consiste en recolectar datos para luego organizarlos y clasificarlos ya sea en tabulaciones o gráficos, y posteriormente ser analizados de forma veraz y lo más cercano a la realidad siendo de gran ayuda al proceso de investigación. Siempre teniendo en cuenta que en la actualidad diversos programas computarizados serán de gran ayuda para el análisis de datos debemos de ser conocedores de cómo se extraen y posteriormente introducirán nuestros resultados a los programas. Esto con la finalidad de evitar posibles errores e incertidumbre así como también mayor rapidez y eficacia.