0% encontró este documento útil (0 votos)
403 vistas40 páginas

Resúmen Cea D'Ancona Cap 2,3, 4, 5, 6, 7 FM

Este documento discute diferentes enfoques metodológicos en investigación social, incluyendo cuantitativo, cualitativo e integraciones como la triangulación. Argumenta que ningún enfoque es superior, sino que deben usarse en combinación. Explica cuatro tipos de triangulación y cómo pueden usarse juntos para lograr resultados más satisfactorios. También analiza el desarrollo del método científico y diferentes perspectivas como falsacionismo, relativismo socio-histórico y anarquismo metodológico.

Cargado por

Gabriel Pucheta
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
403 vistas40 páginas

Resúmen Cea D'Ancona Cap 2,3, 4, 5, 6, 7 FM

Este documento discute diferentes enfoques metodológicos en investigación social, incluyendo cuantitativo, cualitativo e integraciones como la triangulación. Argumenta que ningún enfoque es superior, sino que deben usarse en combinación. Explica cuatro tipos de triangulación y cómo pueden usarse juntos para lograr resultados más satisfactorios. También analiza el desarrollo del método científico y diferentes perspectivas como falsacionismo, relativismo socio-histórico y anarquismo metodológico.

Cargado por

Gabriel Pucheta
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 40

Metodología Cuantitativa: Estrategias y Técnicas de Investigación Social

Resumen María Ángeles Cea D’Ancona


FM
Unidad 2: El análisis de la realidad social: Aproximaciones Metodológicas
A partir de los años 60’ se termina con la hegemonía del paradigma cuantitativo-positivista
y renace el paradigma cualitativo-interpretativista, especialmente por los desarrollo de
Popper, y luego de Lakatos y Khun, que terminaron abogando por un pluralismo
metodológico en las ciencias sociales.
2.1. El objeto y el método de la investigación social
El objeto de las ciencias sociales no es un, sino que son varios: La sociedad con su
dinámica propia, la sociedad como producto del hombre, y el hombre como producto de la
sociedad. Y así como existen múltiples objetos, existen consecuentemente múltiples
métodos.
2.1.1. Pluralidad metodológica
Se distingue una dicotomía metodológica básica y radical
a) La perspectiva Humanista-Cualitativa: Concibe a las ciencias sociales como
específicas. Rechaza el mismo método de las ciencias naturales. Plantea el análisis de lo
individual y lo concreto, por medio de la comprensión o interpretación de los significados
intersubjetivos de la acción social. Énfasis en el lenguaje y en los aspectos micro de la
vida social.
b) La perspectiva Cientifista-Cuantitativa: Existencia de un único método, el de las
ciencias naturales y exactas, para todas las ciencias. Principio de Causalidad y búsqueda
de leyes generales. Énfasis en la explicación, en la contrastación empírica y en la
medición objetiva.
Ambas difieren tanto en la estrategia de recolección de información como en su análisis.
Pero como ambas tienen un marco filosófico y metodológico concreto, D’Ancona los
define como paradigmas.
Un paradigma es una imagen básica del objeto de una ciencia. Indica lo que debe
estudiarse, las preguntas que se necesitan responder, cómo preguntar y las reglas para
interpretar las respuestas.
Como conclusión, no se trata de afirmar un paradigma sobre otro, sino de buscar
compatibilidades entre ellos, complementarlos, no oponerlos. De allí es que cobra
relevancia en los años 80’ la triangulación, es decir, el uso de distintos métodos en una
misma investigación.
2.2. Articulación y convergencia interparadigmática: La triangulación
En las ciencias sociales el término triangulación significa la aplicación de diferentes
metodologías para el análisis de una misma realidad social.
La triangulación busca lograr un mayor grado de validez en la investigación, es decir, un
mayor grado de adecuación de la medida utilizada en relación a la realidad que se busca
estudiar.
Existen cuatro tipos de Triangulación:
a) De Datos: El uso de varias y diferentes fuentes de información sobre un mismo objeto
de estudio, sobre un mismo concepto teórico.
b) De Investigadores: Formación de equipos interdisciplinarios. La realización de una
misma investigación por un equipo de investigadores procedentes de diferentes áreas de
conocimiento o especialistas en diferentes metodologías, que observan un mismo objeto
de estudio desde diferentes disciplinas.
c) Teórica: Implica el uso de diferentes teorías. Considerar todas las hipótesis o
proposiciones de diferentes perspectivas teóricas de análisis para un mismo problema.
Suele luego requerir una triangulación de datos del utilizar diferentes teorías.
d) Metodológica
1. Intra-método: Se usa un único método de investigación, pero se usan diferentes
técnicas de recogida y análisis de datos; o cuando se aplica un mismo método a
diferentes situaciones.
De todas formas, en este tipo de investigación se sigue utilizando un solo método, por lo
que se siguen teniendo las mismas limitaciones del método utilizado.
2. Entre métodos: Utilización de diferentes métodos de investigación para conocer un
mismo objeto de estudio.

Estas diferentes formas de triangulación pueden combinarse entre sí. Denzin aboga por la
triangulación multi-método, es decir, el uso de los 4 tipos de triangulación, para
alcanzar resultados más satisfactorios.
(Esto no importante)
Algunas consideraciones sobre la triangulación. No todas las variables pueden ser
accesibles a todos los métodos, por lo que se necesita métodos de recogidas de datos
bastante vinculados para poder aprehender las variables. Por otro lado, se tiene que
procurar que los diferentes métodos midan realmente los mismos conceptos teóricos.
Para que la aplicación de un método no influya en los resultados alcanzados por otro
método, hay dos opciones:
a) Recogida de datos escalonada: Recabar primero la información que sea más
vulnerable a la influencia del investigador o de los sujetos analizados (generalmente
aquella que se obtiene mediante métodos reactivos, como la encuesta). Luego recolectar
el resto de información. Es decir, aplicar primero las estrategias que generan mayor
reactividad, como la encuesta, y luego las no reactivas, como el uso de fuentes
documentales y estadísticas.
b) Dividir la muestra en sub-muestras, o extraer varias muestras. En cada muestra
diferente, o en cada submuestra diferente se aplica una técnica distinta de recolección de
datos, para evitar que un método afecte al otro. De todas maneras se puede sesgar la
información, si los miembros de una muestra o submuestra conocen las técnicas de
recolección aplicadas en las otras. Para evitar se recomienda aplicar las técnicas de
recolección escalonadamente, o bien proceder de manera rápida y simultánea.
Si el objetivo de la investigación es explicar, se tiene que lograr independencia entre las
estrategias de investigación, que no se afecten entre sí.
Existen diferentes estrategias de investigación, como la encuesta, el estudio de casos, el
uso de datos disponibles, y la experimentación. Estas estrategias se pueden combinar
entre sí, en diferentes órdenes, y se benefician mutuamente. Todas poseen ventajas y
desventajas, y se complementan entre sí. Tanto la metodología cuantitativa como la
cualitativa se adecúan a cualquier fase del proceso de investigación social.
Tradicionalmente se relegaba a la metodología cualitativa a la etapa de la exploración
inicial, del descubrimiento, y para la etapa de la justificación científica se consagraban los
métodos cuantitativos. Sin embargo, hoy ya no es así, y se observa que aplicar métodos
cuantitativos puede brindar muchas herramientas para un posterior análisis cualitativo.
Ambas metodologías son intercambiables. No se trata de subordinarlas, sino de
articularlas y combinarlas en los mismo proyectos.
2.2 El método científico
Hasta 1934, existían dos concepciones del método científico. Por un lado, el empirismo-
inductivo, que desestima la lógica como la fuente de la verdad, y antepone la experiencia,
la observación para la generalización y formación de teorías. Por otro lado, el
racionalismo-deductivo.
A partir de 1934 gracias a la obra de Popper se llegó a una síntesis de ambas corrientes,
en el método hipotético-deductivo. La obra de este autor propugna por el falsacionismo.
La acumulación empírica inductiva no tendría nada de absoluta. La cientificidad de la
teoría estaría dada por la capacidad de ser rebatida por la experiencia.
La clave del método científico estaría en la falsabilidad. Es decir, que se intente mostrar la
falsedad de la teoría, lo que ayudaría a probarla. Popper propone el ensayo y el error, la
conjetura y la refutación. Las teorías serían solo conjeturas que serían abandonadas si
entran en conflicto con las observaciones. De esta manera, nunca se puede afirmar que
una teoría sea verdadera, solo se puede afirmar que es superior o inferior a otras. Toda
teoría es siempre susceptible de ser desmentida por la experiencia.
(no importante)
Lakatos, discípulo de Popper propone: Falsacionismo refinado. Para las teorías (o
“programas de investigación”) se buscan los hechos que puedan confirmarlas, y la
probabilidad de la teoría teniendo en cuenta los mismos. La verdad no es absoluta, solo
cuestión de probabilidad. La aceptación de una teoría dependerá de que tenga más
pruebas empíricas que le resto de teorías rivales. La ciencia avanza cuando una teoría no
es eficaz explicando ciertos hechos, y además cuando surgen nuevas teorías que sí
pueden explicarlos. Si no, sigue vigente la anterior teoría.
Kuhn, otro discípulo de Popper, propone: Relativismo socio-histórico. Nunca plena
seguridad de que un conocimiento es científico. La ciencia no avanza ni por falsación, ni
por verificación, sino por sustitución de paradigmas. La aceptación de los paradigmas
depende del consenso entre los científicos. Se producen crisis cuando un paradigma no
puede explicar problemas importantes, y si un nuevo paradigma puede explicarlos y es
aceptado, surge un nuevo paradigma.
Paradigma para este autor es una constelación de creencias, valores, técnicas
compartidas por una comunidad científica. Ciencia normal es para este autor todas las
investigaciones basadas en investigaciones pasadas, y fundamento de nuevas, que sean
reconocidas por un tiempo por la comunidad científica.
Feyerabend propone que ninguna teoría puede ser probada de manera concluyente. En
contra de metodologías fijas. Contra el método científico, anarquismo metodológico.
Defiende interpretaciones naturales y sentido común.
Cea D’Ancona: El método científico hoy es útil, no como un ideal al que se debe
aproximar la investigación, sino solo como una referencia y patrón sobre el cual analizar
los problemas.
2.21. Integrantes esenciales del método científico
Este es el clásico esquema propuesto por Wallace (1971), que entiende a la investigación
científica como un proceso circular, donde la teoría y la investigación se condicionan
mutuamente. Es un feed-back continuo, teoría y datos empíricos se condicionan
mutuamente mediante las dos operaciones: Deducción, de la teoría a los datos, de lo
general a lo concreto, e Inducción, de los datos a la teoría, de las particular a lo general.
Se parte de una teoría que se tratará de comprobar o verificar. De la teoría se extraen por
deducción lógica hipótesis concretas. Se operacionalizan estas hipótesis para poder
contrastarlas empíricamente.
Segundo, se realiza la observación o recolección de datos empíricos. Tercero ser procede
a la interpretación o análisis de los datos recogidos, ya sea de manera estadística, o
semiológica, dependiendo del método elegido. En esta etapa se elaboran
generalizaciones empíricas mediante deducción. En cuarto lugar, se contrastan estas
generalizaciones con las hipótesis originales. Dependiendo de la coincidencia o la
diferencia, se confirma, se rechaza, o se modifica parcialmente la teoría. En base a esto,
el proceso comienza nuevamente.
Los elementos esenciales del método científico serían:
a) Teoría: Conglomerados integrados de proposiciones y visiones del mundo.
Proposiciones lógicamente interconectadas de las que se pueden deducir uniformidades
empíricas. Componentes:
-Conceptos: Símbolo lingüístico que categoriza fenómenos. Categorías para organizar
ideas y observaciones. Clasifican y miden operativamente fenómenos que se observan.
-Proposiciones: Indican cómo y en qué condiciones generales se hallan relacionados los
fenómenos definidos conceptualmente.
-Axiomas o leyes: Explican las regularidades o conexiones existentes en los fenómenos
sociales.
Según Wallace las teorías tienen dos funciones básicas:
.Explicar generalizaciones empíricas ya conocidas, subsumiendo estas afirmaciones en
conceptos y proposiciones.
.Predecir generalizaciones empíricas todavía desconocidas hacia el futuro.
A estas funciones se le agrega la función de interpretación: Permite relacionar hechos
empíricos con otros hipotéticos o ya verificados. Además también ayuda en las fases
preliminares de la investigación, a la hora de: a) Decidir los esquemas clasificatorios a
utilizar b) Conceptos teóricos que orientan el análisis c) Formular problemas de
investigación con relevancia social d) Concretar ideas generales sobre cómo se dan los
cambios sociales e) Formular hipótesis: Realizar previsiones a partir de hechos aún no
verificados.
Según Merton existen dos tipos de teorías sociológicas:
a) Grandes teorías, teorías generales, o globales: Ofrecen explicaciones bastante
abstractas, especulativas, poco apoyadas en evidencia empírica, de aspectos generales
de la vida social. Pueden servir para: 1) Guiar el proceso de investigación 2) Dar
explicación de los hallazgos.
b) Teorías de Rango Medio: Se limitan a aspectos concretos de la vida social, a
relaciones entre variables que pueden medirse empíricamente. De este tipo de teorías se
derivan hipótesis que pueden ser empíricamente comprobadas. De todas formas la
conclusión del proceso de investigación requiere de una teoría general que afiance los
resultados.
b) Hipótesis: Son predicciones o respuestas probables a los interrogantes que formula el
investigador, para su contrastación empírica. Se derivan de las teorías para contrastarlas
con la experiencia.
Por el proceso de deducción, los conceptos y proposiciones que conformar una teoría se
concretan en variables indicadores que permitan contrastar empíricamente la teoría. Este
proceso se llama operacionalización de conceptos teóricos. Consiste en:
-Descomponer el concepto en las diferentes dimensiones o aspectos que contiene.
-Seleccionar para cada dimensión una serie de indicadores.
-Sintetizar los indicadores mediante la elaboración de índices que resuman una, varias o
todas las dimensiones del concepto.
En las hipótesis se hace también referencia a las unidades de observación, ya sean
individuos o grupos, y ya sean poblaciones enteras o muestras.
c) Observación o Recolección de datos: Se recogen los datos relacionados con los
indicadores empíricos seleccionados para su posterior análisis. Puede ser mediante una o
varias técnicas (cuestionario auto administrado, entrevista personal, utilización de datos
disponibles, etc.)
d) Generalizaciones Empíricas: Mediante un proceso de inducción, se interpreta la
información obtenida en busca de generalizaciones empíricas, que son proposiciones que
resumen uniformidades observadas de relaciones entre dos o más variables.
El paso siguiente es la contrastación de las generalizaciones empíricas con las hipótesis
de la investigación. Cuando los datos empíricos corroboran las hipótesis teóricas, ello
implica la confirmación de la teoría. En caso contrario, la teoría original debe modificarse o
rechazarse.
Merton señala tres formas principales en que la investigación empírica ayuda a la
formulación de la teoría: a) Serendipity Pattern: Se realizan hallazgos no anticipados, no
consistentes con la teoría, lo que estimula a la modificación de la misma o al desarrollo de
una nueva. b) La observación repetida de hechos que anteriormente se negaban presiona
hacia la modificación de la teoría. c) El proceso de investigación fuerza al investigador a
establecer definiciones operacionales de conceptos. Esto ayuda a clarificar la teoría.
La teoría y la investigación deben interrelacionarse. La teoría debe basarse e hallazgos
empíricos para no ser mera especulación teórica, y la investigación debe partir de la teoría
para adquirir una mayor relevancia.
No todas las investigaciones empíricas que se realizan cumplen con todas las fases o
etapas enunciadas, y tampoco de forma lineal. Depende del estudio y de la metodología
seguida. Tanto la metodología cualitativa como la cuantitativa comparten fases similares
de desarrollo: Selección y definición del problema a partir de una teoría o investigación
previa, formulación de hipótesis, elección del diseño de investigación, recogida de datos,
análisis de la información, validación e informe. En la práctica la investigación no asiste a
una sucesión ordenada de fases.
2.2.2. La cientificidad de la sociología
Existen cuestionamientos al carácter científico de las ciencias sociales, especialmente en
lo relacionado a la objetividad y la neutralidad ética, y a los problemas de interacción y
medición, en comparación con las ciencias naturales.
Lo que da cientificidad a un conocimiento no es su objeto, sino su método: La capacidad
de explicar la realidad conforme a principios lógicos-empíricos, aceptados por al
comunidad científica.
Según Bottomore, el conocimiento sociológico es científico por tres razones: Se ocupa de
hechos, no de juicios de valor. Aporta pruebas empíricas en apoyo de las afirmaciones.
Es objetivo.
Sin embargo estos requerimientos no aplican para el paradigma cualitativo, que admite la
intervención de los valores en el proceso de investigación.
El hecho de que el hombre sea a la vez sujeto y objeto de conocimiento es lo que dificulta
la objetividad en las ciencias sociales.
Se suele aceptar la influencia de los valores en la toma de decisiones en el proceso de
investigación, lo que es discutible en cambio es su aceptación en el contenido de los
enunciados sociales científicos.
Weber admite la influencia de los valores en el proceso de investigación, pero no en
análisis de lo datos, que debe hacerse de manera objetiva. Por ello el científico debe
explicitar sus valores para que no se confunda la realidad que describe con los ideales
que profesa. Así varios autores admiten la cientificidad de las ciencias sociales, y alientan
explicitar los valores que tengan los investigadores.
Cea D’Ancona: La sociología sí es una disciplina científica porque desarrolla teorías
verificables empíricamente.
Unidad 3: La organización de la Investigación
La investigación que realmente se lleva a cabo se encuentra condicionada no solo por los
objetivos de la misma, o el marco teórico, sino también por aspectos económicos y
temporales de plazos.
Estos aspectos condicionan la investigación desde la misma formulación de su proyecto.
Afectan al diseño, es decir, a la selección de estrategias, con las correspondientes
técnicas de recolección y análisis de información.
De todas formas el proceso de investigación no debe concebirse como algo fijo e
inmutable, sino que puede ya veces debe modificarse durante el proceso.
3.1. El proyecto de Investigación
El proyecto de investigación es algo diferente y abarcativo del diseño de investigación.
El diseño es la planificación de la estrategia de investigación. Es un plan que integra las
técnicas de recolección de datos, y los análisis y objetivos previstos. La función del diseño
es guiar en la obtención y análisis de la información.
En cambio el proyecto de investigación abarca al diseño, pero además incluye aspectos
como la idea original de la investigación, sus objetivos concretos, y las variables
económicas, organizativas y temporales.
Es decir, el proyecto hace referencia a tres elementos claves: a)los objetivos de la
investigación b)Los recursos o medio materiales, económicos y humanos disponibles c) el
tiempo disponible.
3.1.1. La formulación del proyecto de investigación
Consiste en la definición de qué es lo que se pretende analizar, cuáles son los objetivos
generales y específicos. Además qué razones motivaron la elección del problema
concreto, y la justificación de la elección, marcar por qué es relevante investigar eso.
Pueden existir diferentes fuentes para la idea, ya sea una propuesta de la institución, o la
lectura de bibliografía, o mediante la observación de fenómenos, o por estar en contacto
con otros especialistas, o también por reflexión propia y profunda, o simplemente por
azar.
Una vez que se tiene una idea vaga, lo recomendado es realizar un proceso de Revisión
Bibliográfica exhaustiva sobre el tema. Esto persigue algunos objetivos.
Por un lado, estructurar la idea originaria, y contextualizarla en una perspectiva teórica y
metodológica, y por otro lado, inspirar el cómo diseñar la investigación a partir de otras
investigaciones.
Esto ayuda a prevenir errores cometidos en estudios anteriores al presente. Y además
ayuda a no ser redundantes, es decir, a dar un nuevo enfoque al proporcionado por otras
investigaciones. Además se trataría de plantear nuevos interrogantes, para cubrir
aspectos no observados y no los que continuamente se analizan.
Además de la revisión bibliográfica también pueden realizarse otras indagaciones
exploratorias, como discutir el tema con otros investigadores, o entrevistar a actores
implicados en el problema a investigar.
A partir de la revisión bibliográfica y otras indagaciones exploratorias se configurará el
marco teórico de la investigación. Además proporcionará un marco de referencia al que
acudir para la interpretación de los resultados que obtenga. De lo exhaustivo que resulte
esta indagación previa dependerá el buen desarrollo de la misma.
3.1.2. Operacionalización del problema de investigación
Consiste en la concreción del objeto de estudio, tanto en su vertiente teórico-analítica
como poblacional, de muestra.
Del marco teórico mediante deducción se obtienen hipótesis que son respuestas
probables a las preguntas de investigación. Son expresadas en formas de proposiciones
en las que se afirma la existencia o inexistencia de asociación esperada al menos entre
dos variables, una independiente y otra dependiente.
Las hipótesis contienen conceptos que marcan lo que debe analizarse. Para ello la
hipótesis se tienen que traducir en variables empíricas o indicadores. Este es el proceso
de operacionalización de conceptos teóricos.
Además de las variables, en las hipótesis también se hace mención a las unidades de
análisis: La población o universo objeto de estudio. Las unidades de análisis no solo
incluyen al individuo o colectivo a analizar, sino también el espacio y tiempo donde se
ubicará.
3.1.3. El Diseño de la investigación
El diseño de la investigación hace referencia al cómo va a realizarse la investigación.
Implica la selección de una o varias estrategias de investigación: Uso de fuentes
documentales y estadísticas, estudio de casos, encuesta y experimento.
La elección de la estrategia va a depender de tres factores: Los objetivos del estudio
(exploratorios, explicativos, predictivos, evaluativos), y por otro lado lo que hace a la
factibilidad y viabilidad del proyecto, es decir, los recursos disponibles (materiales,
económicos, humanos) y el tiempo disponible para su realización.
La estrategia elegida influirá en:
a) El diseño muestral: La muestra, su volumen y forma de selección.
b) Las técnicas de recolección de información:
1) Revisión de fuentes de observación secundaria (estadísticas y documentos)
2) Observación sistemática, participante y no participante.
3) Entrevistas abiertas, semi o no estructuradas, individuales o grupales.
4) Relatos biográficos y documentos personales.
5) Cuestionario estandarizado
c) Las técnicas de análisis de datos:
1) Documental
2) Estadístico
3) Estructural (análisis del discurso, etnografía y fenomenografía)
4) Interpretacional (construcción de teorías, descriptivo/interpretativo)
5) De contenido (cualitativo/cuantitativo)
De todas maneras el diseño de investigación puede alterarse ante las dificultades de
ponerlo en práctica, lo mejor es prever un diseño alternativo.
3.1.4. La factibilidad de la investigación
Evaluar si se tienen las condiciones mínimas para realizar el proyecto.
a) Fuentes: Bibliografía básica especializada del tema, tanto teórica como empírica y
metodológica. Obras clave y publicaciones actualizadas.
b) Recursos materiales y humanos disponibles: Implican la capacidad y experiencia de los
investigadores, que se expresa en el currículum, y los medios para cumplir el proyecto.
c) Otros recursos materiales y económicos y humanos necesarios: Personal, Equipo
material inventariable, material fungible, dietas y desplazamientos.
d) Planificación del tiempo de ejecución de la investigación: La cronología de las tareas,
limitar la duración de cada fase de la investigación. Los plazos de entregas parciales y
finales.
Todo proyecto puede sufrir modificaciones al aplicarse, y depende de la capacidad de
adaptación del investigador que se termine con éxito.
3.2. Diseños y Estrategias de Investigación
Si bien método y técnica suelen usarse como sinónimos, cada vez se los suele diferenciar
más. Las técnicas son un elemento subordinado al método. Las técnicas son operaciones
específicas de búsqueda de datos.
El diseño de la investigación es un concepto que abarca a la estrategia. El diseño es el
proceso de ingeniería, las tareas directivas de la investigación. El diseño implica la
elección de la estrategia a utilizar, y en función de ella, la elección de las técnicas de
recolección y análisis de datos a utilizar.
Clasificación de estrategias de investigación de Cea D’Ancona
a) Uso de fuentes documentales y estadísticas
b) Estudio de casos (etnográfico, biográfico, otros cualitativos y los cuantitativos)
c) Encuesta
d) Experimentación
e) La triangulación o aproximación multimétodo
El estudio de caso si bien es una estrategia de investigación diferente, puede hacer uso
de las mismas técnicas de recolección y análisis de datos que las otras estrategias.
Tradicionalmente se ubicó a esta estrategia dentro de la metodología cualitativa, pero en
realidad se pueden hacer estudios de casos enteramente con evidencia cuantitativa.
El estudio de caso puede ser único o múltiple, dependiendo de la cantidad de casos que
se estudien. Se puede analizar la información de formas variadas: etnográfica,
etnometodológico, biográfico e incluso cuantitativo. Los estudios de casos pueden tener
finalidad exploratoria, descriptiva, predictiva e incluso evaluativa.
D’Ancona aboga por una concepción pluralista de las diversas estrategias de
investigación. Un mismo objetivo puede suponer la aplicación de diferentes estrategias, o
una misa estrategia puede ser útil para diferentes objetivos. Para cada objetivo existen
múltiples estrategias y técnicas posibles.
3.2.2. Tipologías de diseños de investigación
1) Tipología de Campbell y Stanley
- Diseños preexperimentales o correlacionales
a) Ausencia de manipulación de las variables. El investigador se limita a observar el
fenómeno, sin introducir modificaciones o alterarlo.
b) Se efectúa una única medición.
c) Falta control de las posibles fuentes de invalidación de la investigación.
Pueden realizarse:
- Con un único grupo con una sola medición (posterior al tratamiento)
- Diseño pretest-postest de un único grupo
-Comparación entre un grupo experimental y otro de control, pero sin ninguna medición
previa
Ninguno de estos tres diseños cumplen con los requisitos de la experimentación: a)
Existencia de al menos un grupo de control (no expuesto al tratamiento cuyos efectos se
quiere medir) b) La formación aleatoria de grupos c) la medición antes y después del
tratamiento experimental.
En el primero no se realiza una medición previa al tratamiento, y tampoco se realiza un
grupo de control. El segundo incluye la medición previa, pero no un grupo de control. El
tercero introduce el grupo de control, pero no la medición previa.
- Diseños experimentales
Se definen como observación controlada, el investigador actúa controlando las posibles
fuentes de invalidación, el investigador crea las condiciones a observar. Características:
a) Manipulación experimental: El investigador manipula a priori, antes de la recolección de
la información, las variables cuyos efectos busca medir.
b) Formación de grupos de control, totalmente equivalentes al grupo experimental,
excepto en la variable independiente.
c) Formación aleatoria de los grupos, tanto el experimental como el de control, para que
sean equivalentes.
Este diseño posee validez interna, es decir, se controlan las posibles explicaciones
alternativas. No posee validez externa, no se pueden generalizar los resultados.
- Diseños cuasi experimentales
a) Puede o no haber manipulación experimental de la variable independiente (como en
experimental) pero
b) No se realizan en laboratorios, sino en la vida real; y
c) La formación de los grupos experimentales y de control no es aleatoria, lo que hace
perder la garantía de equivalencia entre ellos.
Se diferencia de los preexperimentales porque en los cuasi sí se puede manipular la
situación para su observación, el investigador no se limita a la observación.
2) Tipología de seccionales (transversales) o longitudinales
a) Seccionales o Transversales
La recolección de datos se realiza en único momento, de una sola vez, puntual.
b) Longitudinales
La recolección de datos se realiza en dos o más veces, a lo largo del tiempo. Se busca
observar la evolución, los cambios en el objeto con el tiempo. El tiempo se vuelve una
variable importante. Existen tres tipos de longitudinales
1. de Tendencias: El objeto de estudio es toda la población entera. Observa las
tendencias dentro de esta. Se puede observar la población entera, o tomar una muestra,
pero el objeto sigue siendo toda la población. La muestra observada sí se renueva, pero
no el instrumento de medición.
2. de Cohorte: El objeto de estudio es una subpoblación o cohorte, es decir, un grupo de
la población que comparte una misma característica común, no la población entera. Se
puede observar a toda la cohorte, o tomarse muestras de las mismas. Éstas se observan
en al menos dos momentos diferentes para observar cambios. Para cada medición se
forma una nueva muestra. De todas formas pueden estudiarse más de una cohorte.
3. de Panel: Se busca estudiar los mismos individuos a lo largo del tiempo, se utiliza la
misma muestra o población, no se forma una nueva para cada medición.
El diseño de panel es útil para observar cambios a lo largo del tiempo sobre individuos
que no varían, pero si varían las condiciones. Pero tienen dos desventajas: El desgaste
de la muestra con el consiguiente aumento de la no respuesta, y además, el proceso de
medición puede provocar sesgos en mediciones posteriores por efecto del aprendizaje.
3) Tipología según el Objetivo de la Investigación
Clasifican los diseños según el objetivo de la investigación, su fin. No son excluyentes
entre sí, una misma investigación puede tener más de un objetivo. Así, serían diseños
complejos. Generalmente los diseños con objetivos superiores suelen incluir a los
objetivos previos.
a) Exploratorio: Tiene como objetivo: Familiarizarse con el problema de investigación para
conocer en qué aspectos aún no se ha indagado. Verificar la factibilidad de la
investigación, y conocer los medios necesarios para llevarla a cabo. Ayuda a decidir qué
estrategia, y qué técnicas de recolección y de análisis de datos, son más adecuadas y
pertinentes.
Este tipo de diseño no suele ser un fin en sí mismo, sino que se realiza para posibilitar los
otros diseños.
b) Descriptivo: Busca conocer y describir las características del objeto de estudio. Al igual
que el exploratorio, constituye un paso previo en la investigación para llegar a la
explicación.
c) Explicativo: Conocer las causas o razones de los hechos.
d) Predictivo: Predecir la evolución de un fenómeno. Implica las etapas anteriores.
e) Diseño evaluativo: Busca evaluar, lograr conclusiones válidas y fiables sobre la
efectividad de programas o actividades de intervención social. Existen diferentes tipos:
-De impacto: Se evalúan el impacto o los efectos de un programa para mejorarlo, de
acuerdo a sus metas y objetivos.
-De proceso, formativa o de desarrollo: Es la descripción del programa, en qué consiste,
cómo funciona. Se establece si el programa se está llevando a cabo en conformidad con
los planes originales, y se busca conocer las causas de su éxito o fracaso.
-Valoración de necesidades: Busca determinar las necesidades prioritarias que el
programa debe atender. Se usa especialmente cuando el programa resulta amplio y
complejo, con un gran número de componentes.
-Evaluación mediante análisis de sistemas: Se concibe al programa como formado por
subsistemas, y a su vez relacionado con el sistema socia. Se analiza sus relaciones e
interrelaciones.
-Análisis coste-beneficio: Se estudia la relación coste del programa y sus resultados
expresados en términos monetarios (a diferencia del primer evaluativo que lo analiza en
términos de impacto real).
-Evaluación del conjunto: Comprende tanto las metas, como su repercusión, las
alternativas disponibles y los costes de su actuación. Es una evaluación de síntesis.
El diseño de una investigación evaluativa puede utilizar más de una estrategia de
investigación diferente, así como más de una técnicas de recolección o análisis de datos
distinta.
Todas las investigaciones pueden tener más de un objetivo, e incluso pueden cambiar sus
objetivos durante la marcha.
3.3. La validez del diseño de investigación
Para evaluar un diseño de investigación existen diferentes criterios. El primero es el de si
el diseño se adecúa a los objetivos de la investigación. Si los objetivos de la investigación
no se alcanzan, no se logra cumplir el fin para el que se diseñó. Si no se aprueba este
criterio no se pasa a los siguientes.
Existen otros criterios además para evaluar la validez. Se toma la clasificación de
Campbell y Stanley.
a) Validez interna: Es la capacidad de establecer relaciones de causalidad ente variables
independientes y dependientes al haber eliminado o controlado otras explicaciones
alternativas. Esta validez es prioritaria especialmente en los diseños explicativos.
El control de explicaciones alternativas puede efectuarse a priori o a posteriori:
-A priori: En el diseño de investigación, especialmente en la experimentación. Se forman
grupos de control totalmente equivalente al grupo experimental excepto en el valor de la
variable explicativa, y la formación de los grupos es aleatoria. Esto ayuda a eliminar las
variables perturbadoras que pudieran incidir en la relación.
-A posteriori: En el proceso de análisis de la información. Se aplican técnicas de análisis
bivariable y multivariable agrupando a sujetos iguales en función al valor de la variable
independiente. En todos los grupos debería observarse las mismas variaciones
dependiendo de los valores de la variable independiente.
El mayor o menor grado de validez interna depende del control de las explicaciones
alternativas, es decir, del número de variables perturbadoras cuya influencia se haya
neutralizado o controlado.
b) Validez Externa: Posibilidad de generalización de los resultados de una investigación
tanto a la población de la que se extrajo la muestra, como a otros tiempos y contextos, si
éstos tienen las mismas características que el contextos espacial y temporal observado.
La posibilidad de generalizar los resultados de la investigación a toda la población van a
depender de que la muestra constituya una representación en pequeña escala de la
población estudiada, es decir, del grado de representatividad de la muestra.
La representatividad de la muestra depende no solo del tamaño de la misma en relación a
la población, sino también de la forma de selección de la misma. S recomienda seguir
procedimientos de selección aleatorios o probabilísticos, y cuando no sea posible, que la
muestra escogida incluya todos los diferentes casos de los que componen el universo o
población.
c) Validez de constructo: Depende del grado de adecuación en la medición de los
conceptos de la investigación. Es decir, si lo que se mide empíricamente es
verdaderamente a lo que el concepto hace referencia. Para ello, al operacionalizar la
variable se recomienda una operacionalización múltiple, es decir buscar más de un
indicador o medida para cada concepto.
d) Validez de conclusión estadística: Depende del poder, adecuación y fiabilidad de la
técnica de análisis de datos aplicada. La adecuación del tamaño muestral con la técnica
de análisis de datos usada incide en la significatividad estadística de los resultados de la
investigación, es decir en la posibilidad de generalizar los resultados obtenidos de la
muestra a la población. Además debe comprobarse también si la información recabada
satisface las exigencias de la técnica de análisis de datos elegida.
Aumentar la validez interna lleva a disminuir la validez externa, al limitar la
experimentación las posibilidades de generalizar los resultados. Ocurre al revés también,
primar la validez externa lleva a disminuir la validez interna. Mientras en los diseños
descriptivos prima la validez externa, en los explicativos la interna. Ambos criterios de
validez se contraponen. De todas formas se pueden realizar diseños que consigan grados
aceptables de los cuatro tipos de validez.
Unidad 4: La operacionalización de conceptos
La operacionalización implica deducir variables empíricas o indicadores para contrastar
empíricamente el concepto. Implica asignar mediciones a conceptos.
4.1. Fundamentos y principios de la operacionalización
En el proceso de operacionalización se diferencian dos nociones fundamentales:
a) La conceptualización: La clarificación de las ideas o constructos teóricos, su definición
precisa.
b) La medición: Vincula las operaciones físicas de medición con las operaciones
matemáticas de asignar números a objetos.
La definición más clásica de medición es la asignación de números a objetos o
acontecimientos de acuerdo con reglas. Sin embargo esta definición puede ser
inadecuada para las ciencias sociales. Muchos fenómenos de las ciencias sociales son
demasiad abstractos para ser considerados cosas que pueden verse o tocarse, o
meramente un resultado o consecuencia, es decir un acontecimiento.
La medición debe comprenderse como el proceso de vincular conceptos abstractos a
indicadores empíricos. Incluye aspectos:
-Teóricos: El concepto, que no es observable y por lo tanto no directamente medible, es
latente.
-Empíricos: Una respuesta observable, ya sea una respuesta a un cuestionario o
entrevista, como la observación de una conducta.
Los conceptos se caracterizan por ser abstractos, no ser directamente observables,
hipotéticos, latentes, por lo que deben ser traducidos a indicadores o variables empíricas.
Consideraciones para la operacionalización:
a) Debe haber una plena correspondencia entre los conceptos y los indicadores elegidos,
que los indicadores logre representar la propiedad del concepto, para lograr validez y
fiabilidad.
b) Los indicadores puede materializarse de manera diversa. Depende de la técnica de
recolección de datos elegida.
c) Siempre existen márgenes de incertidumbre en la operacionalización. La relación entre
indicadores y el concepto será siempre supuesta, nunca plena, una aproximación en
términos de probabilidad.
4.2. La medición de variables: Tipologías
Una variable es cualquier cualidad o característica de un objeto que contenga al menos
dos atributos (categorías o valores).
Los atributos son las distintas categorías o valores de la variable. La variable puede tomar
valores (numéricos) o adopta categorías.
La medición de una variable consiste en el proceso de asignarle valores numéricos o
categorías. Existen tres requisitos para que la medición de la variable sea adecuada:
a) Exhaustividad: Que la medición comprenda todos los valores o categorías que pueda
adoptar la variable, que ninguna observación se quede sin poder clasificarse.
b) Exclusividad: Los valores o categorías de la medición deben ser mutuamente
excluyentes. Una observación debe poder ser solo clasificada en un valor o categoría.
c) Precisión: Que existan la mayor cantidad de distinciones posibles, para una información
más precisa.
Principales clasificaciones de variables
1) Tipo de variables según el Nivel de Medición:
a) Cualitativas o No métricas:
1. Nominales: Categorías diferentes, entre las que no se establece ningún tipo de relación
de orden o de otra clase. Los números asignados a las categorías son establecidos
arbitrariamente, no indican cantidad. (Solo cumplen con la exhaustividad y la
exclusividad).
2. Ordinales: Se suma la característica de poder establecer un orden o jerarquía entre las
categorías. Pero no se conoce la magnitud exacta de la categoría, son no métricas o
cualitativas, expresan la cualidad del objeto, no la cantidad.
b) Cuantitativas o métricas:
3. de Intervalo: Agregan la característica de poder cuantificar exactamente la distancia
que separa a cada valor de la variable. Se establece una unidad física de medición
estándar, se establecen intervalos iguales.
4. de Proporción o Razón: Agregan la característica de establecer un cero absoluto, lo
que permite el cálculo de proporciones. El cero equivale a la ausencia del objeto real.
Los cuatro niveles son una escala acumulativa, cada comprende las características del
nivel anterior. Se recomienda usar en lo posible la de mayor grado. La elección del tipo de
variable dependerá de la técnica de recolección de datos elegida.
2) Tipos de variable según la Escala de Medición:
a) Variables continuas: Tiene valores intermedios entre dos valores. Es una escala
ininterrumpida de valores.
b) Variables discretas: No existen valores intermedios entre dos valores.
3) Tipos de Variables según su función en la investigación:
a) Independientes, Explicativas o Predictoras (X): Son las que influyen sobre las otras
variables (las dependientes). Son las causas de los efectos que se observan.
b) Dependientes o criterio (Y): Los valores que adopten dependen de las variables
independientes.
c) Perturbadoras: Son variables que median en la relación entre la variable independiente
y la dependiente. Implican la posibilidad de explicaciones alternativas que hacen que la
relación observada entre independiente y dependiente sea espuria.
Si el efecto de las variables perturbadoras se controla, dejan de ser perturbadoras y se
convierten en variables de control. Hay que intentar controlar la mayor cantidad de
variables perturbadoras para que la investigación tenga validez interna.
Las variables aleatorias o estocásticas son variables perturbadoras pero de baja
incidencia. Su efecto de perturbación entre la relación de la variable independiente y
dependiente puede reducirse siguiendo un proceso aleatorio de selección de la muestra,
para que la misma sea heterogénea. La proporción de casos en los que esta variable
aparece es muy baja, por lo que no considerar esta variable en la investigación no
provoca de hecho sesgos importantes.
4) Tipos de variables según su nivel de abstracción
a) Variables Generales: Tan genéricas y abstractas que no pueden ser directamente
observadas. Para poder ser medidas necesitan traducirse a variables intermedias e
indicadores. Ej: El status social.
b) Variables Intermedias: Expresan una dimensión de la variable genérica. Ej: Nivel
Educativo para status social.
c) Indicadores y variables empíricas: Son un aspecto específico de la variable intermedia.
Son directamente observables y medibles. Ej: Cursos académicos cumplidos para Nivel
Educativo.
4.3. De los conceptos teóricos a los indicadores e índices
Para medir la ocurrencia de los conceptos teóricos se procede a su operacionalización.
Se tiene un concepto, que no puede ser observado empíricamente. Para ello, se de una
definición del concepto. Luego, se procede especificar los indicadores empíricos en los
que se refleja esa definición conceptual.
En la indagación científica la delimitación de los conceptos depende de dos tipos de
definiciones:
a) Definición nominal o teórica, que se asigna a un concepto, pero carece de las
precisiones necesarias para medir los fenómenos a los que hace referencia.
b) Definición Operacional: Especifica cómo se medirá el concepto, vinculando el contenido
teórico con procedimientos operacionales. Señala qué operaciones de investigación
ayudan a observar la presencia del concepto estudiado.
Fases de la operacionalización según Laszarsfeld:
1) Representación teórica del concepto, definición de sus rasgos.
2) Especificación del concepto, descomponiéndolo en sus diferentes dimensiones o
aspectos.
3) Elegir uno o varios indicadores (variables empíricas) que indiquen la dimensión.
4) Síntesis de los indicadores mediante la elaboración de índices. Esto se realiza
asignando un peso o valor a cada indicador según su importancia, se los pondera. A partir
de estos valores se confecciones un índice, agrupando varios indicadores de la misma
dimensión ahora operacionalizados numéricamente.
Sería: Concepto – Dimensiones – Indicadores - Índices
Por más dimensiones que se consideren, nunca puede abarcarse la totalidad de un
concepto.
Los indicadores son propiedades manifiestas que relacionan una propiedad latente
(dimensión) con fenómenos empíricos. Para cada dimensión habría que encontrar al
menos un indicador.
Hay que tener en cuenta que los indicadores representan aproximaciones en términos de
probabilidad al concepto que miden. Por ello es recomendable recurrir a la
operacionalización múltiple para aumentar la validez de constructo.
La operacionalización múltiple, que utiliza varias medidas para un mismo concepto,
contribuye a abarcar las distintas dimensiones del mismo. Cuando coinciden los
resultados de mediciones diferentes aumenta la validez de la investigación.
El análisis factorial o técnica multivariable: Es útil para estudiar las diferentes dimensiones
de un mismo concepto, pero con posterioridad a la recogida de información. Esta técnica
analítica multivariable sirve para analizar las interrelaciones entre un número grande de
variables. Se agrupa esas variables según sus dimensiones latentes comunes, o
“factores”. El número de dimensiones o factores debe ser inferior al número de variables
del análisis.
Cada factor queda definido por las variables que muestran una mayor correlación
respecto a ese factor que respecto a otros. El investigador coloca un nombre o etiqueta a
común los indicadores que representan cada factor.
El concepto se divide en sus dimensiones. Los indicadores proporcionan información
numérica de las dimensiones. A través de los índices se obtiene una cifra resumen de los
diferentes indicadores de una misma dimensión o concepto.
Para calcular un índice se necesita que las medidas se transformen en una escala de
medición común para poder agregarlas. Se realiza un proceso de ponderación, es decir
se le asigna pesos o valores a los indicadores, que expresan las diferencias en las
importancias relativas de cada uno de los indicadores del índice.
4.5. Cuestiones de Validez y fiabilidad de la medición
4.5.1. La Validez de la Medición
La validez implica que los indicadores proporcionan una representación adecuada del
concepto teórico que miden. Requiere que los indicadores elegidos realmente “indiquen”
lo que se pretende indicar, que “midan” correctamente el significado del concepto teórico.
Es decir, que los indicadores resulten apropiados para la medición del concepto de
interés.
Según Carmines y Zeller hay tres tipos de validez:
a) Validez de criterio, predictiva o concurrente: Implica que la medida clasifica a las
unidades de análisis de la misma manera que otras medidas que usadas para el mismo
concepto. Se compara la medición con alguna otra medida o criterio que se haya usado
para medir el mismo concepto anteriormente.
Hay dos tipos de validez de criterio:
- Validez concurrente: Cuando se correlaciona la medición nueva con otra medida o
criterio adoptado en el mismo momento. (Ej.: Comparar una encuesta de intención de voto
con los resultados oficiales de las elecciones)
- Validez predictiva: Cuando se correlaciona la medida, con otra medida o criterio futuro.
Ej.: Los resultados de una encuesta de racismo a empresarios, con las conductas que
luego éstos manifiesten a la hora de contratar empleados.
b) Validez de contenido: El grado en que una medición empírica cubre la variedad de
significados incluidos en un concepto. Utilizar múltiples indicadores contribuye a aumentar
este tipo de validez.
c) Validez de constructo: Cuando se compara una medida particular con aquella que
teóricamente habría de esperar según las hipótesis derivadas del marco teórico.
En general, la validez intenta demostrar que una forma de medir un concepto converge
con otras maneras de medirlo. La recomendación es siempre medir a los conceptos con la
mayor cantidad de indicadores diferentes posibles, para asegurar mayor validez.
4.5.2. La fiabilidad de la medición
Consiste en que mediciones repetidas del mismo concepto deberían dar los mismos
resultados.
Lo más básico para comprobar la fiabilidad consiste en aplicar el mismo proceso de
medición en diferentes momentos para observar si se obtienen los mismos resultados.
Tiene dos aspectos: La estabilidad y la consistencia. Algunos métodos para medir la
fiabilidad son:
a) Método Test-Retest: Consiste en administrar una misma medida a una misma
población en dos períodos de tiempo diferentes para así poder observar si existen
diferencias en los resultados. Se calcula la correlación entre los resultados de las dos
mediciones, así se mide la estabilidad del indicador. Cuanto más alta la correlación entre
los dos resultados, mayor será la estabilidad.
Diferencias observadas
Fiabilidad: 1 = ------------------------------
Máximas diferencias posibles
Cuanto mayor el valor, mayor la fiabilidad.
Un coeficiente bajo no supone necesariamente que la fiabilidad sea baja. Puede significar
que el objeto de estudio presentó variaciones. También puede ser producto de la
reactividad, es decir que la medición del fenómeno misma puede inducir cambios en el
fenómeno. Otro problema puede ser el de la memoria, es decir que las personas
recuerdes las respuestas que dieron anteriormente, y las repitan solo para lograr
coherencia.
b) Método alternativo: Analizar un misma población en momento diferentes, pero variando
el instrumento de medición en la segunda comprobación. En la segunda se mide el mismo
concepto, pero de distinta manera. De esta forma se evita el problema de la incidencia de
la memoria de la población.
Otra forma es dividiendo a la mitad a un grupo de ítems de forma aleatoria para realizar
dos comprobaciones paralelas y poder así comparar sus coeficientes de correlación.
c) Método de las dos mitades: Es una manera de comprobar la consistencia interna de
una medida. No se efectúan dos comprobaciones en períodos diferentes de tiempo, sino
al mismo tiempo. Para ello se divide la serie total de ítems en dos mitades y se
correlacionan las puntuaciones obtenidas en la medición
d) Método de consistencia interna alpha Cronbach: Se obtiene calculando el promedio de
todos los coeficientes de correlación posibles de las dos mitades. De esta manera se mide
la consistencia interna de todo los ítems, global a individualmente.
Unidad 6: El uso de fuentes documentales y estadísticas
Una estrategia básica de investigación es acudir a archivos de datos y fuentes
bibliográficas en busca de información que otros autores han reunido sobre el tema de
estudio. Es una forma de investigación no-reactiva.
Esta estrategia suele aplicarse anteriormente al resto de las estrategias, es decir se
encuentra presente en casi todas las investigaciones, ya sea como estrategia única o bien
previa y complementaria a otras.
La revisión bibliográfica de investigaciones teóricas y empíricas sobre el tema de estudio
figura como parte de cualquier indagación.
La información obtenida mediante fuentes secundaria descubrirá el conocimiento ya
existente sobre el tema de la investigación, lo que permite identificar en qué aspectos falta
conocimiento para realizar investigación primaria.
6.1. Clarificación terminológica: el análisis secundario y el meta-análisis
Investigación primaria: El investigador obtiene él mismo la información del objeto de
estudio, mediante la aplicación de técnicas de recolección de datos.
Investigación secundaria: El investigador se limita al análisis de información obtenida por
otros investigadores.
Existen tres variedades de investigación secundaria:
a) La revisión de investigaciones: Investigaciones de otros autores sobre el mismo objeto
de estudio, ya se contemporáneos o anteriores.
b) El meta-análisis: Es el análisis de los análisis, es decir, el análisis estadístico de los
hallazgos de muchos análisis individuales. Es un medio de resumir los resultados
numerosos estudios cuantitativos sobre un tema particular. Se aplican técnicas de análisis
estadístico para comprobar el nivel de significatividad estadística de los hallazgos. Se
observa cómo varían los hallazgos de un estudio a otro, el nivel de significación de de los
hallazgos y su magnitud conjunta.
c) El análisis secundario: Es el análisis posterior de la información que ya se ha obtenido.
El análisis de datos ya existentes es bastante útil para los estudios comparativos.
6.2. Fuentes de información “secundaria”
Engloba tanto datos “brutos”, como datos ya analizados y estudiados.
1) Datos no publicados, ya sea por organismos públicos y privados
2) Datos publicados, ya sea por organismos públicos o privados
3) Investigaciones publicadas en libros y revistas
4) Investigaciones no publicadas
Respecto a las investigaciones publicadas, pueden ser índices, Index, que compilan
artículos de revistas, o Abstracts, que contienen breves resúmenes de investigaciones
publicadas. Otras pueden encontrarse en Reviews, que compilan artículos y recensiones
de publicaciones (artículos o libros).
Respecto a las investigaciones no publicadas, pueden ser archivos o bancos de datos
secundarios. Suelen pertenecer a universidades y centros de investigación. En los
simposios, seminarios y congresos también permiten acceder a información de
investigaciones aún no publicadas.
Una forma fácil de conocer investigaciones es revisando la bibliografía o artículos citados
por otras investigaciones.
6.3. Evaluación y análisis de datos secundarios
Antes de proceder al análisis de la información mediante fuentes secundarias, hay que
evaluar la calidad de las mismas. Se sigue los mismos procedimientos que en la
evaluación de datos primarios:
- Credibilidad de los datos y la fuente consultada
-Autenticidad del documento
-Representatividad respecto del conjunto de documentos existentes
-Significado aparente y profundo, especialmente usando técnicas analíticas cualitativas
como el análisis estructural o interpretacional.
-Medidas utilizadas. Se evalúa el diseño muestral, los porcentajes de respuestas
conseguidos, las técnicas de obtención de datos empleadas, y las técnicas analíticas
aplicadas.
- El tiempo de recogida de los datos
- La adecuación de los análisis y las conclusiones, comparando la consistencia de la
información proporcionada por otras fuentes.
Una vez realizada la evaluación de la información secundaria, se procede a su análisis.
Puede ser sólo una lectura analítica, cuando se realizan revisiones de investigaciones, o
bien puede ser un análisis de contenido cuantitativo o cualitativo, o incluso usar técnicas
estadística complejas como el meta-análisis.
6.4. Ventajas e inconvenientes del uso de fuentes documentales y estadísticas
Su principal ventaja es su disponibilidad y bajo costo, especialmente si está publicada. Se
recomienda el uso de esta estrategia de investigación cuando:
a) Se desea información sobre acontecimientos del pasado.
b) Para cualquier investigación primaria, la revisión bibliográfica es necesaria. Ayuda a
formular el problema, plantear la hipótesis, acotar la población, seleccionar la metodología
a emplear.
c) Se dispone de recursos limitados para una investigación primaria.
d) Se precisa dar una visión general de un fenómeno social concreto, incluyendo
diferentes entornos socioculturales y períodos de tiempo. Por ejemplo para estudios
comparativos.
e) En el diseño muestral, al proporcionar datos censales características de la población de
interés.
f) En los diseños cuasi-experimentales cuando se comprueban los efectos de
intervenciones o tratamientos concretos antes y después de su aplicación.
g) En cualquier investigación multimétodo como complemento de información de otras
estrategias.
Desventajas. La principal es su no adecuación, ya sea por la inexistencia de la
información que se desea, o porque la información existente no se adecúa a los objetivos
concretos de la investigación. Otros inconvenientes pueden ser:
a) La demora en la disponibilidad de los datos secundarios, por la demora entre la
recolección y la publicación. Suelen considerarse por definición viejos, no tan
actualizados.
b) No suele tenerse la información necesaria para evaluar la calidad de los datos
proporcionados, los errores muestrales, los errores de medición y de obtención y análisis
de datos.
c) Suele ser información de solo algunas variables de las que se precise conocer.
d) Los conceptos pueden cambiar de significado a lo largo del tiempo, lo que dificulta la
comparación de información recolectada en diferentes fechas.

Unidad 7: La investigación Social mediante Encuesta


La encuesta es una estrategia de investigación que se basa en las declaraciones verbales
de una población concreta.
7.1. Características de la encuesta
Es un procedimiento estandarizado para recabar información oral o escrita de una
muestra amplia de sujetos. La información se limita a la delineada por las preguntas que
componen el cuestionario precodificado.
a) La información se obtiene mediante información indirecta, mediante las respuestas
verbales de los sujetos encuestados. Por ello siempre cabe la posibilidad de que la
información no refleje la realidad de lo que se investiga. Necesidad de comprobar
veracidad de datos recabados.
b) La información que buscan recabar puede ser muy amplia. Pueden ser cuestiones
objetivas, hechos, y subjetivas, opiniones, actitudes, del presente o del pasado.
c) La información se recoge de forma estructurada, esto es, se realizan las mismas
preguntas y en el mismo orden, a cada uno de uno de los individuos. Esto permite
comparar las respuestas.
d) Las respuestas se agrupan y cuantifican para posteriormente, examinar mediante
técnicas analíticas estadísticas, las relaciones entre ellas.
e) La significación de la información proporcionada dependerá de la existencia de errores
muestrales (el diseño de la muestra), y de errores ajenos al muestreo como el diseño del
cuestionario, el trabajo de campo, el tratamiento de los datos, etc.
Errores típicos de encuestas
a) Errores de muestreo: En el tamaño de la muestra, en cómo se haya seleccionado y en
la heterogeneidad de la población.
b) Errores de cobertura: No idoneidad del marco muestral de donde selecciona la
muestra, que no incluyera a toda la población de interés.
c) Errores de no respuesta: Cuando algunas unidades de la muestra no participan
finalmente de la encuesta, o solo responden una parte.
d) Errores de medición: Que no sean adecuados los datos del cuestionario a los
conceptos que se analizan:
-Errores en el diseño del cuestionario: Formulación y orden de las preguntas, y en el
modo de administrarlo, mediante entrevista personal, telefónica o por correo.
-Sesgos introducidos por el entrevistador en el desarrollo de la entrevista, cuando no es
autoadministrada.
-Sesgos del entrevistado, cuando no aporta respuestas veraces a las preguntas (por fallos
de memoria, o la situación social de la entrevista, etc.)
7.1.2.
7.1.3. Modalidades de la encuesta
a) Encuesta personal o entrevista cara a cara
Consiste en la administración del cuestionario mediante entrevista personal, por separado
a cada uno de los individuos seleccionados en la muestra. Es el entrevistador quien
formula las preguntas y quién anota las respuestas en el cuestionario.
En este tipo de encuestas el rol del entrevistador no es inocuo, sino clave. Permite:
-El tratamiento de complejos, aclarando cuestiones no entendidas.
-Comprobar la comprensión de las preguntas y la consistencia de las respuestas.
-Recoger información suplementaria sobre las características de los entrevistados, su
entorno socio familiar e incluso su vivienda.
- Motivar y despertar interés en el entrevistado para responder las preguntas.
Por otro lado, este tipo de encuesta presenta al menos tres problemas:
-De acceso a las viviendas particulares.
-De localización de determinados grupos particulares de población.
-De reactividad del encuestado, que puede afectar las respuestas. No ser completamente
sincero en las respuestas y adecuarlas a lo socialmente aceptado es más común en esta
modalidad.
Por la importancia del accionar del entrevistador, se sugiere que existan supervisores de
su trabajo. La gran cantidad de personal que requiere esta modalidad la hace más
costosa.

b) Encuesta telefónica
Se realiza mediante vía telefónica:
Ventajas:
-Se abaratan los costos. Precisa menos personal, y no se requiere gastos de transporte.
-Es un procedimiento mucho más rápido que las entrevistas personales.
-Permite abarcar población muy dispersa sin ningún coste. Puede alcanzarse el ideal de
dispersión muestral.
-Puede accederse a los grupos menos accesibles.
-Facilita la repetición en lo intentos de encuestar a la misma unidad muestral. Es más fácil
insistir en el llamado a un teléfono que insistir en la entrevista personal a una persona.
Menos necesidad de reemplazar una unidad de la muestra.
-Permite la supervisión más fácil de los entrevistadores.
-Medio menos inhibidor que entrevista cara a cara, respuestas más sinceras.
Un problema con las entrevistas telefónicas es de la cobertura, no todos los hogares
cuentan con teléfono fijo, especialmente en las capas bajas de la sociedad y en sectores
rurales, lo que genera que estos grupos no se encuentre representados en la encuesta, lo
que dificulta la generalización de los resultados.
Otras críticas:
a) La comunicación es solo verbal, no se puede recurrir a comunicación visual, se debe
tener buenas habilidades orales.
b) El entrevistado tiende a responder lo primero que se le viene a la mente, y suele tener
poca memoria para retener todas las preguntas q se le hacen.
Otras dificultades son las líneas ocupadas, contestadores automáticos, números de
teléfono desconectados, etc. lo que aumenta la no respuesta.

c) Encuesta por correo


Esta es el tipo de encuesta autoadministrada. Es decir es el propio encuestado el que lee
el cuestionario y anota las respuestas. Permite:
-Ampliar la cobertura de la investigación, llegar a áreas aisladas.
- Abaratar los costes. No requiere entrevistadores ni supervisores ni desplazamiento.
Permite aumentar la muestra con menos costos.
-Evita el sesgo por el anonimato y la no presencia de encuestador.
-Brinda más tiempo al entrevistado para responder.
Desventajas:
- Muy poca gente remite de nuevo el cuestionario.
- No se puede controlar si fue la persona seleccionada la que realmente rellenó la
encuesta.
- El encuestado puede leer todo el cuestionario antes de responder, lo que quieta eficacia
a las preguntas de control o al acercamiento de embudo.
-No se puede ayudar al individuo para rellenar la encuesta.

7.1.4. Fases de la Encuesta


7.2. El diseño del cuestionario
Un cuestionario consiste en un listado de preguntas estandarizadas, leídas literalmente y
en el mismo orden para cada encuestado.
7.2.1. Tipos de preguntas
a) Preguntas Cerradas, pre codificadas o de respuesta fija
Son aquella cuyas respuestas ya están acotadas. Las opciones de respuesta ya están
previamente determinadas. El encuestado solo señala cuál o cuáles refleja su respuesta.
Cada pregunta y cada respuesta posible se codifica con un número.
Las respuestas deben cumplir con los requisitos de exhaustividad, precisión y exclusión.
Si se prevé que existen otras opciones de respuesta posible diferentes a las dadas se
deberá incluir la opción “otros” y el espacio para para especificar la respuesta.
Se suele aconsejar no incluir, a no ser que sea necesario, la opción de no sabe o no
contesta, ya que muchas personas tienden a marcarla para evitar pensar, o por miedo a
expresar su verdadera respuesta.
Un punto importante es el de especificar si la pregunta admite una sola respuesta o más
de una respuesta. En el segundo caso se trata de una pregunta de respuesta múltiple.
Ventajas:
- Más fácil de anotar y registrar.
- Se centra las respuestas a las opciones que los investigadores consideran relevantes.
- Es más fácil comparar las respuestas de diversos sujetos al estar expresadas en los
mismos términos. Además evita la vaguedad o ambigüedad.
Desventajas:
- A veces no se abarcan todas las opciones posibles
- Más difíciles de elaborar. Requiere mucho conocimiento previo para dar todas las
opciones posibles.
b) Preguntas Abiertas
No ofrecen alternativas predeterminadas. La persona puede expresarse con sus palabras.
Este tipo de preguntas presentan la limitación del coste de tiempo y recursos que lleva la
codificación de las preguntas abiertas, es decir, su traducción a categorías cerrada. Se
agrupan todas las respuestas dadas en categorías comunes y limitadas, no exactamente
iguales a las dadas por los encuestados. Estas categorías también deben cumplir con los
requisitos de exhaustividad, precisión y exclusión.
Presentan ciertas utilidades:
-Para estudio exploratorios, cuando no se posee mucha información del tema que se
investiga.
-Cuando no se pueden prever todas las respuestas posibles.
-Cuando se necesita una mayor especificación de una respuesta anterior.
-Cuando se quiere conocer el valor numérico exacto de una variable.
-Ocupan menos espacio en el cuestionario.
-Son más fáciles de formular.
-Ofrecen la posibilidad de expresarse libremente.

7.2.2. La formulación de preguntas


Se recomienda, antes de formular el cuestionario, poner por escrito lo que pretende
alcanzar, se haga un listado de las variables a medir, y se bosqueje un plan de análisis a
desarrollar. Además, especificar la población a analizar, realizar la revisión bibliográfica, y
si es posible grupos de discusión o entrevistas en profundidad.
Una opción es utilizar preguntas ya hechas en otros cuestionarios.
En el caso de que decida crear nuevas, preguntas, las recomendaciones son:
a) Formular preguntas relevantes a la investigación.
b) Preguntas breves y fáciles de comprender por la población a la que va dirigida. Tener
en cuenta su nivel educativo y de vocabulario.
c) Evitar palabras ambiguas.
d) No emplear palabras que comporten una reacción estereotipada.
e) Proporcionar respuestas flexibles, atenuar la gravedad de la pregunta, cuando se
aborden cuestiones que inhiban transmitir información veraz. Evitar incomodar al
encuestado.
f) Formular la pregunta de forma objetiva, neutra, con objetivo de no influir en la
respuesta.
g) No redactar preguntas en forma negativa.
h) Las preguntas no deben referirse a varias cuestiones al mismo tiempo. Deben
preguntar solo una cosa a la vez.
i) Evitar preguntas que obliguen a realizar cálculos mentales o recurrir con frecuencia a la
memoria.
j) Redactar preguntas de forma personal y directa. Evitar el tiempo condicional. Las
preguntas específicas dan más resultado que las genéricas.
k) Rotar el orden de lectura de las alternativas de respuesta, cuando se prevea que su
disposición pudiera afectar la respuesta.
Cuando lo que intente medir el investigador sea la actitud de una persona, lo mejor es el
uso de escalas, más que el uso de varias preguntas independientes. Permite no solo
conocer la actitud, sino también la intensidad.
a) Escala de Thurstone
Contiene un conjunto de proposiciones relativas a una actitud, expresadas como
afirmaciones. Se pide que el encuestado indique si está de acuerdo o en desacuerdo con
cada proposición. El promedio de las respuestas resumirá su actitud ante el problema
que se investiga. Es preciso que las proposiciones o ítems cubran todas las actitudes
posibles, o el continuo entero de la misma.

b) Escala de Guttman
A cada respuesta se le asigna una puntuación. La puntuación se fija de manera que los
encuestados que hayan respondido favorablemente a una proposición, o con un mayor
nivel de acuerdo, obtengan una mayor puntuación que lo que no.
A diferencia de la escala anterior, se reduce mucho la cantidad de ítems o afirmaciones, y
se elimina la prueba de expertos que evalúen los ítems elaborados. Los ítems son
ordenados de forma acumulativa y jerárquica, de manera que la afirmación de uno de
ellos implica la corroboración de los precedentes. La respuestas pueden ser dicotómicas o
incluir más opciones.

c) Escala de Likert
Es la más utilizada. Se utiliza cuando se quiere preguntar varias cuestiones que
comparten las mismas opciones de respuestas. En estos casos se confecciona una lista
de afirmaciones, ítems o aseveraciones. A los encuestados se les pide que respondan
cada afirmación escogiendo una respuesta. A diferencia de las escalas anteriores, en las
escalas de Likert normalmente existen cinco categorías de respuesta para cada
afirmación (muy de acuerdo, de acuerdo, indeciso, en desacuerdo, muy en desacuerdo).
Las puntuaciones serían 1, 2, 3,4, y .5 o a la inversa, y se colocarían en conformidad con
el significado de la respuesta para la actitud que miden. La puntuación global de la escala
suele obtenerse sumando las puntuaciones registradas.
Tampoco precisa la prueba previa de jueces o expertos, simplemente basta con la previa
aplicación a una muestra de sujetos.
d) El diferencial semántico de Osgood
Los encuestados deben marcar una de las posiciones, generalmente siete, que median
entre dos adjetivos polares. De esta manera se miden los sentimientos positivos o
negativos de la persona a hacia un objeto concreto de actitud. Esta escala resulta útil
cuando las personas presentan fuerte reacciones emocionales hacia una determinada
cuestión. La puntuación también se obtiene sumando el total de puntuaciones. 1 es la
opción más negativa, y 7 la más positiva.

7.2.3. (Larga lista de recomendaciones muy específicas sobre el formato de las


encuestas, tanto con entrevistador como autoadministrada. Si se quiere, ver en texto)
Recomendaciones sobre el orden de las preguntas
a) Comenzar el cuestionario con un mensaje de presentación.
b) Dejar un espacio para los datos de control: número de orden, si se sustituyó el
entrevistado, duración de la entrevista, nombre, dirección y teléfono del encuestado, hora
de la entrevista, datos del entrevistador, etc.
c) La preguntas iniciales deben despertar interés en encuestado y ser al mismo tiempo
sencilla de responder. Luego se irán introduciendo las más complejas. De todas formas
esto es relativo. También se suele recomendar comenzar con preguntas abiertas
genéricas.
d) La pregunta clave debería ubicarse en el centro del cuestionario, el tercio medio.
Después de haber generado un ambiente distendido y de confianza, pero antes de que
llegue el cansancio.
e) Distribuir secuencialmente las preguntas que forme una batería, es decir, preguntas
sobre una misma cuestión. Es bueno que las preguntas del mismo tema vayan juntas.
f) Las preguntas que se perciban como amenazantes para el encuestado es mejor
situarlas al final del cuestionario, cuando la reacción a ellas no pueda afectar a las
respuestas de preguntas posteriores. Es común situar el requerimiento de datos
personales al final de la encuesta, por la reacción negativa que provoca brindar estos
datos de identificación personal.
Lo mejor es no diseñar un cuestionario extenso, para evitar la fatiga. Esto no se mide en
número de preguntas, sino en duración media de resolución de la encuesta. Mientras
menos mejor.
7.2.4 La prueba o pretest del cuestionario
Se prueba previamente el cuestionario en una muestra, normalmente inferior a 100. Se
busca evaluar:
- Si las preguntan tiene sentido y se comprenden.
- Si es adecuad a la categorización y la codificación de las respuestas.
- La disposición del cuestionario y su duración.
- Que se entiendan las instrucciones así como el formato de filtro.
- Nivel de no respuesta.
- La idoneidad del marco muestral.
- La variabilidad de la población
- La preparación de los entrevistadores.
- El coste aproximado
En base a las observaciones, se modifica el cuestionario.
7.3. El trabajo de campo en una encuesta
Es la aplicación de la encuesta a la muestra, la recolección de la información. Requiere de
la formación de redes de campo, integradas por los entrevistadores y los supervisores.
7.3.1. La formación de los entrevistadores
Es especialmente importante en las encuestas personales y telefónicas.
Debe cubrir todos los aspectos implicados en su labor. Desde la selección de sujetos,
hasta el registro de respuestas, además de información específica sobre preguntas del
cuestionario.
7.3.2. La supervisión del trabajo de campo
En las entrevistas telefónicas la supervisión de los entrevistadores es la más inmediata al
encontrarse los entrevistadores todos reunidos. La entrevistas personales suele incluir un
espacio para todos los datos de control (tiempo, datos del entrevistador y entrevistado,
sustitución, como se eligió el encuestado, intentos de contactación, etc.). Se debe
controlar no solo que se entrevistó a quién se debía, sino también la duración.
El supervisor debe revisar los cuestionarios, conversar con los encuestadores para saber
sobre cualquier contingencia que pudiera haber ocurrido, y si se cumplieron las rutas en el
caso de que se haya elegido una muestra por rutas aleatorias. Al final realiza un informe.

También podría gustarte