INFERENCIA ESTADÍSTICA
La inferencia estadística es el conjunto de procedimientos estadísticos que
permiten pasar de lo particular, la muestra, a lo general, la población. Hay dos formas de inferencia, la estimación y el contraste de hipótesis.
1. Las
estimaciones
Proceso de utilizar información de una muestra para extraer conclusiones acerca de toda la población. se utiliza la información recogida para estimar un valor. Puede realizarse dos estimaciones:
v
La
estimación puntual: consiste en considerar al valor del estadístico muestral
como una estimación del parámetro poblacional. Por ejemplo, si la TAS media de
una muestra es 125 mmHg una estimación puntual es considerar este valor como
una aproximación a la TAS media poblacional.
v Estimación
por intervalos: consiste en calcular dos valores entre los cuales se encuentra
el parámetro poblacional que queremos estimar con una probabilidad determinada,
habitualmente del 95%. Por ejemplo, a partir de los datos de una muestra hemos
calculado que hay un 95% de probabilidad de la TAS media de una población esté
comprendida entre 120 y 130 mmHg (120 y 130 son los límites del intervalo de
confianza)
Se
puede crear intervalo de confianza para cualquier parámetro de la población.
Se
utiliza como indicadores de la variabilidad de las estimaciones.
Cuanto
más “estrecho” sea, mejor.
Error
estándar: este mide el grado de variabilidad en los valores del estimador en las distintas muestras de un determinado tamaño que pudiésemos tomar de una población.Cuanto más pequeño es el error estándar
de un estimador, más nos podemos fiar del valor de una muestra concreta. Para calcularlo depende de cada estimador:
–
Error estándar para una media:
–
Error estándar para una proporción:
Intervalos
de confianza
Son un medio de
conocer el parámetro en una población midiendo el error que tiene que ver con
el azar (error aleatorio). Se trata de un par de números tales que, con un nivel
de confianza determinados, podamos asegurar que el valor del parámetro es mayor
o menor que ambos números. Se calcula considerando que el estimador muestral
sigue una distribución normal, como establece la teoría central del límite. Cálculo:
- I.C. de un parámetro= estimador ± z(e.estándar)
- Z es un valor que depende del nivel de confianza 1-alfa con que se quiera dar el intervalo
- Para nivel de confianza 95% z=1,96 – Para nivel de confianza 99% z=2,58
- El signo ± significa que cuando se elija el signo negativo se conseguirá el extremo inferior del intervalo y cuando se elija el positivo se tendrá el extremo superior.
Mientras mayor sea la confianza que
queramos otorgar al intervalo, éste será más amplio, es decir el extremo
inferior y el superior del intervalo estarás más distanciados y, por tanto, el
intervalo será menos preciso. Se puede
calcular intervalos de confianzas para cualquier parámetro: medias aritméticas,
proporciones, riesgos relativos, odds ratio, etc.
2. Contrastes
de hipótesis
Para controlar los
errores aleatorios, además del cálculo de intervalos de confianza, contamos con
una segunda herramienta en el proceso de inferencia estadística: los tests o
contrastes de hipótesis. Con los intervalos nos hacemos una idea de un
parámetro de una población dando un par de números entre los que confiamos que
esté el valor desconocido. Con los contrastes (tests) de hipótesis la
estrategia es la siguiente:
- Establecemos a priori una hipótesis acerca del valor del parámetro
- Realizamos la recogida de datos
- Analizamos la coherencia de entre la hipótesis previa y los datos obtenidos
Son herramientas
estadísticas para responder a preguntas de investigación: permite cuantificar
la compatibilidad entre una hipótesis previamente establecida y los resultados
obtenidos. Sean cuales sean los deseos de los investigadores, el test de
hipótesis siempre va a contrastar la hipótesis nula (la que establece igualdad
entre los grupos a comparar, o lo que es lo mismo, la no que no establece
relación entre las variables de estudio).
- Con una misma muestra podemos aceptar o rechazar la hipótesis nula, todo depende de un error, al que llamamos α
- El error α es la probabilidad de equivocarnos al rechazar la hipótesis nula
- El error α más pequeño al que podemos rechazar H0 es el error p
- Habitualmente rechazamos H0 para un nivel α máximo del 5% (p<0,05)
- Es lo que llamamos “significación estadística”
No hay comentarios:
Publicar un comentario