TEMA 9 INFERENCIA ESTADÍSTICA
INFERENCIA ESTADÍSTICA.
Se le denomina inferencia estadística al conjunto de procedimientos estadísticos que permiten pasar de lo particular, la muestra, a lo general, la población.
Hay dos formas de inferencia estadística:
·
Estimación del valor en la población (Parámetro) a partir de un valor de la muestra (Estimador).
Estimación del valor en la población (Parámetro) a partir de un valor de la muestra (Estimador).
· Contraste de hipótesis, a partir de valores de la muestra, se concluye si hay diferencias entre ellos en la población.
De las dos formas de inferencia que acabamos de ver, empezamos por la primera:
· Pueden ser puntuales o a través de intervalos de confianza para aproximarnos a valor de un parámetro. Por ejemplo: estimar el peso promedio de la población usando el peso promedio de la muestra.
Por otro lado, tenemos otra forma de inferencia estadística:
· Pruebas de hipótesis ¿el valor obtenido es diferente del valor especificado por H0? Por ejemplo: probar que el peso promedio de la población es de 65kg.
Extraemos conclusiones y/o tomamos decisiones concernientes a una población basándose en los resultados de una muestra.
ESTIMACIONES
Proceso de utilizar información de una muestra para extraer conclusiones acerca de toda la población. Se utiliza la información recogida para estimar un valor.
Puede realizarse una estimación puntual o estimación por intervalos mediante el cálculo de intervalos de confianza.
La estimación puntual es más precisa, pero tiene más riesgo de error. Si realizo una estimación por intervalos, tengo menos riesgo de error y menos precisión.
· ESTIMACIÓN PUNTUAL
Consiste en considerar al valor del estadístico muestral como una estimación del parámetro poblacional.
Por ejemplo: si la tensión arterial sistólica de una muestra es de 125 mmHg, una estimación puntual es considerar este valor como una aproximación a la tensión arterial sistólica media poblacional.
Esto genera mucha incertidumbre y mucha imprecisión.
· ESTIMACIÓN POR INTERVALOS:
Es lo más aconsejable. Perdemos mucha precisión, pero a veces esa precisión nos compensa cuando tenemos una horquilla de valores.
Consiste en calcular dos valores entre los cuales se encuentra el parámetro poblacional que queremos estimar con una probabilidad determinada, habitualmente el 95% de confianza.
Por ejemplo: a partir de los datos de una muestra hemos calculado que hay un 95% de probabilidad de la TAS media de una población esté comprendida entre 120 y 130 mmHg (120 y 130 son los límites de intervalo de confianza).
Se puede dar para cualquier parámetro de la población, para una media, proporción, prevalencia, incidencia, riesgo relativo…
Se utilizan como indicadores de la variabilidad de las estimaciones.
Cuanto más “estrecho” sea el intervalo, mejor. Si consigo tener un intervalo estrecho soy más preciso a la hora de acercarme al parámetro, pero también aumento el riesgo de error.
EJEMPLO DE INFERENCIA Y ESTIMACIÓN.
Teorema central del límite: Alguien descubre que cuando tengo una población de estudio y selecciono una muestra, hay muchas posibles muestras en una población. Algunos estadísticos se dedicaron a medir algunos parámetros en diferentes muestras de la población y descubrieron que si se dibujaba una representación gráfica de todos los valores obtenidos de todas las muestras, esa sigue una distribución normal.
Estudio tiempos de curación de úlceras en una muestra de 100 pacientes de una población de 5000 habitantes.
· En la primera muestra obtengo 53,77 días (esto es un estimador puntual)
2
· Si vuelvo a hacer otra selección aleatoria y tengo otra muestra, me sale 57,08 días
· Si seleccionamos muchas muestras, cada una nos dará un valor distinto.
· Construimos un histograma que tiene una distribución normal. Nos encontramos que la media total sería 57,46 días y una desviación típica de 22,84 días.
ERROR ESTÁNDAR
Es la medida que trata de captar la variabilidad de los valores del estimador (en este caso la media de los días de curación de la úlcera. El error estándar es la desviación típica que vimos en la gráfica.
El error estándar de cualquier estimador mide el grado de variabilidad en los valores del estimador en las distintas muestras de un determinado tamaño que pudiésemos tomar de una población.
Cuanto más pequeño es el error estándar de un estimador, más nos podemos fiar del valor de una muestra concreta.
Si en lugar de variar el valor de la media en las muestras entre 52 y 64 días, variara entre 20 y 90 días, sería menos probable que al seleccionar una muestra y calcular su media, ésta estuviera cercana a 57,46 que es el valor de la media en la población.
TEOREMA CENTRAL DEL LÍMITE
Para estimadores que pueden ser expresados como suma de valores muestrales, la distribución de sus valores sigue una distribución normal con media de la de la población y desviación típica igual al error estándar del estimador de que se trate.
INTERVALOS DE CONFIANZA
Son un medio de conocer el parámetro en una población midiendo el error que tiene que ver con el azar (error aleatorio)
Se trata de un par de números tales que, con un nivel de confianza determinados, podamos asegurar que el valor del parámetro es mayor o menor que ambos números.
Se calcula considerando que el estimador muestral sigue una distribución normal. CÁLCULO:
· I.C de un parámetro = estimador +- z (e. Estándar)
·
Z es un valor que depende del nivel de confianza 1-a con que se quiera dar el intervalo.
Z es un valor que depende del nivel de confianza 1-a con que se quiera dar el intervalo.
· Para nivel de confianza 95% à z=1,96
· Para nivel de confianza 99% à z=2,58
· El signo +- significa que cuando se elija el signo negativo se conseguirá el extremo inferior del intervalo y cuando se elija el positivo se tendrá el extremo superior.
Mientras mayor sea la confianza que queramos otorgar al intervalo, éste será más amplio, es decir, el extremo inferior y el superior del intervalo estarán más distanciados, y, por tanto, el intervalo será menos preciso.
Se puede calcular intervalos de confianzas para cualquier parámetro: medias aritméticas proporciones, riesgos relativos, odds ratio, etc.
CONTRASTE DE HIPÓTESIS
· Para controlar los errores aleatorios, además del cálculo de intervalos de confianza, contamos con una segunda herramienta en el proceso de inferencia estadística: los tests o contrastes de hipótesis.
· Con los intervalos nos hacemos una idea de un parámetro de una población dando un par de números entre los que confiamos que esté el valor desconocido.
· Con los contrastes (tests) de hipótesis la estrategia es la siguiente:
- Establecemos a priori una hipótesis acerca del valor del parámetro
- Realizamos la recogida de datos
- Analizamos la coherencia de entre la hipótesis previa y los datos obtenidos
· Son herramientas estadísticas para responder a preguntas de investigación: permite cuantificar la compatibilidad entre una hipótesis previamente establecida y los resultados obtenidos
· Sean cuales sean los deseos de los investigadores, el test de hipótesis siempre va a contrastar la hipótesis nula (la que establece igualdad entre los grupos a comparar, o lo que es lo mismo, la no que no establece relación entre las variables de estudio)
ERRORES DE HIPÓTESIS:
·
Con una misma muestra podemos aceptar o rechazar la hipótesis nula, todo depende de un error, al que llamamos α.
Con una misma muestra podemos aceptar o rechazar la hipótesis nula, todo depende de un error, al que llamamos α.
· El error α es la probabilidad de equivocarnos al rechazar la hipótesis nula
· El error α más pequeño al que podemos rechazar H0 es el error p.
· Habitualmente rechazamos H0 para un nivel α máximo del 5% (p)
No hay comentarios:
Publicar un comentario