SlideShare a Scribd company logo
1 of 113
ANALISIS DE DATOS
ESTADÍSTICA DESCRIPTIVA E INFERENCIAL
CONCEPTOS BÁSICOS DE ESTADÍSTICA ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
[object Object],[object Object],[object Object],CONCEPTOS BÁSICOS DE ESTADÍSTICA
[object Object],[object Object],[object Object],[object Object],[object Object],CONCEPTOS BÁSICOS DE ESTADÍSTICA
[object Object],[object Object],[object Object],[object Object],CONCEPTOS BÁSICOS DE ESTADÍSTICA
NIVELES DE MEDIDA DE LAS VARIABLES ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
ESCALAS DE MEDIDA Media geométrica Media armónica Coeficiente de variación Cero absoluto Establecer igualdad de razones De razón o proporción Media aritmética Desviación típica Correlaciones Unidad constante Determinar la igualdad o diferencia de intervalo De intervalo Mediana Percentiles Correlación lineal Mantenimiento del orden Determinar lo >, lo =, o lo < Ordinal Frecuencias Moda Coefic. De contigencia Permutación Establecer la igualdad o desigualdad Nominal ESTADÍSTICOS APLICABLES CONDICIONES OPERACIONES LÓGICAS ESCALAS DE MEDIDA
ANÁLISIS VALIDEZ Y FIABILIDAD DE LA MEDIDA
Análisis de la Fiabilidad La precisión o fiabilidad de una medida: ausencia de variabilidad. Una medición es fiable cuando se obtienen resultados iguales en mediciones sucesivas. Medición de temperatura: 36º, 30º, 40º (no es fiable).      O rígenes de la variabilidad: 1.Variabilidad atribuible al procedimiento (instrumentos, pruebas, cuestionarios, etc). 2.Variabilidad debida a discrepancias entre los observadores (variaciones inter‑observador e intra‑observador). 3.Variabilidad por cambios en las características sometidas a medición (variaciones biológicas, conductuales, ambientales, etcétera), La fiabilidad se valora realizando dos o más mediciones independientes del mismo atributo y comparando luego los hallazgos.
Análisis de la Fiabilidad La fiabilidad de las medidas utilizadas ha de analizarse cuando se aplique  una forma de medición nueva.   Se deben realizar esfuerzos para hacer más fiable la información recogida, pero más que intentar conseguir una fiabilidad total, se debe poder  cuantificar el grado de error cometido en la medición.   Cuando  en el diseño  de un estudio se planifique la medición de las variables seleccionadas, se deben adoptar  medidas para  conseguir una  mínima variabilidad  en los resultados.   ¿Cómo?:  - definiciones operativas claras, - instrucciones precisas sobre la recogida de información, - entrenamiento de los observadores, - procedimientos de medidas estándar previamente utilizados y -  técnicas de enmascaramiento.
Análisis de la Fiabilidad en variables cualitativas   Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Cohen + coeficiente de contingencia + prueba Chi-cuadrado  Coincidieron 20 negativos en el test1 tb son negativos en el test2. 20 + en test 1 también son + en el test2. No coincidieron 5 + en test 1 después en test 2 son negativos No coincidieron 5 negativos en test 1 después en test 2 son + Tuvo en total 40 coincidencias (20 ++ y 20 --) y 10 no coincidencias (5+- y 5 -+)
Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Cohen + coeficiente de contingencia + prueba Chi-cuadrado (es una binomial 2x2) Análisis de la Fiabilidad en variables cualitativas   Chi-cuadrado indica si una medición coincide con la otra o no.
Analizar/ Escalas / Análisis de fiabilidad Análisis de la Fiabilidad en variables cuantitativas   La matriz de correlaciones indica que existe una alta relación entre las mediciones, o sea que existe escasa variabilidad, por lo que mis 5 mediciones han sido muy fiables.
Analizar/ Escalas / Análisis de fiabilidad Análisis de la Fiabilidad en variables cuantitativas
VALIDEZ Y FIABILIDAD DE LA ESCALA DE MEDIDA Analizar/ Reducción de datos / Análisis factorial / KMO y prueba de esfericidad de Barlett  Análisis de la Variabilidad (varianza) de una medición   Identificar un pequeño número de factores que explique la mayoría de la varianza observada.  Kaiser-Meyer-Olkin contrasta si las correlaciones parciales entre las variables son pequeñas (% de varianza en mis variables generada por esos factores) . La prueba de esfericidad de Bartlett me indica si mis variables están relacionadas o no. Gráfico de sedimentación: varianza asociada a cada factor. Típicamente muestra la clara ruptura entre la pronunciada pendiente de los factores más importantes y el descenso gradual de los restantes  (los sedimentos).   ,000 Sig. 10 gl 64,101 Chi-cuadrado aproximado Prueba de esfericidad de Bartlett ,752 Medida de adecuación muestral de Kaiser-Meyer-Olkin. ,852 PRETEST dolor MM.SS. ,555 PRETEST dolor  MM.II. ,589 PRETEST dolor columna lumbar ,773 PRETEST dolor columna dorsal ,771 PRETEST dolor cabeza-cuello 1 Componente
ESTADÍSTICA DESCRIPTIVA UNIVARIANTE
[object Object],[object Object],ESTADÍSTICA DESCRIPTIVA Analizar/ Estadísticos descriptivos/ Frecuencias
[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],ESTADÍSTICA DESCRIPTIVA
ESTADÍSTICA DESCRIPTIVA ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Analizar/ Estadísticos descriptivos/ Frecuencias Analizar/ Estadísticos descriptivos/ Descriptivos Analizar/ Estadísticos descriptivos/ Explorar ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
MEDIDAS DE TENDENCIA CENTRAL ,[object Object],[object Object],[object Object]
MEDIDAS DE TENDENCIA CENTRAL ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
MEDIDAS DE TENDENCIA CENTRAL ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
MEDIDAS DE TENDENCIA CENTRAL ,[object Object]
MEDIDAS DE TENDENCIA CENTRAL ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
MEDIDAS DE DISPERSIÓN ,[object Object],[object Object],[object Object],[object Object],Ejemplo: podemos obtener una media de 5 con los siguientes datos: 5,6,4,5,5. Pero tb con: 10,5,1,2,7. en el segundo caso diremos que hay mayor variabilidad. ¿pero como podemos medir la variabilidad? Analizar/ Estadísticos descriptivos/ Frecuencias Analizar/ Estadísticos descriptivos/ Descriptivos Analizar/ Estadísticos descriptivos/ Explorar Indican si los valores de las observaciones (si los valores de las modalidades de un carácter) se encuentran muy próximas entre sí o muy dispersas .
MEDIDAS DE DISPERSIÓN ,[object Object],[object Object],[object Object],[object Object],Analizar/ Estadísticos descriptivos/ Frecuencias Analizar/ Estadísticos descriptivos/ Descriptivos Analizar/ Estadísticos descriptivos/ Explorar
MEDIDAS DE DISPERSIÓN ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
MEDIDAS DE FORMA ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Analizar/ Estadísticos descriptivos/ Frecuencias Analizar/ Estadísticos descriptivos/ Descriptivos Analizar/ Estadísticos descriptivos/ Explorar
MEDIDAS DE FORMA ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
MEDIDAS DE FORMA ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
MEDIDAS DE FORMA ,[object Object],[object Object],[object Object],Analizar/ Estadísticos descriptivos/ Frecuencias o Analizar/ Estadísticos descriptivos/ Descriptivos Analizar/ Estadísticos descriptivos/ Explorar
MEDIDAS DE POSICIÓN ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
MEDIDAS DE POSICIÓN Analizar/ Estadísticos descriptivos/ Frecuencias Analizar/ Estadísticos descriptivos/ Explorar
MEDIDAS DE POSICIÓN Analizar/ Estadísticos descriptivos/ Frecuencias
LA DISTRIBUCIÓN NORMAL &quot;Campana de Gauss&quot; Abraham de Moivre (1667-1754) Carl Friedrich Gauss (1777-1855)
PROPIEDADES DE LA DISTRIBUCIÓN NORMAL ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
DISTRIBUCIÓN NORMAL ESTÁNDAR ,[object Object]
CONTRASTE DE NORMALIDAD ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
CONTRASTE DE NORMALIDAD ,[object Object],Test de Kolmogorov-Smirnov Analizar/ Pruebas no paramétricas/ K-S de 1 muestra Las variables pretest, postest e índice de mejora  no se distribuyen de forma normal. Tendremos que usar pruebas no paramétricas (aunque si el tamaño de la muestra es grande la “violación” de los supuestos paramétricos es tolerable. Sig. mayor de 0,05 se ajusta a la normal. Menor a 0,05 no se ajusta a la normal.   Variables cuantitativas
CONTRASTE DE NORMALIDAD Test de Kolmogorov-Smirnov Analizar/ Pruebas no paramétricas/ K-S de 1 muestra La variable número de sesiones en todos los casos  no se distribuyen de forma normal. Pero los grado I y grado II  si se distribuyen de forma normal Variables cuantitativas
CONTRASTE DE NORMALIDAD Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Gráficps con prueba de normalidad Test de Kolmogorov-Smirnov con un nivel de significación de Lilliefors
CONTRASTE DE NORMALIDAD Test de Kolmogorov-Smirnov con un nivel de significación de Lilliefors   Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Gráficps con prueba de normalidad
REPRESENTACIÓN GRÁFICA DE LA INFORMACIÓN
CONDICIONES GENERALES QUE DEBEN CUMPLIR ,[object Object],[object Object],[object Object]
GRÁFICO DE SECTORES   Y GRÁFICO DE BARRAS Analizar/ Estadísticos descriptivos/ Frecuecias/ Gráficos Se pueden emplear en variables cuantitativas, pero forzosamente en las cualitativas Gráfico de Sectores: Contribución de las partes a un todo (frecuencia o %). El ángulo central es proporcional a la frecuencia absoluta. Gráfico de Barras: muestra la frecuencia de cada valor como una barra diferente permitiendo comparar las categorías de forma visual (frecuencia o %).
HISTOGRAMA Representación de una variable   cuantitativa  que muestra la concentración relativa de los datos a lo largo de diferentes intervalos o secciones de la escala en la que están medidos dichos datos . Cuentan con barras, pero se representan a lo largo de una   escala de intervalos iguales La altura de cada barra es el recuento de los valores que están dentro del intervalo para una variable cuantitativa . Los histogramas muestran la forma, el centro y la dispersión de la distribución. El histograma se construye sobre unos ejes de coordenadas . Se señalan en el eje horizontal los distintos extremos de los intervalos de clase, y en el eje vertical las frecuencias relativas partidas por las amplitudes de cada intervalo . A partir de esto se construyen rectángulos yuxtapuestos, cuyas bases son los diferentes intervalos de clase y cuya altura es el cociente de la frecuencia relativa entre la amplitud del intervalo .
POLÍGONO DE FRECUENCIAS El polígono de frecuencias resulta de la unión mediante una línea quebrada de los puntos medios de las bases superiores de los rectángulos de un histograma . No es aplicable a las variables cualitativas
CAJA Y BIGOTES En el diagrama de cajas y bigotes presentamos los percentiles recogidos, la mediana y los valores extremos. La caja central registra los valores comprendidos entre los percentiles del 25 (borde inferior de la caja) al 75 (borde superior de la caja). La línea negra que viene remarcada se corresponde con el percentil 50 o mediana. Los bigotes representan los casos máximo y mínimo. (ojo cuando aparezca un * no se corresponden con mínimo y máximo).
DIAGRAMA DE TALLO Y HOJAS  Tallo Hojas
GRÁFICO DE NORMALIDAD
DIAGRAMA DE BARRAS AGRUPADAS Y BARRAS DE ERROR
GRÁFICO DE LÍNEAS Y DIAGRAMA DE DISPERSIÓN
DOS DIAGRAMAS DE LÍNEAS SUPERPUESTOS Y DIAGRAMA DE DISPERSIÓN  (REGRESIÓN LOGÍSTICA)
ESTADÍSTICA DESCRIPTIVA BIVARIANTE
RELACIÓN ENTRE VARIABLES Y REGRESIÓN ,[object Object],Correlación positiva Correlación negativa Incorrelación Incorrelación 30 80 130 180 230 280 330 140 150 160 170 180 190 200
COEFICIENTES DE CORRELACIÓN ,[object Object],[object Object],[object Object],[object Object],Analizar/ Estadísticos descriptivos/ Tablas de contingencia Analizar/ Correlaciones/ Bivariadas Analizar/ Correlaciones/ Bivariadas
COEF. CORREL. DE PEARSON  (VARIABLES CUANTITATIVAS PARAMÉTRICAS) ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Analizar/ Correlaciones/ Bivariadas
COEF. CORREL. DE PEARSON  (VARIABLES CUANTITATIVAS PARAMÉTRICAS) Analizar/ Correlaciones/ Bivariadas
COEF. CORREL. RHO DE SPEARMAN  (VARIABLES CUANTITATIVAS NO PARAMÉTRICAS) ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Analizar/ Correlaciones/ Bivariadas
COEF. CORREL. RHO DE SPEARMAN  (VARIABLES CUANTITATIVAS NO PARAMÉTRICAS) Analizar/ Correlaciones/ Bivariadas
TABLAS DE CONTIGENCIA ,[object Object],[object Object],[object Object],[object Object],[object Object]
TABLAS DE CONTIGENCIA ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
TABLAS DE CONTIGENCIA  (CORRELACIONANDO DOS VARIABLES NOMINALES) ,[object Object]
TABLAS DE CONTIGENCIA (CORRELACIONANDO DOS VARIABLES ORDINALES) ,[object Object],[object Object],[object Object],[object Object]
TABLAS DE CONTIGENCIA (CORRELACIONANDO DOS VARIABLES ORDINALES) ,[object Object]
TABLAS DE CONTIGENCIA (CORRELACIONANDO DOS VARIABLES ORDINALES) ,[object Object]
TABLAS DE CONTIGENCIA (CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL) ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
TABLAS DE CONTIGENCIA (CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL) ,[object Object]
TABLAS DE CONTIGENCIA ,[object Object]
ESTADÍSTICA INFERENCIAL
HIPÓTESIS ESTADÍSTICAS ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Por ejemplo: Los ingresos del hombre (IH) son > que los de la mujer (IM) H 0     IH ≤ IM H 1    IH > IM
DECISIÓN ESTADÍSTICA ,[object Object],[object Object],[object Object],[object Object]
[object Object],[object Object],[object Object],[object Object],DECISIÓN ESTADÍSTICA
DECISIÓN ESTADÍSTICA ,[object Object],Acierto (Potencia  Ө  ) Error  α O  De Tipo I Rechazo H 0  Acepto H 1 Error  β O De Tipo II Acierto Acepto H 0  Rechazo H 1   Decisión que toma el investigador  H 0  Falso  H 1  verdadero H 0  verdadero  H 1  Falso Realidad
DECISIÓN ESTADÍSTICA Error  α :   Probabilidad de aceptar H 1  siendo falsa. Error  β :  Probabilidad de aceptar la H 0  siendo falsa. Ejemplo: realizo un test para saber si los sujetos de la muestra padecen una patología determinada. H 0 : No padecer la enfermedad.  H 1 : Padecer la enfermedad. Error  α   probabilidad de que el test de positivo y el paciente realmente no tenga la enfermedad. Es lo que denominamos FALSO POSITIVO. Al valor 1-  α  se le denomina NIVEL DE CONFIANZA. Error  β , el test me ha dado negativo y el paciente padece realmente la enfermedad. Es lo que denominamos FALSO NEGATIVO. Al valor 1-  β  se le denomina “POTENCIA DEL CONTRASTE”.
PROCESO DE DECISIÓN ESTADÍSTICA ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
NIVEL DE SIGNIFICACIÓN ,[object Object],[object Object]
¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA? SUPUESTOS PARAMÉTRICOS ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA? SUPUESTOS PARAMÉTRICOS ,[object Object],[object Object],[object Object]
¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA? ,[object Object],[object Object],[object Object],[object Object]
[object Object],[object Object],[object Object],[object Object],[object Object],PRUEBAS PARAMÉTRICAS Analizar/ Comparar medias/ …
[object Object],[object Object],[object Object],Prueba T de Student para una muestra Analizar/ Comparar medias/ Prueba T para una muestra
[object Object],Prueba T de Student para una muestra Analizar/ Comparar medias/ Prueba T para una muestra
[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Prueba T de Student para muestras independientes Analizar/ Comparar medias/ Prueba T para muestras independientes
Prueba T de Student para muestras independientes ,[object Object],Analizar/ Comparar medias/ Prueba T para muestras independientes
Prueba T de Student para muestras relacionadas ,[object Object],[object Object],[object Object],[object Object],Analizar/ Comparar medias/ Prueba T para muestras relacionadas
Prueba T de Student para muestras relacionadas Analizar/ Comparar medias/ Prueba T para muestras relacionadas
[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Prueba Anova de un factor Analizar/ Comparar medias/ Anova de un Factor
PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … ,[object Object],[object Object],[object Object]
PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … 4) Prueba de Kolmogorov-Smirnov para una muestra:  compara si la distribución de una variable se ajusta  a una distribución teórica determinada, que puede ser la  NORMAL , la uniforme, la de Poisson o la exponencial . 5)  Prueba  para dos muestras independientes (U de Mann-Whitney):  es la versión no paramétrica de la prueba T Student para muestras independientes (equivale a esta prueba). C ompara dos grupos de casos existentes en una variable . Por ejemplo:  analizo la disminución del dolor al aplicar TENS continuo frente a TENS pulsátil. 6)  Prueba para Varias muestras independientes.  H de Kruskal-Wallis:  es el análogo no paramétrico del análisis de varianza (ANOVA) de un factor.  Nos permite  comparar la efectividad de un tratamiento con dos o más modalidades (una en cada uno de los grupos 2 o +).
PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … 7)  Prueba para Dos Muestras Relacionadas o Prueba de los Rangos con  Signos de Wilcoxon, Prueba de McNemar ... etc.:   es la análoga no paramétrica a la prueba T Student para muestras relacionadas .  Podemos usar la prueba de  WILCOXON PARA EVALUAR SI EL DOLOR DISMINUYE (PRETEST EN RELACIÓN AL POSTEST) AL APLICAR UN TRATAMIENTO. También podemos emplear l a  PRUEBA DE MCNEMAR : prueba no paramétrica para  DOS VARIABLES DICOTÓMICAS RELACIONADAS . Contrasta los cambios en las respuestas utilizando la distribución de chi-cuadrado. Es útil para detectar cambios en las respuestas debidas a la intervención experimental en los diseños del tipo &quot;antes-después&quot;. Para las tablas cuadradas de mayor orden se informa de la prueba de simetría de McNemar-Bowker. LA PRUEBA DE HOMOGENEIDAD MARGINAL  es una prueba no paramétrica para  DOS VARIABLES ORDINALES RELACIONADAS . Se trata de una extensión de la prueba de McNemar a partir de la respuesta binaria a las respuestas multinominales. Contrasta los cambios de respuesta, utilizando la distribución de chi-cuadrado, y es útil para detectar cambios de respuesta causados por intervención experimental en diseños antes-después.
PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … 8) Prueba para Varias o K Muestras Relacionadas. Pruebas de Friedman y Prueba Q de Cochran. P rueba de Friedman  es el equivalente no paramétrico de un diseño de medidas repetidas para una muestra o un análisis de varianza de dos factores con una observación por casilla.   Las variables en este caso se medirán en una escala ordinal. Diferencias entre dos series de puntuaciones. Prueba Q de Cochran  Contraste no paramétrico de la hipótesis de que varias variables dicotómicas relacionadas tienen la misma media.   Las variables medirán al mismo individuo o a individuos emparejados . Las variables en este caso se medirán en una escala nominal u ordinal. Analizamos la existencia de diferencias entre dos series de puntuaciones.
PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … Friedman Diferencias entre muestras Ordinal Cochran Diferencias entre dos series de puntuaciones Nominal u ordinal K muestras relacionadas Kruskal-Wallis Ordinal Chi-cuadrado Diferencias entre muestras Nominal K muestras independientes Wilcoxon (muestras relacionadas) Mann-Whitney (muestras independientes) Diferencias entre muestras Ordinal Dos muestras Kolmogorov-Smirnov La forma de distribución una variable (bondad de ajuste) intervalo Una muestra PRUEBA NO PARAMÉTRICA TIPO DE CONTRASTE ESCALA DE MEDIDA MUESTRAS
PRUEBAS PARA DOS MUESTRAS INDEPENDIENTES ¿Las medias de la VD son similares en los distintos valores de la VI? t-Student F del Anova t 2  = F VD Normal Homocedástica ¿Las medias de la VD son similares en los distintos valores de la VI? t o F de Welch VD Normal no Homocedástica  ¿Los rangos de la VD se distribuyen de forma similar en los distintos valores de la VI? U de Mann-Whitney VD NO Normal Cuantitativa ¿Los rangos de la VD se distribuyen de forma similar en los distintos valores de la VI? U de Mann-Whitney Ordinal ¿La distribución de casos en las categorías de la VD cambia en función de los valores de la VI? χ 2  Chi-cuadrado Cualitativa VI cualitativa 2 muestras independientes Objetivos  Pruebas Supuestos VD
CALCULANDO EL TAMAÑO DEL EFECTO 0,01  0,06  0,14 R 2  = F/(F+gl) Eta o R cuadrado F del Anova (F de Snedecor) 0,20  0,50  0,80 d = 2t/  gl Diferencia de medias estandarizada t de Student 0,10  0,30  0,50 r φ 2  =  φ 2   =  χ 2 /N Coeficiente de Contingencia Chi-cuadrado Peq  Medio  Grande Fórmula Medida Prueba
DATOS QUE DEBEMOS APORTAR EN UN INFORME Nota: si el contraste es a una cola hay que señalarlo indicando p (a una cola) = ...  / Recordar que si el contraste es a una cola hay que dividir la p que me de entre 2 (en SPSS sale p=0,02 pongo p=0,01) Medias y desviaciones típicas de los distintos grupos F (gl1,gl2) = ... , p = ... , R 2 = ... F del Anova (F de Snedecor) Medias y desviaciones típicas de los distintos grupos t (gl) = ... , p = ... , d = ... t de Student Frecuencias o porcentajes de las categorías de una variable en función de las categorías de la otra χ 2  (gl,N = ...) = ... , p = ... , φ 2  = ... Chi-cuadrado Datos descriptivos Datos de la prueba Prueba
DATOS QUE DEBEMOS APORTAR EN UN INFORME El contraste general entre los dos tratamientos continuo y pulsátil, es decir, el análisis de los índices de mejora, comparando ambos tratamientos, empleando la prueba t-Student para muestras independientes (implementando realmente la prueba de Welch al no existir igualdad de varianzas y ser heterocedásticas ambas distribuciones de datos), así como la prueba U de Mann-Whitney muestra que existe una diferencia estadísticamente significativa entre ambos tratamientos, siendo mejor la pulsátil ( p < 0.05 ). Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño,  F Levene   (1, 899) = 15,567 ( p = 0.000 ). El grupo tratado con corriente pulsátil (media 1,99 DT 0,60) obtuvo una disminución del dolor significativamente superior a la del grupo tratado con corriente continua (media 1,17 DT 0,37)  t  de Welch (648,831) = -23,674  p (a una cola) = 0.000 . Empleado para determinar el tamaño del efecto el programa effect size calculator (disponible en:  http:// www . uccs . edu /~ faculty / lbecker / ) obteniendo d = 1,8588. Se trata de un valor de tamaño del efecto elevado, que refleja la importante diferencia existente a favor de la corriente pulsátil. Este valor también lo hemos obtenido al emplear la fórmula: d = 2t/√gl
DATOS QUE DEBEMOS APORTAR EN UN INFORME ,[object Object],[object Object],[object Object],[object Object],[object Object]
DATOS QUE DEBEMOS APORTAR EN UN INFORME ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
DATOS QUE DEBEMOS APORTAR EN UN INFORME Tras un procedimiento de muestreo no probabilístico a conveniencia, nuestra muestra está conformada por un total de 44 individuos, con una  edad media de 39,6818 años con una desviación típica (DT en adelante) de 5,97581 y los valores mínimos y máximos son 23 y 49 años.  Las edades se distribuyen de forma normal cuando no consideramos el grupo de tratamiento. Estadístico de Shapiro-Wilk = 0,955 ( p = 0,081 ). Si consideramos cada grupo por separado la variable edad también se distribuye normalmente. Estadístico de Shapiro-Wilk para el grupo control = 0,934 ( p = 0,147 ). Estadístico de Shapiro-Wilk para el grupo experimental = 0,967 ( p = 0,633 ). Como el número de sujetos incluidos en cada grupo fue de 22 (por tanto inferior de 30) empleamos tanto pruebas de carácter paramétrico como no paramétrico para determinar la presencia/ausencia de sesgos en la distribución de edades de los sujetos en nuestros dos grupos. Los dos grupos son homogéneos en relación a la edad de los sujetos (grupo control media 39.8636 años DT=5.97053, grupo experimental media 39,5 y DT = 6,11594). No existe una diferencia significativa entre la edad de los dos grupos. Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño,  F Levene   (1, 42) = 0,138 ( p = 0,712 ). El grupo control presenta una media de edad no significativamente superior a la del grupo experimental, con una  t  de Student (42) = 0,2  p (a una cola) = 0,843 . En el grupo control el rango promedio fue de 23,27 mientras que en el experimental fue 21,73  U de Mann-Whitney  = 225 ( p = 0,689 ).
DATOS QUE DEBEMOS APORTAR EN UN INFORME De los 44 pacientes estudiados en nuestro ensayo 14 son varones lo que representa un 31,8%, mientras que 30 son mujeres (68,2%). Estos datos se muestran de forma gráfica en la figura xx. En el grupo control, al igual que en el experimental hemos incluido un total de 7 hombres (31,8%) y 15 mujeres (68,2%). Hemos comprobado, empleando la prueba Chi-cuadrado, que no hay un sesgo en la distribución por sexos de nuestros pacientes en los dos grupos analizados. La proporción de mujeres y de hombres incluidos en el grupo control frente al grupo experimental son iguales X 2  (1,44) = 0,000, p = 1,000.
INVESTIGACIONES EN SALUD Frenk,J. (Modificado por Toledo, G.) INVESTIGACION BIOMEDICA (Nivel subindividual) EN SISTEMAS DE SALUD INVESTIGACION EN SALUD PUBLICA (Nivel poblacional) INVESTIGACION CLINICA (Nivel individual) DESCRIPTIVAS EPIDEMIOLOGICA EN POLITICAS   DE SALUD ORGANIZACION DE S. S. ( Nivel micro  intraorganizacional) Estudios   ecológicos EN SERVICOS  DE SALUD POLITICA S  DE SALUD ( Nivel macro o  interorganizacional) E studios de   mortalidad proporcional E studios de   incidencia E studios de   prevalencia ANALITICAS OBSERVACIONALES E ncuestas  Transversales EXPERIMENTALES O  DE INTERVENCION Estudios de  Cohorte Estudios de  Casos y  controles ENSAYOS COMUNITARIOS ENSAYOS  DE CAMPO ENSAYOS  CLINICOS Clasificación de las investigaciones en Salud
Estudio observacional Estudio experimental ¿dirección? Estudio analítico Estudio descriptivo Estudio de  cohorte Estudio de  casos y  controles Estudio de corte  tranversal  Ensayo  clínico  controlado  aleatorizado Ensayo  controlado no  aleatorizado  ¿asignación  aleatoria? ¿grupo de  comparación? ¿el investigador  manipuló la exposición? Si No Si No Si No exposición  efecto exposición  efecto exposicion  =  efecto
Exposición Efecto Exposición Efecto Estudio de cohorte Estudio de caso-control Exposición Efecto Estudio de caso-control Tiempo Temporalidad de los estudios epidemiologicos
 
 
 
 
 
 
 
 

More Related Content

What's hot

Estadística descriptiva por Bioq. José Luis Soto Velásquez (2)
Estadística descriptiva por Bioq. José Luis Soto Velásquez (2)Estadística descriptiva por Bioq. José Luis Soto Velásquez (2)
Estadística descriptiva por Bioq. José Luis Soto Velásquez (2)joseluissotovelasquez
 
Cuadro comparativo estadistica parametrica y no parametrica
Cuadro comparativo estadistica parametrica y no parametricaCuadro comparativo estadistica parametrica y no parametrica
Cuadro comparativo estadistica parametrica y no parametricaMarianaSandoval24
 
Regresion y correlacion ppt
Regresion y correlacion pptRegresion y correlacion ppt
Regresion y correlacion pptrodrigomartinezs
 
Ensayo y mapa conceptual de distribuciones muestrales
Ensayo y mapa conceptual de distribuciones muestralesEnsayo y mapa conceptual de distribuciones muestrales
Ensayo y mapa conceptual de distribuciones muestralesYelitza Suarez Villarreal
 
Medidas de dispersion
Medidas de dispersionMedidas de dispersion
Medidas de dispersionLourdes Bront
 
Resultados, conclusiones y recomendaciones
Resultados, conclusiones y recomendacionesResultados, conclusiones y recomendaciones
Resultados, conclusiones y recomendacionescalube55
 
Clase 6 (definicion operacional de variables)
Clase 6 (definicion operacional de variables)Clase 6 (definicion operacional de variables)
Clase 6 (definicion operacional de variables)James R. Ramos
 
ESTADÍSTICA DESCRIPTIVA Y ESTADÍSTICA INFERENCIAL
ESTADÍSTICA DESCRIPTIVA Y ESTADÍSTICA INFERENCIALESTADÍSTICA DESCRIPTIVA Y ESTADÍSTICA INFERENCIAL
ESTADÍSTICA DESCRIPTIVA Y ESTADÍSTICA INFERENCIALAracelyGutierrez12
 
COEFICIENTE DE CONFIABILIDAD - ALFA DE CRONBACH - KUDER Y RICHARSON
COEFICIENTE DE CONFIABILIDAD - ALFA DE CRONBACH - KUDER Y RICHARSONCOEFICIENTE DE CONFIABILIDAD - ALFA DE CRONBACH - KUDER Y RICHARSON
COEFICIENTE DE CONFIABILIDAD - ALFA DE CRONBACH - KUDER Y RICHARSONcaleb pillaca janampa
 
Métodos estadísticos y tabulación
Métodos estadísticos y tabulaciónMétodos estadísticos y tabulación
Métodos estadísticos y tabulaciónALEXANDER CASTRILLO
 
08 seleccion de muestra
08 seleccion de muestra08 seleccion de muestra
08 seleccion de muestraCarlos Rojas
 
Análisis de correlación y regresión lineal simple
Análisis de correlación y regresión lineal simpleAnálisis de correlación y regresión lineal simple
Análisis de correlación y regresión lineal simpleJoan Fernando Chipia Lobo
 
Intervalos de confianza 2018
Intervalos de confianza 2018Intervalos de confianza 2018
Intervalos de confianza 2018franciscoe71
 
Estadistica Univariada
Estadistica UnivariadaEstadistica Univariada
Estadistica Univariadaguest3207525
 
Medidas de Distribución: Asimetrias y Curtosis
Medidas de Distribución: Asimetrias y CurtosisMedidas de Distribución: Asimetrias y Curtosis
Medidas de Distribución: Asimetrias y CurtosisMSc. Alexander Nuñez
 
Ejemplos practicos de muestreo
Ejemplos practicos de muestreoEjemplos practicos de muestreo
Ejemplos practicos de muestreoDaniel Flores
 

What's hot (20)

Estadística descriptiva por Bioq. José Luis Soto Velásquez (2)
Estadística descriptiva por Bioq. José Luis Soto Velásquez (2)Estadística descriptiva por Bioq. José Luis Soto Velásquez (2)
Estadística descriptiva por Bioq. José Luis Soto Velásquez (2)
 
Cuadro comparativo estadistica parametrica y no parametrica
Cuadro comparativo estadistica parametrica y no parametricaCuadro comparativo estadistica parametrica y no parametrica
Cuadro comparativo estadistica parametrica y no parametrica
 
EstadíStica Inferencial
EstadíStica InferencialEstadíStica Inferencial
EstadíStica Inferencial
 
Datos agrupados y datos no agrupados
Datos agrupados y datos no agrupadosDatos agrupados y datos no agrupados
Datos agrupados y datos no agrupados
 
Distribución normal
Distribución normalDistribución normal
Distribución normal
 
Regresion y correlacion ppt
Regresion y correlacion pptRegresion y correlacion ppt
Regresion y correlacion ppt
 
Ensayo y mapa conceptual de distribuciones muestrales
Ensayo y mapa conceptual de distribuciones muestralesEnsayo y mapa conceptual de distribuciones muestrales
Ensayo y mapa conceptual de distribuciones muestrales
 
Medidas de dispersion
Medidas de dispersionMedidas de dispersion
Medidas de dispersion
 
Resultados, conclusiones y recomendaciones
Resultados, conclusiones y recomendacionesResultados, conclusiones y recomendaciones
Resultados, conclusiones y recomendaciones
 
Clase 6 (definicion operacional de variables)
Clase 6 (definicion operacional de variables)Clase 6 (definicion operacional de variables)
Clase 6 (definicion operacional de variables)
 
ESTADÍSTICA DESCRIPTIVA Y ESTADÍSTICA INFERENCIAL
ESTADÍSTICA DESCRIPTIVA Y ESTADÍSTICA INFERENCIALESTADÍSTICA DESCRIPTIVA Y ESTADÍSTICA INFERENCIAL
ESTADÍSTICA DESCRIPTIVA Y ESTADÍSTICA INFERENCIAL
 
Medidas de Dispersion
Medidas de DispersionMedidas de Dispersion
Medidas de Dispersion
 
COEFICIENTE DE CONFIABILIDAD - ALFA DE CRONBACH - KUDER Y RICHARSON
COEFICIENTE DE CONFIABILIDAD - ALFA DE CRONBACH - KUDER Y RICHARSONCOEFICIENTE DE CONFIABILIDAD - ALFA DE CRONBACH - KUDER Y RICHARSON
COEFICIENTE DE CONFIABILIDAD - ALFA DE CRONBACH - KUDER Y RICHARSON
 
Métodos estadísticos y tabulación
Métodos estadísticos y tabulaciónMétodos estadísticos y tabulación
Métodos estadísticos y tabulación
 
08 seleccion de muestra
08 seleccion de muestra08 seleccion de muestra
08 seleccion de muestra
 
Análisis de correlación y regresión lineal simple
Análisis de correlación y regresión lineal simpleAnálisis de correlación y regresión lineal simple
Análisis de correlación y regresión lineal simple
 
Intervalos de confianza 2018
Intervalos de confianza 2018Intervalos de confianza 2018
Intervalos de confianza 2018
 
Estadistica Univariada
Estadistica UnivariadaEstadistica Univariada
Estadistica Univariada
 
Medidas de Distribución: Asimetrias y Curtosis
Medidas de Distribución: Asimetrias y CurtosisMedidas de Distribución: Asimetrias y Curtosis
Medidas de Distribución: Asimetrias y Curtosis
 
Ejemplos practicos de muestreo
Ejemplos practicos de muestreoEjemplos practicos de muestreo
Ejemplos practicos de muestreo
 

Viewers also liked

coeficientes de correlación de Pearson y de Sperman
coeficientes de correlación de Pearson y de Spermancoeficientes de correlación de Pearson y de Sperman
coeficientes de correlación de Pearson y de Spermanpolethvillalba
 
Coeficientes de Correlación de Pearson y de Spermanxposicion
Coeficientes de Correlación de Pearson y de Spermanxposicion Coeficientes de Correlación de Pearson y de Spermanxposicion
Coeficientes de Correlación de Pearson y de Spermanxposicion magdiony_barcenas1979
 
Coeficiente de Correlación de Pearson y Spearman
Coeficiente de Correlación de Pearson y SpearmanCoeficiente de Correlación de Pearson y Spearman
Coeficiente de Correlación de Pearson y SpearmanPatricia Castillo
 

Viewers also liked (6)

SOCIALIZACION AMBIENTE
SOCIALIZACION AMBIENTESOCIALIZACION AMBIENTE
SOCIALIZACION AMBIENTE
 
coeficientes de correlación de Pearson y de Sperman
coeficientes de correlación de Pearson y de Spermancoeficientes de correlación de Pearson y de Sperman
coeficientes de correlación de Pearson y de Sperman
 
Estadistica unidad 3
Estadistica unidad 3Estadistica unidad 3
Estadistica unidad 3
 
Coeficientes de Correlación de Pearson y de Spermanxposicion
Coeficientes de Correlación de Pearson y de Spermanxposicion Coeficientes de Correlación de Pearson y de Spermanxposicion
Coeficientes de Correlación de Pearson y de Spermanxposicion
 
Coeficiente de Correlación de Pearson y Spearman
Coeficiente de Correlación de Pearson y SpearmanCoeficiente de Correlación de Pearson y Spearman
Coeficiente de Correlación de Pearson y Spearman
 
Tipos de escalas y variables estadísticas
Tipos de escalas y variables estadísticasTipos de escalas y variables estadísticas
Tipos de escalas y variables estadísticas
 

Similar to Estadistica

ESTADÍSTICA BÁSICA
ESTADÍSTICA BÁSICAESTADÍSTICA BÁSICA
ESTADÍSTICA BÁSICAUGM NORTE
 
presentacion de estadistica 1.pptx
presentacion de estadistica 1.pptxpresentacion de estadistica 1.pptx
presentacion de estadistica 1.pptxDpto Higiene
 
Estadistica descriptiva
Estadistica descriptiva Estadistica descriptiva
Estadistica descriptiva Akarina20
 
Estadistica descriptiva
Estadistica descriptiva Estadistica descriptiva
Estadistica descriptiva Akarina20
 
Estadistica descriptiva ana
Estadistica descriptiva anaEstadistica descriptiva ana
Estadistica descriptiva anaAkarina20
 
Teoria y Ejemplo de Distribucion de Estadística General
Teoria y Ejemplo de Distribucion de Estadística GeneralTeoria y Ejemplo de Distribucion de Estadística General
Teoria y Ejemplo de Distribucion de Estadística Generalfranciscoe71
 
Esta Di Stica Descriptiva
Esta Di Stica DescriptivaEsta Di Stica Descriptiva
Esta Di Stica DescriptivaDanielDierN
 
Estadistica descriptiva
Estadistica descriptiva Estadistica descriptiva
Estadistica descriptiva Akarina20
 
Generalidades de la estadística
Generalidades de la estadísticaGeneralidades de la estadística
Generalidades de la estadísticaJenny HB
 
Distribuición, prevalencia, medidores de la salud
Distribuición, prevalencia, medidores de la saludDistribuición, prevalencia, medidores de la salud
Distribuición, prevalencia, medidores de la saludTiago Alves
 
Esta Di Stica Descriptiva
Esta Di Stica DescriptivaEsta Di Stica Descriptiva
Esta Di Stica Descriptivalissa
 
Resumen estadistica descriptiva resumen
Resumen estadistica descriptiva resumenResumen estadistica descriptiva resumen
Resumen estadistica descriptiva resumenCarlo Herrera
 
Estadística descriptiva
Estadística descriptivaEstadística descriptiva
Estadística descriptivakmilosolano
 
1. fundamentos de bioestadistica
1. fundamentos de bioestadistica1. fundamentos de bioestadistica
1. fundamentos de bioestadisticaAdriana2906
 

Similar to Estadistica (20)

BioestadíStica Y EpidemiologíA
BioestadíStica Y EpidemiologíABioestadíStica Y EpidemiologíA
BioestadíStica Y EpidemiologíA
 
Estadistica 2020
Estadistica 2020Estadistica 2020
Estadistica 2020
 
ESTADÍSTICA BÁSICA
ESTADÍSTICA BÁSICAESTADÍSTICA BÁSICA
ESTADÍSTICA BÁSICA
 
presentacion de estadistica 1.pptx
presentacion de estadistica 1.pptxpresentacion de estadistica 1.pptx
presentacion de estadistica 1.pptx
 
Estadistica descriptiva
Estadistica descriptiva Estadistica descriptiva
Estadistica descriptiva
 
Estadistica descriptiva
Estadistica descriptiva Estadistica descriptiva
Estadistica descriptiva
 
Estadistica descriptiva ana
Estadistica descriptiva anaEstadistica descriptiva ana
Estadistica descriptiva ana
 
Teoria y Ejemplo de Distribucion de Estadística General
Teoria y Ejemplo de Distribucion de Estadística GeneralTeoria y Ejemplo de Distribucion de Estadística General
Teoria y Ejemplo de Distribucion de Estadística General
 
Datos no Agrupados.pdf
Datos no Agrupados.pdfDatos no Agrupados.pdf
Datos no Agrupados.pdf
 
Esta Di Stica Descriptiva
Esta Di Stica DescriptivaEsta Di Stica Descriptiva
Esta Di Stica Descriptiva
 
Estadistica descriptiva
Estadistica descriptiva Estadistica descriptiva
Estadistica descriptiva
 
Estadistica I
Estadistica IEstadistica I
Estadistica I
 
Generalidades de la estadística
Generalidades de la estadísticaGeneralidades de la estadística
Generalidades de la estadística
 
Distribuición, prevalencia, medidores de la salud
Distribuición, prevalencia, medidores de la saludDistribuición, prevalencia, medidores de la salud
Distribuición, prevalencia, medidores de la salud
 
Esta Di Stica Descriptiva
Esta Di Stica DescriptivaEsta Di Stica Descriptiva
Esta Di Stica Descriptiva
 
Estadistica descriptiva
Estadistica descriptivaEstadistica descriptiva
Estadistica descriptiva
 
Resumen estadistica descriptiva resumen
Resumen estadistica descriptiva resumenResumen estadistica descriptiva resumen
Resumen estadistica descriptiva resumen
 
Estadística
EstadísticaEstadística
Estadística
 
Estadística descriptiva
Estadística descriptivaEstadística descriptiva
Estadística descriptiva
 
1. fundamentos de bioestadistica
1. fundamentos de bioestadistica1. fundamentos de bioestadistica
1. fundamentos de bioestadistica
 

More from antoniocarpinto

More from antoniocarpinto (10)

Columna cervical
Columna cervicalColumna cervical
Columna cervical
 
Presentacion rabia
Presentacion rabiaPresentacion rabia
Presentacion rabia
 
Muestreo
MuestreoMuestreo
Muestreo
 
Diseño, analisis e interpretacion de los estudios clinicos basados en la evid...
Diseño, analisis e interpretacion de los estudios clinicos basados en la evid...Diseño, analisis e interpretacion de los estudios clinicos basados en la evid...
Diseño, analisis e interpretacion de los estudios clinicos basados en la evid...
 
Tarea 5
Tarea 5Tarea 5
Tarea 5
 
Tarea 4
Tarea 4Tarea 4
Tarea 4
 
Tarea 4 nueva
Tarea 4 nuevaTarea 4 nueva
Tarea 4 nueva
 
Tarea 4
Tarea 4Tarea 4
Tarea 4
 
Practica de busqueda en bases de datos
Practica de busqueda en bases de datosPractica de busqueda en bases de datos
Practica de busqueda en bases de datos
 
Práctica refworks
Práctica refworksPráctica refworks
Práctica refworks
 

Estadistica

  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8. ESCALAS DE MEDIDA Media geométrica Media armónica Coeficiente de variación Cero absoluto Establecer igualdad de razones De razón o proporción Media aritmética Desviación típica Correlaciones Unidad constante Determinar la igualdad o diferencia de intervalo De intervalo Mediana Percentiles Correlación lineal Mantenimiento del orden Determinar lo >, lo =, o lo < Ordinal Frecuencias Moda Coefic. De contigencia Permutación Establecer la igualdad o desigualdad Nominal ESTADÍSTICOS APLICABLES CONDICIONES OPERACIONES LÓGICAS ESCALAS DE MEDIDA
  • 9. ANÁLISIS VALIDEZ Y FIABILIDAD DE LA MEDIDA
  • 10. Análisis de la Fiabilidad La precisión o fiabilidad de una medida: ausencia de variabilidad. Una medición es fiable cuando se obtienen resultados iguales en mediciones sucesivas. Medición de temperatura: 36º, 30º, 40º (no es fiable).    O rígenes de la variabilidad: 1.Variabilidad atribuible al procedimiento (instrumentos, pruebas, cuestionarios, etc). 2.Variabilidad debida a discrepancias entre los observadores (variaciones inter‑observador e intra‑observador). 3.Variabilidad por cambios en las características sometidas a medición (variaciones biológicas, conductuales, ambientales, etcétera), La fiabilidad se valora realizando dos o más mediciones independientes del mismo atributo y comparando luego los hallazgos.
  • 11. Análisis de la Fiabilidad La fiabilidad de las medidas utilizadas ha de analizarse cuando se aplique una forma de medición nueva.   Se deben realizar esfuerzos para hacer más fiable la información recogida, pero más que intentar conseguir una fiabilidad total, se debe poder cuantificar el grado de error cometido en la medición.   Cuando en el diseño de un estudio se planifique la medición de las variables seleccionadas, se deben adoptar medidas para conseguir una mínima variabilidad en los resultados.   ¿Cómo?: - definiciones operativas claras, - instrucciones precisas sobre la recogida de información, - entrenamiento de los observadores, - procedimientos de medidas estándar previamente utilizados y - técnicas de enmascaramiento.
  • 12. Análisis de la Fiabilidad en variables cualitativas Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Cohen + coeficiente de contingencia + prueba Chi-cuadrado Coincidieron 20 negativos en el test1 tb son negativos en el test2. 20 + en test 1 también son + en el test2. No coincidieron 5 + en test 1 después en test 2 son negativos No coincidieron 5 negativos en test 1 después en test 2 son + Tuvo en total 40 coincidencias (20 ++ y 20 --) y 10 no coincidencias (5+- y 5 -+)
  • 13. Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Cohen + coeficiente de contingencia + prueba Chi-cuadrado (es una binomial 2x2) Análisis de la Fiabilidad en variables cualitativas Chi-cuadrado indica si una medición coincide con la otra o no.
  • 14. Analizar/ Escalas / Análisis de fiabilidad Análisis de la Fiabilidad en variables cuantitativas La matriz de correlaciones indica que existe una alta relación entre las mediciones, o sea que existe escasa variabilidad, por lo que mis 5 mediciones han sido muy fiables.
  • 15. Analizar/ Escalas / Análisis de fiabilidad Análisis de la Fiabilidad en variables cuantitativas
  • 16. VALIDEZ Y FIABILIDAD DE LA ESCALA DE MEDIDA Analizar/ Reducción de datos / Análisis factorial / KMO y prueba de esfericidad de Barlett Análisis de la Variabilidad (varianza) de una medición Identificar un pequeño número de factores que explique la mayoría de la varianza observada. Kaiser-Meyer-Olkin contrasta si las correlaciones parciales entre las variables son pequeñas (% de varianza en mis variables generada por esos factores) . La prueba de esfericidad de Bartlett me indica si mis variables están relacionadas o no. Gráfico de sedimentación: varianza asociada a cada factor. Típicamente muestra la clara ruptura entre la pronunciada pendiente de los factores más importantes y el descenso gradual de los restantes (los sedimentos). ,000 Sig. 10 gl 64,101 Chi-cuadrado aproximado Prueba de esfericidad de Bartlett ,752 Medida de adecuación muestral de Kaiser-Meyer-Olkin. ,852 PRETEST dolor MM.SS. ,555 PRETEST dolor MM.II. ,589 PRETEST dolor columna lumbar ,773 PRETEST dolor columna dorsal ,771 PRETEST dolor cabeza-cuello 1 Componente
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.
  • 28.
  • 29.
  • 30.
  • 31.
  • 32.
  • 33.
  • 34. MEDIDAS DE POSICIÓN Analizar/ Estadísticos descriptivos/ Frecuencias Analizar/ Estadísticos descriptivos/ Explorar
  • 35. MEDIDAS DE POSICIÓN Analizar/ Estadísticos descriptivos/ Frecuencias
  • 36. LA DISTRIBUCIÓN NORMAL &quot;Campana de Gauss&quot; Abraham de Moivre (1667-1754) Carl Friedrich Gauss (1777-1855)
  • 37.
  • 38.
  • 39.
  • 40.
  • 41. CONTRASTE DE NORMALIDAD Test de Kolmogorov-Smirnov Analizar/ Pruebas no paramétricas/ K-S de 1 muestra La variable número de sesiones en todos los casos no se distribuyen de forma normal. Pero los grado I y grado II si se distribuyen de forma normal Variables cuantitativas
  • 42. CONTRASTE DE NORMALIDAD Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Gráficps con prueba de normalidad Test de Kolmogorov-Smirnov con un nivel de significación de Lilliefors
  • 43. CONTRASTE DE NORMALIDAD Test de Kolmogorov-Smirnov con un nivel de significación de Lilliefors Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Gráficps con prueba de normalidad
  • 44. REPRESENTACIÓN GRÁFICA DE LA INFORMACIÓN
  • 45.
  • 46. GRÁFICO DE SECTORES Y GRÁFICO DE BARRAS Analizar/ Estadísticos descriptivos/ Frecuecias/ Gráficos Se pueden emplear en variables cuantitativas, pero forzosamente en las cualitativas Gráfico de Sectores: Contribución de las partes a un todo (frecuencia o %). El ángulo central es proporcional a la frecuencia absoluta. Gráfico de Barras: muestra la frecuencia de cada valor como una barra diferente permitiendo comparar las categorías de forma visual (frecuencia o %).
  • 47. HISTOGRAMA Representación de una variable cuantitativa que muestra la concentración relativa de los datos a lo largo de diferentes intervalos o secciones de la escala en la que están medidos dichos datos . Cuentan con barras, pero se representan a lo largo de una escala de intervalos iguales La altura de cada barra es el recuento de los valores que están dentro del intervalo para una variable cuantitativa . Los histogramas muestran la forma, el centro y la dispersión de la distribución. El histograma se construye sobre unos ejes de coordenadas . Se señalan en el eje horizontal los distintos extremos de los intervalos de clase, y en el eje vertical las frecuencias relativas partidas por las amplitudes de cada intervalo . A partir de esto se construyen rectángulos yuxtapuestos, cuyas bases son los diferentes intervalos de clase y cuya altura es el cociente de la frecuencia relativa entre la amplitud del intervalo .
  • 48. POLÍGONO DE FRECUENCIAS El polígono de frecuencias resulta de la unión mediante una línea quebrada de los puntos medios de las bases superiores de los rectángulos de un histograma . No es aplicable a las variables cualitativas
  • 49. CAJA Y BIGOTES En el diagrama de cajas y bigotes presentamos los percentiles recogidos, la mediana y los valores extremos. La caja central registra los valores comprendidos entre los percentiles del 25 (borde inferior de la caja) al 75 (borde superior de la caja). La línea negra que viene remarcada se corresponde con el percentil 50 o mediana. Los bigotes representan los casos máximo y mínimo. (ojo cuando aparezca un * no se corresponden con mínimo y máximo).
  • 50. DIAGRAMA DE TALLO Y HOJAS Tallo Hojas
  • 52. DIAGRAMA DE BARRAS AGRUPADAS Y BARRAS DE ERROR
  • 53. GRÁFICO DE LÍNEAS Y DIAGRAMA DE DISPERSIÓN
  • 54. DOS DIAGRAMAS DE LÍNEAS SUPERPUESTOS Y DIAGRAMA DE DISPERSIÓN (REGRESIÓN LOGÍSTICA)
  • 56.
  • 57.
  • 58.
  • 59. COEF. CORREL. DE PEARSON (VARIABLES CUANTITATIVAS PARAMÉTRICAS) Analizar/ Correlaciones/ Bivariadas
  • 60.
  • 61. COEF. CORREL. RHO DE SPEARMAN (VARIABLES CUANTITATIVAS NO PARAMÉTRICAS) Analizar/ Correlaciones/ Bivariadas
  • 62.
  • 63.
  • 64.
  • 65.
  • 66.
  • 67.
  • 68.
  • 69.
  • 70.
  • 72.
  • 73.
  • 74.
  • 75.
  • 76. DECISIÓN ESTADÍSTICA Error α : Probabilidad de aceptar H 1 siendo falsa. Error β : Probabilidad de aceptar la H 0 siendo falsa. Ejemplo: realizo un test para saber si los sujetos de la muestra padecen una patología determinada. H 0 : No padecer la enfermedad. H 1 : Padecer la enfermedad. Error α probabilidad de que el test de positivo y el paciente realmente no tenga la enfermedad. Es lo que denominamos FALSO POSITIVO. Al valor 1- α se le denomina NIVEL DE CONFIANZA. Error β , el test me ha dado negativo y el paciente padece realmente la enfermedad. Es lo que denominamos FALSO NEGATIVO. Al valor 1- β se le denomina “POTENCIA DEL CONTRASTE”.
  • 77.
  • 78.
  • 79.
  • 80.
  • 81.
  • 82.
  • 83.
  • 84.
  • 85.
  • 86.
  • 87.
  • 88. Prueba T de Student para muestras relacionadas Analizar/ Comparar medias/ Prueba T para muestras relacionadas
  • 89.
  • 90.
  • 91. PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … 4) Prueba de Kolmogorov-Smirnov para una muestra: compara si la distribución de una variable se ajusta a una distribución teórica determinada, que puede ser la NORMAL , la uniforme, la de Poisson o la exponencial . 5) Prueba para dos muestras independientes (U de Mann-Whitney): es la versión no paramétrica de la prueba T Student para muestras independientes (equivale a esta prueba). C ompara dos grupos de casos existentes en una variable . Por ejemplo: analizo la disminución del dolor al aplicar TENS continuo frente a TENS pulsátil. 6) Prueba para Varias muestras independientes. H de Kruskal-Wallis: es el análogo no paramétrico del análisis de varianza (ANOVA) de un factor. Nos permite comparar la efectividad de un tratamiento con dos o más modalidades (una en cada uno de los grupos 2 o +).
  • 92. PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … 7) Prueba para Dos Muestras Relacionadas o Prueba de los Rangos con Signos de Wilcoxon, Prueba de McNemar ... etc.: es la análoga no paramétrica a la prueba T Student para muestras relacionadas . Podemos usar la prueba de WILCOXON PARA EVALUAR SI EL DOLOR DISMINUYE (PRETEST EN RELACIÓN AL POSTEST) AL APLICAR UN TRATAMIENTO. También podemos emplear l a PRUEBA DE MCNEMAR : prueba no paramétrica para DOS VARIABLES DICOTÓMICAS RELACIONADAS . Contrasta los cambios en las respuestas utilizando la distribución de chi-cuadrado. Es útil para detectar cambios en las respuestas debidas a la intervención experimental en los diseños del tipo &quot;antes-después&quot;. Para las tablas cuadradas de mayor orden se informa de la prueba de simetría de McNemar-Bowker. LA PRUEBA DE HOMOGENEIDAD MARGINAL es una prueba no paramétrica para DOS VARIABLES ORDINALES RELACIONADAS . Se trata de una extensión de la prueba de McNemar a partir de la respuesta binaria a las respuestas multinominales. Contrasta los cambios de respuesta, utilizando la distribución de chi-cuadrado, y es útil para detectar cambios de respuesta causados por intervención experimental en diseños antes-después.
  • 93. PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … 8) Prueba para Varias o K Muestras Relacionadas. Pruebas de Friedman y Prueba Q de Cochran. P rueba de Friedman es el equivalente no paramétrico de un diseño de medidas repetidas para una muestra o un análisis de varianza de dos factores con una observación por casilla. Las variables en este caso se medirán en una escala ordinal. Diferencias entre dos series de puntuaciones. Prueba Q de Cochran Contraste no paramétrico de la hipótesis de que varias variables dicotómicas relacionadas tienen la misma media. Las variables medirán al mismo individuo o a individuos emparejados . Las variables en este caso se medirán en una escala nominal u ordinal. Analizamos la existencia de diferencias entre dos series de puntuaciones.
  • 94. PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … Friedman Diferencias entre muestras Ordinal Cochran Diferencias entre dos series de puntuaciones Nominal u ordinal K muestras relacionadas Kruskal-Wallis Ordinal Chi-cuadrado Diferencias entre muestras Nominal K muestras independientes Wilcoxon (muestras relacionadas) Mann-Whitney (muestras independientes) Diferencias entre muestras Ordinal Dos muestras Kolmogorov-Smirnov La forma de distribución una variable (bondad de ajuste) intervalo Una muestra PRUEBA NO PARAMÉTRICA TIPO DE CONTRASTE ESCALA DE MEDIDA MUESTRAS
  • 95. PRUEBAS PARA DOS MUESTRAS INDEPENDIENTES ¿Las medias de la VD son similares en los distintos valores de la VI? t-Student F del Anova t 2 = F VD Normal Homocedástica ¿Las medias de la VD son similares en los distintos valores de la VI? t o F de Welch VD Normal no Homocedástica ¿Los rangos de la VD se distribuyen de forma similar en los distintos valores de la VI? U de Mann-Whitney VD NO Normal Cuantitativa ¿Los rangos de la VD se distribuyen de forma similar en los distintos valores de la VI? U de Mann-Whitney Ordinal ¿La distribución de casos en las categorías de la VD cambia en función de los valores de la VI? χ 2 Chi-cuadrado Cualitativa VI cualitativa 2 muestras independientes Objetivos Pruebas Supuestos VD
  • 96. CALCULANDO EL TAMAÑO DEL EFECTO 0,01 0,06 0,14 R 2 = F/(F+gl) Eta o R cuadrado F del Anova (F de Snedecor) 0,20 0,50 0,80 d = 2t/  gl Diferencia de medias estandarizada t de Student 0,10 0,30 0,50 r φ 2 = φ 2 = χ 2 /N Coeficiente de Contingencia Chi-cuadrado Peq Medio Grande Fórmula Medida Prueba
  • 97. DATOS QUE DEBEMOS APORTAR EN UN INFORME Nota: si el contraste es a una cola hay que señalarlo indicando p (a una cola) = ... / Recordar que si el contraste es a una cola hay que dividir la p que me de entre 2 (en SPSS sale p=0,02 pongo p=0,01) Medias y desviaciones típicas de los distintos grupos F (gl1,gl2) = ... , p = ... , R 2 = ... F del Anova (F de Snedecor) Medias y desviaciones típicas de los distintos grupos t (gl) = ... , p = ... , d = ... t de Student Frecuencias o porcentajes de las categorías de una variable en función de las categorías de la otra χ 2 (gl,N = ...) = ... , p = ... , φ 2 = ... Chi-cuadrado Datos descriptivos Datos de la prueba Prueba
  • 98. DATOS QUE DEBEMOS APORTAR EN UN INFORME El contraste general entre los dos tratamientos continuo y pulsátil, es decir, el análisis de los índices de mejora, comparando ambos tratamientos, empleando la prueba t-Student para muestras independientes (implementando realmente la prueba de Welch al no existir igualdad de varianzas y ser heterocedásticas ambas distribuciones de datos), así como la prueba U de Mann-Whitney muestra que existe una diferencia estadísticamente significativa entre ambos tratamientos, siendo mejor la pulsátil ( p < 0.05 ). Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño, F Levene (1, 899) = 15,567 ( p = 0.000 ). El grupo tratado con corriente pulsátil (media 1,99 DT 0,60) obtuvo una disminución del dolor significativamente superior a la del grupo tratado con corriente continua (media 1,17 DT 0,37) t de Welch (648,831) = -23,674 p (a una cola) = 0.000 . Empleado para determinar el tamaño del efecto el programa effect size calculator (disponible en: http:// www . uccs . edu /~ faculty / lbecker / ) obteniendo d = 1,8588. Se trata de un valor de tamaño del efecto elevado, que refleja la importante diferencia existente a favor de la corriente pulsátil. Este valor también lo hemos obtenido al emplear la fórmula: d = 2t/√gl
  • 99.
  • 100.
  • 101. DATOS QUE DEBEMOS APORTAR EN UN INFORME Tras un procedimiento de muestreo no probabilístico a conveniencia, nuestra muestra está conformada por un total de 44 individuos, con una edad media de 39,6818 años con una desviación típica (DT en adelante) de 5,97581 y los valores mínimos y máximos son 23 y 49 años. Las edades se distribuyen de forma normal cuando no consideramos el grupo de tratamiento. Estadístico de Shapiro-Wilk = 0,955 ( p = 0,081 ). Si consideramos cada grupo por separado la variable edad también se distribuye normalmente. Estadístico de Shapiro-Wilk para el grupo control = 0,934 ( p = 0,147 ). Estadístico de Shapiro-Wilk para el grupo experimental = 0,967 ( p = 0,633 ). Como el número de sujetos incluidos en cada grupo fue de 22 (por tanto inferior de 30) empleamos tanto pruebas de carácter paramétrico como no paramétrico para determinar la presencia/ausencia de sesgos en la distribución de edades de los sujetos en nuestros dos grupos. Los dos grupos son homogéneos en relación a la edad de los sujetos (grupo control media 39.8636 años DT=5.97053, grupo experimental media 39,5 y DT = 6,11594). No existe una diferencia significativa entre la edad de los dos grupos. Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño, F Levene (1, 42) = 0,138 ( p = 0,712 ). El grupo control presenta una media de edad no significativamente superior a la del grupo experimental, con una t de Student (42) = 0,2 p (a una cola) = 0,843 . En el grupo control el rango promedio fue de 23,27 mientras que en el experimental fue 21,73 U de Mann-Whitney = 225 ( p = 0,689 ).
  • 102. DATOS QUE DEBEMOS APORTAR EN UN INFORME De los 44 pacientes estudiados en nuestro ensayo 14 son varones lo que representa un 31,8%, mientras que 30 son mujeres (68,2%). Estos datos se muestran de forma gráfica en la figura xx. En el grupo control, al igual que en el experimental hemos incluido un total de 7 hombres (31,8%) y 15 mujeres (68,2%). Hemos comprobado, empleando la prueba Chi-cuadrado, que no hay un sesgo en la distribución por sexos de nuestros pacientes en los dos grupos analizados. La proporción de mujeres y de hombres incluidos en el grupo control frente al grupo experimental son iguales X 2 (1,44) = 0,000, p = 1,000.
  • 103. INVESTIGACIONES EN SALUD Frenk,J. (Modificado por Toledo, G.) INVESTIGACION BIOMEDICA (Nivel subindividual) EN SISTEMAS DE SALUD INVESTIGACION EN SALUD PUBLICA (Nivel poblacional) INVESTIGACION CLINICA (Nivel individual) DESCRIPTIVAS EPIDEMIOLOGICA EN POLITICAS DE SALUD ORGANIZACION DE S. S. ( Nivel micro intraorganizacional) Estudios ecológicos EN SERVICOS DE SALUD POLITICA S DE SALUD ( Nivel macro o interorganizacional) E studios de mortalidad proporcional E studios de incidencia E studios de prevalencia ANALITICAS OBSERVACIONALES E ncuestas Transversales EXPERIMENTALES O DE INTERVENCION Estudios de Cohorte Estudios de Casos y controles ENSAYOS COMUNITARIOS ENSAYOS DE CAMPO ENSAYOS CLINICOS Clasificación de las investigaciones en Salud
  • 104. Estudio observacional Estudio experimental ¿dirección? Estudio analítico Estudio descriptivo Estudio de cohorte Estudio de casos y controles Estudio de corte tranversal Ensayo clínico controlado aleatorizado Ensayo controlado no aleatorizado ¿asignación aleatoria? ¿grupo de comparación? ¿el investigador manipuló la exposición? Si No Si No Si No exposición efecto exposición efecto exposicion = efecto
  • 105. Exposición Efecto Exposición Efecto Estudio de cohorte Estudio de caso-control Exposición Efecto Estudio de caso-control Tiempo Temporalidad de los estudios epidemiologicos
  • 106.  
  • 107.  
  • 108.  
  • 109.  
  • 110.  
  • 111.  
  • 112.  
  • 113.  

Editor's Notes

  1. nominal: etiqueta de un nº, pero no influye el nº,es sólo para diferenciarlo, por ejemplo: sexo, hombre=0 y mujer=1, es decir, son diferentes. Ordinal: + y -, es decir,son diferentes pero tb establezco un orden. Intervalo:diferentes; + y -; distancias; por ejemplo las calificaciones numéricas del alumnosabiendo ladiferencia numérica que existe entre cada puntuación; 10 Pepe, 9 Juan, 8,5 Sergio, 7 Pedro; un ejemplo de ordinal sería 1 Pepe, 2Juan, 3 Sergio y 4 Pedro, sólo me indica que son distintos y que además el 1 tiene &gt; nota que el 4 Razón: aquí el valor O indica que no existe Nota: si el cero indicara algún valor específico debemos utilizar la escala de intervalo porque en el de razón cero es “nada”
  2. Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  3. Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  4. Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  5. Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  6. Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  7. Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  8. Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  9. Por ejemplo si P 25 =40 55 sgnifica queel 25% del total tienen una edad &gt; o = a 55 años
  10. Trataremos la relación entre variables medidas en diferentes escalas de medida. El primer paso consiste en la recogida de información de dos variables en varios casos. Nuestro objetivo será tratar de averiguar si existe relación entre las dos variables , de qué tipo y si es posible predecir una de ellas a partir de la otra. Para valores de X por encima de la media tenemos valores de Y por encima y por debajo en proporciones similares. Incorrelación . Para los valores de X mayores que la media le corresponden valores de Y mayores también. Para los valores de X menores que la media le corresponden valores de Y menores también. Esto se llama relación directa . Para los valores de X mayores que la media le corresponden valores de Y menores. Esto es relación inversa o decreciente.
  11. Consiste en generalizar loque pasa en mi muestra a la población general; para ello debemos: Definir lamuestra Definir la población Definir como hemos cogido la muestra (debe ser probabilística)