BOOK
Bioestadística amigable + StudentConsult en español
Miguel Ángel Martínez González | Almudena Sánchez Villegas | Estefanía Toledo Atucha | Javier Faulin Fajardo
(2014)
Additional Information
Book Details
Abstract
La obra se presenta como un texto de Bioestadística enfocado de una forma eminentemente práctica, permitiendo así tanto a estudiantes de medicina como de otros grados de Ciencias de la Salud, conocer los principales métodos estadísticos aplicados al contexto biomédico. Igualmente, también ofrece una clara guía para poder interpretar adecuadamente los resultados obtenidos tras los diferentes estudios clínicos permitiéndoles formular las conclusiones pertinentes sobre las que basar sus posteriores estudios. A través de los diferentes capítulos se aborda tanto la bioestadística descriptiva como la bioestadística analítica o inferencial. La primera tiene como objetivo recoger, clasificar, resumir y presentar datos de la forma más adecuada posible. La bioestadística inferencial, supone un paso más ya que permite demostrar asociaciones o relaciones entre las diferentes características observadas en una muestra; es decir permite extraer conclusiones. La obra también permite al lector conocer el software utilizado actualmente para tratar los datos y obtener resultados, con lo que se presenta el STATA, programa principal hoy en día en detrimento del SAS o SPSS que es el que se venía utilizando hasta hace unos años. Por ello, uno de los valores diferenciales de la obra es que integra plenamente los contenidos teóricos con el software más divulgado. Se describen de forma pormenorizada todos los métodos estadísticos bivariantes, pero también se da una visión general de las principales técnicas multivariantes y del análisis de supervivencia. Es una tendencia totalmente demostrada que tanto revistas internacionales de prestigio como The Lancet, The New England Journal of Medicine o nacionales como Medicina Clínica, publican estudios clínicos de carácter multivariante. Otro elemento a destacar del texto es la gran abundancia de ejercicios y preguntas que se presentan a lo largo de los diferentes capítulos. Así, al final de cada uno de ellos, se ofrecen aprox. un total de 30 cuestiones y 10 problemas de aplicación directa de los principios teóricos explicados. Asimismo, en el mismo capítulo se dan las soluciones a cada una de las preguntas con su correspondiente razonamiento. De esa forma, el libro contiene aprox. más de 300 cuestiones y más de 100 ejercicios, todos ellos plantean situaciones relativas al contexto sanitario.
Texto muy práctico que facilita conocer los principales métodos estadísticos aplicados al contexto biomédico para poder interpretar adecuadamente los resultados obtenidos tras los diferentes estudios clínicos y formular conclusiones.
Aborda tanto la bioestadística descriptiva como la bioestadística analítica o inferencial y permite conocer el software utilizado actualmente para tratar los datos y obtener resultados, el STATA, programa que ha sustituido al SAS o SPSS.
Presenta detalladamente todos los métodos estadísticos bivariantes, pero también se da una visión general de las principales técnicas multivariantes y del análisis de supervivencia.
Ofrece una gran abundancia de ejercicios y preguntas que se presentan a lo largo de los diferentes capítulos, todos ellos relativos al contexto sanitario.
Table of Contents
Section Title | Page | Action | Price |
---|---|---|---|
Cubierta | Cubierta | ||
Portada | iii | ||
Página de créditos | iv | ||
Autores | v | ||
Presentación de la tercera edición | vii | ||
Índice de capítulos | ix | ||
1 - Introducción a los métodos de la epidemiología y la bioestadística | 1 | ||
1.1 - Estadística, estadística aplicada y bioestadística | 1 | ||
1.2 - Bioestadística descriptiva y bioestadística analítica o inferencial | 1 | ||
1.3 - Poblaciones y muestras | 2 | ||
1.4 - Etapas de la investigación científica: relaciones entre la bioestadística y la epidemiología | 2 | ||
Referencias | 9 | ||
2 - Procedimientos descriptivos | 13 | ||
2.1 - Tipos de variables | 13 | ||
2.1.1 - Variables y bases de datos | 13 | ||
2.1.2 - Variables cualitativas o categóricas nominales | 16 | ||
2.1.3 - Variables cualitativas ordinales | 17 | ||
2.1.4 - Variables cuantitativas | 17 | ||
2.2 - Transformación de una variable: categorización y recodificación | 17 | ||
2.2.1 - Transformar y recodificar con STATA | 18 | ||
2.2.2 - ¿Cómo recategorizar en SPSS para Windows? | 22 | ||
2.2.3 - Leer ficheros y recodificar variables con R/Splus | 24 | ||
2.3 - Consejos prácticos sobre categorización de variables cuantitativas | 26 | ||
2.3.1 - Consejos prácticos con STATA | 26 | ||
2.3.2 - Ejecución con SPSS | 28 | ||
2.3.3 - Ejecución con R/Splus | 29 | ||
2.4 - Representaciones gráficas | 29 | ||
2.4.1 - Gráfico de sectores | 29 | ||
2.4.2 - Diagrama de barras | 30 | ||
2.4.3 - Histogramas | 33 | ||
2.4.3.1 - Histograma con STATA | 35 | ||
2.4.3.2 - Histograma con SPSS | 36 | ||
2.4.3.3 - Histograma con R | 36 | ||
2.4.3.4 - Histograma con otros programas | 36 | ||
2.4.4 - Tallo y hojas (stem and leaf) | 36 | ||
2.4.5 - Polígono de frecuencias acumuladas | 36 | ||
2.4.6 - Gráfico de caja (box plot, box and whisker plot) | 38 | ||
2.4.6.1 - Cajas con STATA | 40 | ||
2.4.6.2 - Cajas con SPSS | 41 | ||
2.4.6.3 - Cajas con R | 41 | ||
2.4.7 - Gráficos de dispersión | 41 | ||
2.4.7.1 - Dispersión en STATA (twoway scatter) | 42 | ||
2.4.7.2 - Dispersión en SPSS | 43 | ||
2.4.7.3 - Dispersión en R | 43 | ||
2.5 - Medidas de tendencia central | 43 | ||
2.5.1 - Media aritmética | 43 | ||
2.5.2 - Media geométrica | 44 | ||
2.5.3 - Media armónica | 45 | ||
2.5.4 - Media ponderada | 45 | ||
2.5.5 - Mediana | 45 | ||
2.5.6 - Moda | 46 | ||
2.6 - Medidas de dispersión | 46 | ||
2.6.1 - Varianza | 46 | ||
2.6.2 - Desviación típica o desviación estándar | 48 | ||
2.6.3 - Coeficiente de variación | 49 | ||
2.6.4 - Error estándar de la media | 50 | ||
2.6.5 - Otras medidas de dispersión | 50 | ||
2.7 - Medidas de forma: asimetría y curtosis | 51 | ||
2.7.1 - Asimetría | 51 | ||
2.7.2 - Curtosis o apuntamiento | 51 | ||
2.8 - Medidas de posición: cuantiles, percentiles | 51 | ||
2.9 - Ponderación, medias ponderadas | 54 | ||
2.9.1 - Ponderación en STATA | 55 | ||
2.9.2 - Ponderación en SPSS | 55 | ||
2.9.3 - Ponderación en R | 55 | ||
2.10 - Valores extremos (outliers) y consejos sobre su uso | 56 | ||
2.11 - Preferencia de números | 56 | ||
2.12 - Índices estadísticos descriptivos con STATA | 57 | ||
2.13 - Procedimientos descriptivos con Excel | 58 | ||
2.14 - Procedimientos descriptivos con otros programas | 59 | ||
2.14.1 - Funciones descriptivas en R | 59 | ||
2.14.2 - Funciones descriptivas en SPSS | 60 | ||
2.15 - Datos truncados o censurados | 63 | ||
2.16 - Resumen de las instrucciones en STATA y SPSS | 63 | ||
Referencias | 64 | ||
3 - Probabilidad. Distribuciones de probabilidad | 65 | ||
3.1 - Introducción | 65 | ||
3.2 - Conceptos de probabilidad | 65 | ||
3.2.1 - Estimación teórica: ley de Laplace | 65 | ||
3.2.2 - Modo empírico de hallar la probabilidad | 66 | ||
3.3 - Axiomas y propiedades de la probabilidad | 66 | ||
3.3.1 - Primer axioma | 66 | ||
3.3.2 - Segundo axioma | 67 | ||
3.3.3 - Tercer axioma | 67 | ||
3.4 - Concepto de independencia | 69 | ||
3.5 - Probabilidad condicionada | 69 | ||
3.6 - Inversión de las condiciones: teorema de Bayes | 72 | ||
3.7 - Factor Bayes para relacionar la odds pretest con la odds postest | 74 | ||
3.8 - Planteamiento bayesiano, inferencia bayesiana | 75 | ||
3.9 - Distribuciones de probabilidad discretas | 77 | ||
3.9.1 - Distribución uniforme (discreta) | 77 | ||
3.9.2 - Distribución binomial | 78 | ||
3.9.3 - Distribución de Poisson | 79 | ||
3.10 - Distribuciones de probabilidad continuas: distribución normal | 80 | ||
3.11 - Teorema del límite central | 87 | ||
3.12 - Condiciones, pruebas y gráficos de normalidad | 88 | ||
3.13 - Las distribuciones binomial, de Poisson y normal en STATA | 93 | ||
3.13.1 - La distribución binomial en STATA | 93 | ||
3.13.2 - La distribución de Poisson en STATA | 94 | ||
3.13.3 - La distribución normal en STATA | 94 | ||
3.14 - Las distribuciones binomial, de Poisson y normal en el programa Excel | 95 | ||
3.14.1 - La distribución binomial en Excel | 95 | ||
3.14.2 - La distribución de Poisson en Excel | 95 | ||
3.14.3 - La distribución normal en Excel | 96 | ||
3.15 - Las distribuciones binomial, de Poisson y normal en otros programas | 97 | ||
3.15.1 - Las distribuciones binomial, de Poisson y normal en R/SPlus | 97 | ||
3.16 - Aproximación a las distribuciones binomial y de Poisson con la distribución normal | 98 | ||
3.17 - Media y desviación estándar de una proporción | 99 | ||
Referencias | 100 | ||
4 - Intervalos de confianza y contraste de hipótesis | 101 | ||
4.1 - Error sistemático y error aleatorio | 101 | ||
4.2 - Muestreo aleatorio o selección aleatoria | 102 | ||
4.2.1 - Muestra al azar con Excel | 104 | ||
4.2.2 - Muestra al azar con STATA | 106 | ||
4.2.3 - Muestra al azar con SPSS | 106 | ||
4.2.4 - Muestra al azar con R | 106 | ||
4.2.5 - Interpretación de las muestras obtenidas al azar | 106 | ||
4.2.6 - Juicio crítico sobre las muestras representativas | 107 | ||
4.3 - Diferencia entre selección aleatoria y asignación aleatoria (aleatorización) | 109 | ||
4.3.1 - Asignación aleatoria (aleatorización) con STATA | 109 | ||
4.3.2 - Asignación aleatoria (aleatorización) con R | 110 | ||
4.4 - Conceptos generales sobre estimación de parámetros | 111 | ||
4.5 - Estimación de una proporción | 112 | ||
4.5.1 - Supuestos que se deben verificar para calcular el intervalo de confianza de una proporción | 114 | ||
4.5.2 - Cálculo del intervalo de confianza de una proporción (usando la distribución normal) | 115 | ||
4.5.3 - Intervalos de confianza exactos de una proporción (binomial) con STATA | 115 | ||
4.5.4 - Intervalos de confianza exactos de una proporción (binomial) con R | 117 | ||
4.6 - Estimación de una media | 118 | ||
4.6.1 - Muestras muy grandes: intervalo de confianza de una media usando la distribución normal | 118 | ||
4.6.2 - Muestras pequeñas: intervalo de confianza de una media con la distribución T | 118 | ||
4.6.3 - Supuestos que se deben verificar al calcular el intervalo de confianza a una media | 120 | ||
4.7 - Intervalos de confianza con STATA | 120 | ||
4.8 - Intervalos de confianza con otros programas | 121 | ||
4.8.1 - Intervalos de confianza con R/Splus | 121 | ||
4.8.2 - Intervalos de confianza de una media con SPSS | 122 | ||
4.8.3 - Intervalos de confianza con Excel | 123 | ||
4.9 - La distribución T de Student en Excel, STATA y R/Splus | 124 | ||
4.9.1 - La distribución t en Excel | 124 | ||
4.9.2 - La distribución t en STATA | 124 | ||
4.9.3 - La distribución t en R/Splus | 126 | ||
4.10 - Estimación de una mediana | 126 | ||
4.11 - Intervalos de confianza bayesianos | 128 | ||
4.12 - Contraste de hipótesis | 130 | ||
4.13 - Hipótesis nula e hipótesis alternativa | 130 | ||
4.14 - Errores en el contraste de hipótesis: error tipo 1 y error tipo 2 | 134 | ||
4.15 - Interpretación de valores p: significación estadística | 136 | ||
4.16 - Significación estadística frente a significación práctica | 138 | ||
4.17 - Pruebas a una cola y pruebas a dos colas | 138 | ||
4.18 - Pruebas de contraste de hipótesis frente a intervalos de confianza | 140 | ||
4.19 - Potencia estadística | 141 | ||
4.20 - Estudios que demuestran equivalencia y estudios de no inferioridad | 142 | ||
4.21 - Pruebas paramétricas y no paramétricas | 143 | ||
4.22 - Resumen de las instrucciones en STATA, R, SPSS y Excel | 143 | ||
Referencias | 144 | ||
5 - Datos categóricos y porcentajes: comparación de proporciones | 147 | ||
5.1 - Test de χ2 de Pearson para dos proporciones | 147 | ||
5.2 - Test z para comparar dos proporciones | 149 | ||
5.3 - Intervalo de confianza de la diferencia de dos proporciones | 150 | ||
5.4 - Relación entre el intervalo de confianza y el valor p | 151 | ||
5.5 - Ji cuadrado para comparar una proporción con una referencia externa (esperada): cálculo y su relación con la distribu... | 152 | ||
5.6 - Test exacto de Fisher | 154 | ||
5.7 - Test de McNemar para datos emparejados | 158 | ||
5.8 - Test de tendencia lineal para categorías ordenables lógicamente (variables ordinales) | 161 | ||
5.9 - Odds ratio en tablas 2 × 2 | 162 | ||
5.10 - Error estándar e intervalo de confianza de la odds ratio | 163 | ||
5.11 - Otras medidas en tablas categóricas (tau de Kendall, gamma de Goodman y Kruskal) | 164 | ||
5.12 - Test para proporciones y tablas categóricas con STATA | 165 | ||
5.12.1 - Cálculo de la χ2 en STATA (caso de una sola variable) | 165 | ||
5.12.2 - Cálculo de la χ2 en STATA (caso de dos variables) | 165 | ||
5.12.3 - Cálculo del test exacto de Fisher en STATA | 166 | ||
5.12.4 - Cálculo del test de McNemar en STATA | 166 | ||
5.13 - Representación de intervalos de confianza para proporciones y odds ratio con STATA | 167 | ||
5.14 - Test para proporciones con otros programas | 169 | ||
5.14.1 - Cálculo de la χ2 en SPSS (caso de una sola variable) | 169 | ||
5.14.2 - Cálculo de la χ2 con SPSS; la comparación de dos proporciones | 169 | ||
5.14.3 - Cálculo de la χ2 con R/Splus | 170 | ||
5.14.4 - Programación en Excel de una calculadora para χ2 | 171 | ||
5.14.5 - Cálculo del test exacto de Fisher en SPSS | 171 | ||
5.14.6 - Cálculo del test de McNemar en SPSS | 172 | ||
5.15 - Resumen de las instrucciones en STATA y SPSS | 173 | ||
Referencias | 173 | ||
6 - Comparación de medias entre dos grupos | 175 | ||
6.1 - Test de la t de Student para dos muestras independientes | 175 | ||
6.2 - Test para comparar varianzas | 178 | ||
6.3 - Test t para dos medias independientes con varianzas heterogéneas (TEST DE WELCH) | 179 | ||
6.4 - Intervalo de confianza para la diferencia de medias | 181 | ||
6.5 - Transformación logarítmica de la variable dependiente en un test T | 182 | ||
6.6 - Test de la T de Student para comparar una media con un valor de referencia | 185 | ||
6.7 - Test de la U de Mann-Whitney | 187 | ||
6.7.1 - Test de Mann-Whitney con datos agrupados | 189 | ||
6.8 - Test de la T de Student para datos emparejados (muestras relacionadas) | 190 | ||
6.9 - Test de Wilcoxon para datos emparejados | 192 | ||
6.10 - Test para medias con STATA | 195 | ||
6.11 - Test para medias con otros programas | 197 | ||
6.11.1 - Test para medias con SPSS | 197 | ||
6.11.2 - Test para medias con R/Splus | 198 | ||
Referencias | 199 | ||
7 - Estimación del tamaño muestral | 201 | ||
7.1 - Introducción | 201 | ||
7.2 - Margen de error | 201 | ||
7.3 - Estimación de una proporción | 201 | ||
7.4 - Estimación de una media | 202 | ||
7.5 - Comparación de dos proporciones | 203 | ||
7.6 - Comparación de dos medias | 205 | ||
7.7 - Cálculo de la potencia estadística | 206 | ||
7.8 - Curvas de potencia | 206 | ||
7.9 - Uso de STATA para estimar el tamaño muestral y la potencia | 208 | ||
7.10 - Programación de Excel para tamaño muestral y potencia | 209 | ||
7.11 - Otros programas disponibles para el cálculo del tamaño muestral | 210 | ||
7.11.1 - Otros programas específicos de ensayos clínicos | 210 | ||
7.12 - Resumen de las fórmulas del tamaño muestral | 210 | ||
7.13 - Resumen de las instrucciones en STATA | 211 | ||
Referencias | 211 | ||
8 - Comparaciones de k medias (tres o más grupos) | 213 | ||
8.1 - Introducción al ANOVA de una vía | 213 | ||
8.2 - Relación entre el ANOVA y la t de Student | 215 | ||
8.3 - ANOVA de una vía con STATA | 216 | ||
8.4 - Requisitos del ANOVA | 217 | ||
8.5 - ANOVA de una vía con otros programas | 218 | ||
8.5.1 - ANOVA de una vía con SPSS | 218 | ||
8.5.2 - ANOVA de una vía con R/Splus | 220 | ||
8.5.3 - Programación de un ANOVA sencillo a partir de datos agregados en Excel | 220 | ||
8.6 - El ANOVA en manos de un lector sagaz de artículos científicos | 221 | ||
8.6.1 - Primer ejemplo | 221 | ||
8.6.2 - Segundo ejemplo | 222 | ||
8.6.3 - Tercer ejemplo | 222 | ||
8.7 - Test no paramétrico alternativo al ANOVA: Kruskal-Wallis | 224 | ||
8.7.1 - Kruskal-Wallis en STATA | 226 | ||
8.7.2 - Kruskal-Wallis en otros programas | 227 | ||
8.8 - Comparaciones múltiples: contrastes a priori | 228 | ||
8.9 - Contrastes a posteriori (post hoc): correcciones por comparaciones múltiples | 231 | ||
8.9.1 - Método post hoc de Bonferroni | 232 | ||
8.9.2 - Métodos post hoc de Scheffé, Dunnett, Tukey y Sidak | 232 | ||
8.9.3 - Contrastes a priori con STATA | 233 | ||
8.9.4 - Contrastes post hoc con STATA | 233 | ||
8.9.5 - Contrastes en el ANOVA en otros paquetes de estadística | 234 | ||
8.10 - Método de Benjamini-Hochberg basado en ordenar los valores p | 236 | ||
8.11 - Resumen de las instrucciones en STATA y SPSS | 238 | ||
Referencias | 238 | ||
9 - Anova factorial, modelos lineales generalizados y ancova | 241 | ||
9.1 - Introducción | 241 | ||
9.2 - ANOVA factorial (de dos vías o dos criterios) | 241 | ||
9.2.1 - Planteamiento e hipótesis en el ANOVA factorial | 241 | ||
9.2.2 - Interpretación de los test de interacción y precauciones en el análisis de subgrupos | 245 | ||
9.2.3 - Supuestos del modelo de ANOVA factorial | 247 | ||
9.3 - ANOVA con medidas repetidas (comparación de k medias relacionadas) | 247 | ||
9.4 - Equivalente no paramétrico del ANOVA con medidas repetidas: test de Friedman | 252 | ||
9.5 - Ajuste del ANOVA por variables continuas: ANCOVA | 254 | ||
9.6 - Comparaciones intragrupo e intergrupos con medidas repetidas | 254 | ||
9.7 - Análisis estadístico de ensayos cross-over | 259 | ||
9.8 - ANOVA factorial y ANCOVA: estimación de medias ajustadas en STATA | 262 | ||
9.8.1 - ANOVA factorial | 262 | ||
9.8.2 - ANCOVA: estimación de medias ajustadas | 263 | ||
9.9 - ANOVA factorial en SPSS | 265 | ||
9.10 - Test de Friedman con SPSS y con STATA | 266 | ||
9.10.1 - Test de Friedman con SPSS | 266 | ||
9.10.2 - Test de Friedman con STATA | 266 | ||
9.11 - Resumen de las instrucciones en STATA y SPSS | 267 | ||
Referencias | 268 | ||
10 - Correlación y regresión lineal simple | 269 | ||
10.1 - Introducción | 269 | ||
10.2 - Correlación | 269 | ||
10.2.1 - Coeficiente de correlación de Pearson | 269 | ||
10.2.2 - Condiciones de aplicación de la correlación | 274 | ||
10.2.3 - Coeficiente de correlación no paramétrico de Spearman3 (rho) | 274 | ||
10.2.4 - Errores de interpretación de la correlación | 275 | ||
10.2.5 - Test de hipótesis para la correlación | 277 | ||
10.2.6 - Intervalo de confianza para la correlación | 278 | ||
10.3 - Coeficiente de correlación con STATA | 279 | ||
10.3.1 - Coeficiente de correlación de Pearson, nivel de significación estadística y tamaño muestral | 279 | ||
10.3.2 - Coeficiente de correlación de Spearman, nivel de significación estadística y tamaño muestral | 280 | ||
10.4 - Coeficiente de correlación con otros programas | 281 | ||
10.4.1 - Coeficiente de correlación con Excel | 281 | ||
10.4.1.1 - Intervalo de confianza para la correlación con Excel | 282 | ||
10.4.2 - Coeficiente de correlación con SPSS | 283 | ||
10.4.3 - Coeficiente de correlación con R/Splus | 283 | ||
10.5 - Regresión lineal simple | 285 | ||
10.5.1 - ANOVA de la regresión | 287 | ||
10.5.2 - Coeficiente de determinación, R2 | 292 | ||
10.5.3 - Ajuste de una recta por mínimos cuadrados | 294 | ||
10.5.4 - Error estándar del coeficiente b de regresión (o pendiente) | 296 | ||
10.5.5 - Error estándar de la predicción e intervalo de confianza para la predicción media | 297 | ||
10.5.6 - Intervalos de predicción individuales | 298 | ||
10.6 - Usos e interpretación de una regresión lineal | 298 | ||
10.7 - Supuestos del modelo de regresión | 300 | ||
10.8 - Representación gráfica de los residuales en una regresión lineal | 301 | ||
10.9 - Construcción de un modelo de regresión lineal con STATA e instrucciones postestimación | 303 | ||
10.9.1 - Realizar un gráfico de dispersión | 303 | ||
10.9.2 - Ajustar el modelo de regresión lineal simple | 306 | ||
10.9.3 - Guardar valores predichos y residuales y sus correspondientes errores estándar | 309 | ||
10.9.4 - Comprobar la normalidad de los residuales del modelo | 309 | ||
10.9.5 - Representaciones gráficas | 311 | ||
10.10 - Regresión lineal con otros programas informáticos | 312 | ||
10.10.1 - Regresión lineal con SPSS | 312 | ||
10.10.2 - Regresión lineal con Excel | 314 | ||
10.10.3 - Regresión lineal con R/Splus | 315 | ||
10.11 - Relación entre regresión, ANOVA y t de Student | 316 | ||
10.12 - Uso de la regresión para sustituir al ANOVA factorial | 319 | ||
10.13 - Resumen de correlación y regresión lineal simple | 323 | ||
10.14 - Resumen de las instrucciones en STATA y SPSS | 324 | ||
Referencias | 325 | ||
Anchor 146 | 326 | ||
11 - Introducción al análisis de supervivencia | 327 | ||
11.1 - Introducción | 327 | ||
11.2 - Descripción de la supervivencia: método de Kaplan-Meier | 329 | ||
11.3 - Pasos para realizar curvas de supervivencia de Kaplan-Meier | 331 | ||
11.4 - Representación gráfica del estimador de Kaplan-Meier | 332 | ||
11.5 - Intervalos de confianza para la estimación de supervivencia acumulada | 334 | ||
11.6 - Análisis de supervivencia con STATA | 335 | ||
11.7 - Análisis de supervivencia con otros programas | 336 | ||
11.8 - Curvas de incidencia de Nelson-Aalen | 338 | ||
11.9 - Comparación de curvas de supervivencia: test del log-rank | 338 | ||
11.10 - Resumen de las instrucciones en STATA y SPSS | 341 | ||
Referencias | 342 | ||
12 - Introducción a los modelos multivariables. Regresión lineal múltiple | 343 | ||
12.1 - Introducción | 343 | ||
12.2 - Primera aproximación al modelo de regresión lineal múltiple | 345 | ||
12.3 - Primera aproximación al modelo de regresión logística | 347 | ||
12.3.1 - La odds ratio | 348 | ||
12.4 - Primera aproximación al modelo de regresión de Cox | 349 | ||
12.4.1 - Hazard ratio | 350 | ||
12.5 - Aspectos comunes y diferenciales de los modelos lineal, logístico y de Cox | 352 | ||
12.6 - Regresión de Poisson | 353 | ||
12.7 - Otros métodos multivariantes | 356 | ||
12.7.1 - MANOVA | 356 | ||
12.7.2 - Análisis factorial | 357 | ||
12.7.3 - Análisis de conglomerados o de clúster | 357 | ||
12.8 - Hipótesis nulas en una regresión múltiple | 357 | ||
12.9 - Interpretación condicional de los valores p | 359 | ||
12.10 - Intervalos de confianza en la regresión múltiple | 359 | ||
12.11 - Coeficiente de determinación R2 y su versión ajustada | 360 | ||
12.12 - Condiciones de aplicación del modelo de regresión múltiple. Análisis de residuales y verificación de supuestos | 361 | ||
12.13 - Tolerancia, factor de inflación de varianza y multicolinealidad | 364 | ||
12.14 - Variables que deben registrarse en una investigación | 366 | ||
12.15 - Variables categóricas y variables indicadoras (dummy) | 367 | ||
12.16 - Factores de confusión en la regresión múltiple | 369 | ||
12.16.1 - Definición de factor de confusión | 369 | ||
12.16.2 - No se deben usar valores p ni procedimientos stepwise para valorar la confusión | 370 | ||
12.16.3 - Cambio en la magnitud del coeficiente como criterio de confusión | 370 | ||
12.17 - Interacción (o modificación del efecto) en la regresión múltiple | 373 | ||
12.18 - Relaciones no lineales, modelos polinómicos | 377 | ||
12.19 - Construcción de un modelo de regresión múltiple | 380 | ||
12.19.1 - Realización de gráficos de dispersión | 381 | ||
12.19.2 - Hacer un atento examen de la matriz de correlaciones | 381 | ||
12.19.3 - Realizar regresiones univariantes de cada variable independiente con la dependiente | 381 | ||
12.19.4 - Uso de regresiones no paramétricas (LOESS) | 382 | ||
12.19.5 - Selección de variables candidatas para el modelo multivariante | 383 | ||
12.19.6 - Valorar la contribución de cada variable incluida en el modelo: R2 ajustado | 384 | ||
12.19.7 - Valorar la colinealidad | 384 | ||
12.19.8 - Valorar relaciones dosis-respuesta que se aparten del modelo lineal | 384 | ||
12.19.9 - Inclusión de términos de interacción entre variables | 384 | ||
12.19.10 - Comprobar los residuales del modelo | 385 | ||
12.20 - Elección del mejor modelo | 386 | ||
12.21 - Los métodos automáticos por pasos (stepwise) casi nunca están indicados | 386 | ||
12.22 - Regresión lineal múltiple en otros programas distintos de STATA | 386 | ||
12.22.1 - SPSS | 386 | ||
12.22.1.1 - Regresión lineal | 387 | ||
12.22.1.2 - Modelos lineales generalizados | 389 | ||
12.23 - Resumen de las instrucciones en STATA y SPSS | 390 | ||
Referencias | 393 | ||
13 - Regresión logística | 397 | ||
13.1 - Introducción | 397 | ||
13.1.1 - Función logística | 397 | ||
13.1.2 - Transformación LOGIT | 398 | ||
13.2 - Conceptos de odds, odds ratio y riesgo relativo | 398 | ||
13.3 - Ejemplo ridículamente sencillo de regresión logística binaria univariante: interpretación | 402 | ||
13.3.1 - Cálculo de una OR (manual) | 402 | ||
13.3.2 - Ecuación logística: interpretación | 403 | ||
13.3.3 - Estimaciones con STATA | 403 | ||
13.3.4 - Obtención de odds, probabilidades (riesgos absolutos) y riesgo relativo | 405 | ||
13.4 - Regresión logística binaria con variable independiente cuantitativa: interpretación | 406 | ||
13.5 - Regresión logística binaria con una variable independiente con > 2 categorías: interpretación | 409 | ||
13.6 - Regresión logística con múltiples variables independientes | 412 | ||
13.7 - Control de la confusión en regresión logística. La confusión no tiene nada que ver con valores p | 412 | ||
13.8 - Identificación de la interacción en regresión logística: test de razón de verosimilitud | 415 | ||
13.9 - Supuesto de linealidad en el logit y uso de términos polinómicos | 416 | ||
13.9.1 - Linealidad en el logit | 416 | ||
13.9.2 - Comprobación de la linealidad en el logit con STATA. Test de tendencia lineal | 418 | ||
13.9.3 - Uso de términos polinómicos | 419 | ||
13.10 - Ajuste de un modelo multivariable de regresión logística | 419 | ||
13.11 - Significación estadística en la regresión logística | 422 | ||
13.11.1 - Prueba de la razón de verosimilitud | 422 | ||
13.11.2 - Test de Wald | 423 | ||
13.11.3 - Intervalo de confianza de la odds ratio | 423 | ||
13.12 - Test de Hosmer-Lemeshow: bondad de ajuste o calibración | 424 | ||
13.13 - Curvas ROC: discriminación | 427 | ||
13.14 - Criterios de construcción de modelos en regresión logística | 428 | ||
13.14.1 - Construcción de gráficas dirigidas (DAG, Directed Acyclic Graphs) | 428 | ||
13.14.2 - Análisis estratificado | 429 | ||
13.14.3 - Regresión logística univariante | 430 | ||
13.14.4 - Regresión logística multivariante | 430 | ||
13.14.5 - Valorar posibles interacciones | 430 | ||
13.14.6 - Comprobar la bondad de ajuste | 430 | ||
13.14.7 - Construcción de una curva ROC en modelos predictivos | 430 | ||
13.15 - Regresión logística condicional | 430 | ||
13.16 - Regresión logística en SPSS | 432 | ||
13.17 - Resumen de las instrucciones en STATA y SPSS | 434 | ||
Referencias | 435 | ||
14 - Aspectos avanzados de regresión de Cox | 437 | ||
14.1 - Introducción: contexto y utilidad | 437 | ||
14.2 - Conceptos de hazard y hazard ratio | 437 | ||
14.3 - Ejemplo ridículamente sencillo de regresión de Cox univariante | 438 | ||
14.4 - La ecuación de la regresión de Cox | 439 | ||
14.5 - Interpretación de los coeficientes de la regresión de Cox univariante | 440 | ||
14.6 - Comparación de curvas de supervivencia con la regresión de Cox | 441 | ||
14.7 - Regresión de Cox con variable independiente cuantitativa | 441 | ||
14.8 - Interpretación de los coeficientes de variables independientes cuantitativas | 443 | ||
14.9 - Regresión de Cox con una variable independiente con >2 categorías | 443 | ||
14.10 - Interpretación de coeficientes de variables dummy | 443 | ||
14.11 - Regresión de Cox con múltiples variables independientes | 443 | ||
14.12 - Control de la confusión en la regresión de Cox | 444 | ||
14.13 - Intervalos de confianza para la hazard ratio en el modelo de regresión de Cox | 445 | ||
14.14 - Interacción (modificación del efecto) en regresión de Cox y test de razón de verosimilitud | 446 | ||
14.15 - Interpretación del riesgo basal (baseline hazard) | 446 | ||
14.16 - Regresión de Cox estratificada | 446 | ||
14.17 - Tiempo de seguimiento en la regresión de Cox | 448 | ||
14.18 - Regresión de Cox con covariables dependientes del tiempo | 449 | ||
14.19 - Modelos de tiempos de fallo acelerados | 449 | ||
14.20 - Relación entre hazard ratio y razón de densidades de incidencia | 450 | ||
14.21 - Similitudes y diferencias entre regresión de Cox y regresión logística | 450 | ||
14.22 - Posibilidades y opciones de la regresión de Cox con STATA | 451 | ||
14.23 - Resumen de las instrucciones en STATA, SPSS y R | 453 | ||
Referencias | 454 | ||
15 - Análisis de concordancia, validez y pronóstico | 455 | ||
15.1 - Conceptos y definiciones | 455 | ||
15.1.1 - Validez | 455 | ||
15.1.2 - Fiabilidad (reproducibilidad) | 455 | ||
15.1.3 - Precisión | 455 | ||
15.2 - Consideraciones generales sobre estudios de validación de pruebas diagnósticas | 455 | ||
15.3 - Consistencia interna en escalas cuantitativas: alfa de Cronbach | 457 | ||
15.4 - Reproducibilidad: índice kappa de concordancia en variables cualitativas | 459 | ||
15.4.1 - Porcentaje de acuerdo simple | 459 | ||
15.4.2 - Índice kappa de concordancia | 460 | ||
15.5 - Coeficiente de correlación intraclase: concordancia en variables cuantitativas | 461 | ||
15.6 - Gráficos de Bland-Altman para acuerdo en variables cuantitativas | 464 | ||
15.7 - Coeficiente de correlación de concordancia de Lin | 465 | ||
15.8 - Regresión de Passing-Bablok y regresión de Deming | 466 | ||
15.9 - Gráficos de acuerdo-supervivencia | 467 | ||
15.10 - Validez diagnóstica: sensibilidad, especificidad, valores predictivos, razones de verosimilitud | 468 | ||
15.10.1 - Sensibilidad y especificidad | 468 | ||
15.10.2 - Validez externa de las pruebas diagnósticas: valores predictivos | 470 | ||
15.10.3 - Razón de verosimilitudes (RV) | 473 | ||
15.11 - Discriminación diagnóstica y pronóstica: curvas ROC | 475 | ||
15.12 - Comparación de curvas ROC | 478 | ||
15.13 - Índice C de Harrell para predicciones en análisis de supervivencia | 478 | ||
15.14 - Índice neto de reclasificación, capacidad de estratificación y otros índices de discriminación | 481 | ||
15.15 - Resumen de las instrucciones en STATA y SPSS | 484 | ||
Referencias | 484 | ||
16 - Análisis factorial | 487 | ||
16.1 - Introducción al análisis factorial | 487 | ||
16.1.1 - Características y objetivos del análisis factorial | 487 | ||
16.1.2 - Estandarización y obtención de valores z | 488 | ||
16.1.3 - Extracción de factores | 489 | ||
16.1.4 - Construcción de los factores (coeficientes o pesos de cada factor o componente) | 493 | ||
16.2 - Número de factores para extraer | 495 | ||
16.2.1 - Autovalores superiores a 1 o criterio de Kaiser | 495 | ||
16.2.2 - Porcentaje de varianza extraída | 495 | ||
16.2.3 - Test de la pendiente de Cattell o gráfico de sedimentación (scree plot) | 495 | ||
16.3 - Cálculos numéricos | 497 | ||
16.3.1 - Cálculo del valor de una variable a través de los factores extraídos | 497 | ||
16.3.2 - Correlación entre dos variables (r) | 498 | ||
16.3.3 - Colectividad de una variable (c) | 498 | ||
16.3.4 - Autovalor de un factor (l) | 498 | ||
16.4 - Sinonimias y equivalencias | 499 | ||
16.5 - Condiciones de aplicación del análisis factorial de componentes principales (AFCP) | 499 | ||
16.5.1 - Coeficientes de correlación entre variables (r) inferiores a 0,30 | 499 | ||
16.5.2 - Coeficientes de correlación entre variables (r) superiores a 0,80 | 499 | ||
16.5.3 - Test de esferidad de Bartlett | 500 | ||
16.5.4 - Coeficientes de correlación parcial entre variables elevados | 500 | ||
16.5.5 - Medidas individuales de adecuación y medida de adecuación de la muestra de Kaiser-Meyer-Olkin | 500 | ||
16.6 - Consideraciones sobre el tamaño muestral | 502 | ||
16.7 - Rotación de los factores | 502 | ||
16.7.1 - Rotación ortogonal | 502 | ||
16.7.2 - Rotación oblicua | 503 | ||
16.8 - Refinamiento del análisis: eliminación de variables | 504 | ||
16.8.1 - Evaluación de la correlación variable-factor (aij) | 504 | ||
16.8.1.1 - Variables con bajos coeficientes de correlación con todos los factores | 504 | ||
16.8.1.2 - Variables con altos coeficientes de correlación con múltiples factores | 505 | ||
16.8.1.3 - Variables importantes en el análisis con baja correlación con el factor o los factores | 505 | ||
16.8.2 - Interpretación de los factores | 505 | ||
16.9 - Análisis factorial común frente a análisis factorial de componentes principales | 505 | ||
16.10 - Análisis factorial confirmatorio frente al exploratorio | 507 | ||
16.11 - Diferente aproximación en STATA para realizar un análisis factorial de componentes principales | 507 | ||
16.12 - Análisis factorial de componentes principales con SPSS | 508 | ||
16.13 - Resumen de las instrucciones en STATA y SPSS | 510 | ||
Referencias | 511 | ||
17 - Análisis de clústeres o conglomerados | 513 | ||
17.1 - Introducción y concepto | 513 | ||
17.2 - Tipos de análisis de clúster | 513 | ||
17.2.1 - Clúster de K medias y clúster de K medianas | 514 | ||
17.2.2 - Clúster jerárquico | 514 | ||
17.3 - Método para la formación de conglomerados | 514 | ||
17.3.1 - Determinar las medidas de similitud o disimilaridad (distancia entre observaciones) | 514 | ||
17.3.2 - Elegir el método de unión de conglomerados | 516 | ||
17.3.2.1 - En el análisis de clúster jerárquico | 516 | ||
17.3.2.2 - En el análisis de clúster de K medias o K medianas | 519 | ||
17.4 - Gráficos del análisis de clúster: dendrogramas | 520 | ||
17.5 - Estandarización y transformación de variables | 521 | ||
17.6 - Requisitos para la aplicación de los métodos de análisis de clúster | 523 | ||
17.7 - Clústeres de variables | 523 | ||
17.8 - Ejemplo de análisis de clúster con STATA | 523 | ||
17.8.1 - A través de instrucciones | 523 | ||
17.8.2 - A través del menú | 526 | ||
17.9 - Análisis de clúster con SPSS | 529 | ||
17.9.1 - Conglomerado de K medias | 529 | ||
17.9.2 - Conglomerados jerárquicos | 530 | ||
17.10 - Resumen de las instrucciones en STATA y SPSS | 531 | ||
Referencias | 531 | ||
18 - Métodos estadísticos en metaanálisis | 533 | ||
18.1 - Revisiones sistemáticas y metaanálisis | 533 | ||
18.2 - Tareas previas al análisis estadístico | 533 | ||
18.3 - Escala aditiva o multiplicativa | 533 | ||
18.4 - Efectos estandarizados: d de Cohen | 533 | ||
18.5 - Método del inverso de la varianza: efectos fijos | 534 | ||
18.5.1 - Combinar la estimación de proporciones | 534 | ||
18.5.2 - Diferencias de proporciones, estimaciones de medias o diferencias de medias | 536 | ||
18.5.3 - Combinación de medidas relativas (odds ratios, razones de riesgos, hazard ratios) | 537 | ||
18.6 - Gráficos de bosque (forest plot) | 538 | ||
18.7 - Test de heterogeneidad: estadístico Q | 540 | ||
18.8 - Tau cuadrado: varianza entre estudios | 541 | ||
18.9 - Índice I cuadrado | 541 | ||
18.10 - Gráfico de L’Abbé para heterogeneidad | 543 | ||
18.11 - Metaanálisis de efectos aleatorios: método de DerSimonian-Laird | 544 | ||
18.12 - Análisis de subgrupos | 545 | ||
18.13 - Metarregresión | 545 | ||
18.14 - Sesgo de publicación: gráfico de embudo (funnel plot) | 545 | ||
18.15 - Sesgo de publicación: test de Egger | 547 | ||
18.16 - Sesgo de publicación: métodos de MacAskill y de Peters | 547 | ||
18.17 - Sesgo de publicación: otros métodos | 548 | ||
18.18 - Metaanálisis acumulado | 549 | ||
18.19 - Uso de STATA para el metaanálisis | 549 | ||
Referencias | 550 | ||
19 - Otros métodos bioestadísticos | 553 | ||
19.1 - Métodos de remuestreo: bootstrap, jackknife | 553 | ||
19.1.1 - Bootstrap | 553 | ||
19.1.1.1 - Bootstrap con STATA | 554 | ||
19.1.2 - Jackknife | 554 | ||
19.2 - Método de captura-recaptura para indagar el tamaño de una población | 555 | ||
19.3 - Análisis de decisiones | 557 | ||
19.3.1 - Definir el problema | 557 | ||
19.3.2 - Definir los objetivos | 557 | ||
19.3.3 - Estructurar el problema | 558 | ||
19.3.4 - Incluir probabilidades | 559 | ||
19.3.5 - Análisis de decisión: estimación de los desenlaces | 559 | ||
19.3.6 - Interpretación del análisis de la decisión | 560 | ||
19.4 - Modelos flexibles de regresión con intervalos de confianza (splines) | 561 | ||
19.5 - Valores perdidos (missing) y métodos de imputación | 565 | ||
19.5.1 - Exploración de valores perdidos en STATA | 566 | ||
19.5.2 - Imputación simple | 567 | ||
19.5.3 - Imputación múltiple | 568 | ||
19.6 - Ponderación por el inverso de la varianza y modelos estructurales marginales | 570 | ||
19.7 - Índices de propensión (propensity scores) | 575 | ||
19.8 - Ecuaciones de estimación generalizadas (generalized estimating equations, GEE) | 576 | ||
Referencias | 578 | ||
Tablas estadísticas | 581 | ||
Índice alfabético | 589 |