Menu Expand
Bioestadística amigable + StudentConsult en español

Bioestadística amigable + StudentConsult en español

Miguel Ángel Martínez González | Almudena Sánchez Villegas | Estefanía Toledo Atucha | Javier Faulin Fajardo

(2014)

Additional Information

Book Details

Abstract

La obra se presenta como un texto de Bioestadística enfocado de una forma eminentemente práctica, permitiendo así tanto a estudiantes de medicina como de otros grados de Ciencias de la Salud, conocer los principales métodos estadísticos aplicados al contexto biomédico. Igualmente, también ofrece una clara guía para poder interpretar adecuadamente los resultados obtenidos tras los diferentes estudios clínicos permitiéndoles formular las conclusiones pertinentes sobre las que basar sus posteriores estudios. A través de los diferentes capítulos se aborda tanto la bioestadística descriptiva como la bioestadística analítica o inferencial. La primera tiene como objetivo recoger, clasificar, resumir y presentar datos de la forma más adecuada posible. La bioestadística inferencial, supone un paso más ya que permite demostrar asociaciones o relaciones entre las diferentes características observadas en una muestra; es decir permite extraer conclusiones. La obra también permite al lector conocer el software utilizado actualmente para tratar los datos y obtener resultados, con lo que se presenta el STATA, programa principal hoy en día en detrimento del SAS o SPSS que es el que se venía utilizando hasta hace unos años. Por ello, uno de los valores diferenciales de la obra es que integra plenamente los contenidos teóricos con el software más divulgado. Se describen de forma pormenorizada todos los métodos estadísticos bivariantes, pero también se da una visión general de las principales técnicas multivariantes  y del análisis de supervivencia. Es una tendencia totalmente demostrada que tanto revistas internacionales de prestigio como The Lancet, The New England Journal of Medicine o nacionales como Medicina Clínica, publican estudios clínicos de carácter multivariante. Otro elemento a destacar del texto es la gran abundancia de ejercicios y preguntas que se presentan a lo largo de los diferentes capítulos. Así, al final de cada uno de ellos, se ofrecen aprox. un total de 30 cuestiones y 10 problemas de aplicación directa de los principios teóricos explicados. Asimismo, en el mismo capítulo se dan las soluciones a cada una de las preguntas con su correspondiente razonamiento. De esa forma, el libro contiene aprox. más de 300 cuestiones y más de 100 ejercicios, todos ellos plantean situaciones relativas al contexto sanitario.

Texto muy práctico que facilita conocer los principales métodos estadísticos aplicados al contexto biomédico para poder interpretar adecuadamente los resultados obtenidos tras los diferentes estudios clínicos y formular conclusiones.

Aborda tanto la bioestadística descriptiva como la bioestadística analítica o inferencial y permite conocer el software utilizado actualmente para tratar los datos y obtener resultados, el STATA, programa que ha sustituido al SAS o SPSS.

Presenta detalladamente todos los métodos estadísticos bivariantes, pero también se da una visión general de las principales técnicas multivariantes y del análisis de supervivencia.

Ofrece una gran abundancia de ejercicios y preguntas que se presentan a lo largo de los diferentes capítulos, todos ellos relativos al contexto sanitario.


Table of Contents

Section Title Page Action Price
Cubierta Cubierta
Portada iii
Página de créditos iv
Autores v
Presentación de la tercera edición vii
Índice de capítulos ix
1 - Introducción a los métodos de la epidemiología y la bioestadística 1
1.1 - Estadística, estadística aplicada y bioestadística 1
1.2 - Bioestadística descriptiva y bioestadística analítica o inferencial 1
1.3 - Poblaciones y muestras 2
1.4 - Etapas de la investigación científica: relaciones entre la bioestadística y la epidemiología 2
Referencias 9
2 - Procedimientos descriptivos 13
2.1 - Tipos de variables 13
2.1.1 - Variables y bases de datos 13
2.1.2 - Variables cualitativas o categóricas nominales 16
2.1.3 - Variables cualitativas ordinales 17
2.1.4 - Variables cuantitativas 17
2.2 - Transformación de una variable: categorización y recodificación 17
2.2.1 - Transformar y recodificar con STATA 18
2.2.2 - ¿Cómo recategorizar en SPSS para Windows? 22
2.2.3 - Leer ficheros y recodificar variables con R/Splus 24
2.3 - Consejos prácticos sobre categorización de variables cuantitativas 26
2.3.1 - Consejos prácticos con STATA 26
2.3.2 - Ejecución con SPSS 28
2.3.3 - Ejecución con R/Splus 29
2.4 - Representaciones gráficas 29
2.4.1 - Gráfico de sectores 29
2.4.2 - Diagrama de barras 30
2.4.3 - Histogramas 33
2.4.3.1 - Histograma con STATA 35
2.4.3.2 - Histograma con SPSS 36
2.4.3.3 - Histograma con R 36
2.4.3.4 - Histograma con otros programas 36
2.4.4 - Tallo y hojas (stem and leaf) 36
2.4.5 - Polígono de frecuencias acumuladas 36
2.4.6 - Gráfico de caja (box plot, box and whisker plot) 38
2.4.6.1 - Cajas con STATA 40
2.4.6.2 - Cajas con SPSS 41
2.4.6.3 - Cajas con R 41
2.4.7 - Gráficos de dispersión 41
2.4.7.1 - Dispersión en STATA (twoway scatter) 42
2.4.7.2 - Dispersión en SPSS 43
2.4.7.3 - Dispersión en R 43
2.5 - Medidas de tendencia central 43
2.5.1 - Media aritmética 43
2.5.2 - Media geométrica 44
2.5.3 - Media armónica 45
2.5.4 - Media ponderada 45
2.5.5 - Mediana 45
2.5.6 - Moda 46
2.6 - Medidas de dispersión 46
2.6.1 - Varianza 46
2.6.2 - Desviación típica o desviación estándar 48
2.6.3 - Coeficiente de variación 49
2.6.4 - Error estándar de la media 50
2.6.5 - Otras medidas de dispersión 50
2.7 - Medidas de forma: asimetría y curtosis 51
2.7.1 - Asimetría 51
2.7.2 - Curtosis o apuntamiento 51
2.8 - Medidas de posición: cuantiles, percentiles 51
2.9 - Ponderación, medias ponderadas 54
2.9.1 - Ponderación en STATA 55
2.9.2 - Ponderación en SPSS 55
2.9.3 - Ponderación en R 55
2.10 - Valores extremos (outliers) y consejos sobre su uso 56
2.11 - Preferencia de números 56
2.12 - Índices estadísticos descriptivos con STATA 57
2.13 - Procedimientos descriptivos con Excel 58
2.14 - Procedimientos descriptivos con otros programas 59
2.14.1 - Funciones descriptivas en R 59
2.14.2 - Funciones descriptivas en SPSS 60
2.15 - Datos truncados o censurados 63
2.16 - Resumen de las instrucciones en STATA y SPSS 63
Referencias 64
3 - Probabilidad. Distribuciones de probabilidad 65
3.1 - Introducción 65
3.2 - Conceptos de probabilidad 65
3.2.1 - Estimación teórica: ley de Laplace 65
3.2.2 - Modo empírico de hallar la probabilidad 66
3.3 - Axiomas y propiedades de la probabilidad 66
3.3.1 - Primer axioma 66
3.3.2 - Segundo axioma 67
3.3.3 - Tercer axioma 67
3.4 - Concepto de independencia 69
3.5 - Probabilidad condicionada 69
3.6 - Inversión de las condiciones: teorema de Bayes 72
3.7 - Factor Bayes para relacionar la odds pretest con la odds postest 74
3.8 - Planteamiento bayesiano, inferencia bayesiana 75
3.9 - Distribuciones de probabilidad discretas 77
3.9.1 - Distribución uniforme (discreta) 77
3.9.2 - Distribución binomial 78
3.9.3 - Distribución de Poisson 79
3.10 - Distribuciones de probabilidad continuas: distribución normal 80
3.11 - Teorema del límite central 87
3.12 - Condiciones, pruebas y gráficos de normalidad 88
3.13 - Las distribuciones binomial, de Poisson y normal en STATA 93
3.13.1 - La distribución binomial en STATA 93
3.13.2 - La distribución de Poisson en STATA 94
3.13.3 - La distribución normal en STATA 94
3.14 - Las distribuciones binomial, de Poisson y normal en el programa Excel 95
3.14.1 - La distribución binomial en Excel 95
3.14.2 - La distribución de Poisson en Excel 95
3.14.3 - La distribución normal en Excel 96
3.15 - Las distribuciones binomial, de Poisson y normal en otros programas 97
3.15.1 - Las distribuciones binomial, de Poisson y normal en R/SPlus 97
3.16 - Aproximación a las distribuciones binomial y de Poisson con la distribución normal 98
3.17 - Media y desviación estándar de una proporción 99
Referencias 100
4 - Intervalos de confianza y contraste de hipótesis 101
4.1 - Error sistemático y error aleatorio 101
4.2 - Muestreo aleatorio o selección aleatoria 102
4.2.1 - Muestra al azar con Excel 104
4.2.2 - Muestra al azar con STATA 106
4.2.3 - Muestra al azar con SPSS 106
4.2.4 - Muestra al azar con R 106
4.2.5 - Interpretación de las muestras obtenidas al azar 106
4.2.6 - Juicio crítico sobre las muestras representativas 107
4.3 - Diferencia entre selección aleatoria y asignación aleatoria (aleatorización) 109
4.3.1 - Asignación aleatoria (aleatorización) con STATA 109
4.3.2 - Asignación aleatoria (aleatorización) con R 110
4.4 - Conceptos generales sobre estimación de parámetros 111
4.5 - Estimación de una proporción 112
4.5.1 - Supuestos que se deben verificar para calcular el intervalo de confianza de una proporción 114
4.5.2 - Cálculo del intervalo de confianza de una proporción (usando la distribución normal) 115
4.5.3 - Intervalos de confianza exactos de una proporción (binomial) con STATA 115
4.5.4 - Intervalos de confianza exactos de una proporción (binomial) con R 117
4.6 - Estimación de una media 118
4.6.1 - Muestras muy grandes: intervalo de confianza de una media usando la distribución normal 118
4.6.2 - Muestras pequeñas: intervalo de confianza de una media con la distribución T 118
4.6.3 - Supuestos que se deben verificar al calcular el intervalo de confianza a una media 120
4.7 - Intervalos de confianza con STATA 120
4.8 - Intervalos de confianza con otros programas 121
4.8.1 - Intervalos de confianza con R/Splus 121
4.8.2 - Intervalos de confianza de una media con SPSS 122
4.8.3 - Intervalos de confianza con Excel 123
4.9 - La distribución T de Student en Excel, STATA y R/Splus 124
4.9.1 - La distribución t en Excel 124
4.9.2 - La distribución t en STATA 124
4.9.3 - La distribución t en R/Splus 126
4.10 - Estimación de una mediana 126
4.11 - Intervalos de confianza bayesianos 128
4.12 - Contraste de hipótesis 130
4.13 - Hipótesis nula e hipótesis alternativa 130
4.14 - Errores en el contraste de hipótesis: error tipo 1 y error tipo 2 134
4.15 - Interpretación de valores p: significación estadística 136
4.16 - Significación estadística frente a significación práctica 138
4.17 - Pruebas a una cola y pruebas a dos colas 138
4.18 - Pruebas de contraste de hipótesis frente a intervalos de confianza 140
4.19 - Potencia estadística 141
4.20 - Estudios que demuestran equivalencia y estudios de no inferioridad 142
4.21 - Pruebas paramétricas y no paramétricas 143
4.22 - Resumen de las instrucciones en STATA, R, SPSS y Excel 143
Referencias 144
5 - Datos categóricos y porcentajes: comparación de proporciones 147
5.1 - Test de χ2 de Pearson para dos proporciones 147
5.2 - Test z para comparar dos proporciones 149
5.3 - Intervalo de confianza de la diferencia de dos proporciones 150
5.4 - Relación entre el intervalo de confianza y el valor p 151
5.5 - Ji cuadrado para comparar una proporción con una referencia externa (esperada): cálculo y su relación con la distribu... 152
5.6 - Test exacto de Fisher 154
5.7 - Test de McNemar para datos emparejados 158
5.8 - Test de tendencia lineal para categorías ordenables lógicamente (variables ordinales) 161
5.9 - Odds ratio en tablas 2 × 2 162
5.10 - Error estándar e intervalo de confianza de la odds ratio 163
5.11 - Otras medidas en tablas categóricas (tau de Kendall, gamma de Goodman y Kruskal) 164
5.12 - Test para proporciones y tablas categóricas con STATA 165
5.12.1 - Cálculo de la χ2 en STATA (caso de una sola variable) 165
5.12.2 - Cálculo de la χ2 en STATA (caso de dos variables) 165
5.12.3 - Cálculo del test exacto de Fisher en STATA 166
5.12.4 - Cálculo del test de McNemar en STATA 166
5.13 - Representación de intervalos de confianza para proporciones y odds ratio con STATA 167
5.14 - Test para proporciones con otros programas 169
5.14.1 - Cálculo de la χ2 en SPSS (caso de una sola variable) 169
5.14.2 - Cálculo de la χ2 con SPSS; la comparación de dos proporciones 169
5.14.3 - Cálculo de la χ2 con R/Splus 170
5.14.4 - Programación en Excel de una calculadora para χ2 171
5.14.5 - Cálculo del test exacto de Fisher en SPSS 171
5.14.6 - Cálculo del test de McNemar en SPSS 172
5.15 - Resumen de las instrucciones en STATA y SPSS 173
Referencias 173
6 - Comparación de medias entre dos grupos 175
6.1 - Test de la t de Student para dos muestras independientes 175
6.2 - Test para comparar varianzas 178
6.3 - Test t para dos medias independientes con varianzas heterogéneas (TEST DE WELCH) 179
6.4 - Intervalo de confianza para la diferencia de medias 181
6.5 - Transformación logarítmica de la variable dependiente en un test T 182
6.6 - Test de la T de Student para comparar una media con un valor de referencia 185
6.7 - Test de la U de Mann-Whitney 187
6.7.1 - Test de Mann-Whitney con datos agrupados 189
6.8 - Test de la T de Student para datos emparejados (muestras relacionadas) 190
6.9 - Test de Wilcoxon para datos emparejados 192
6.10 - Test para medias con STATA 195
6.11 - Test para medias con otros programas 197
6.11.1 - Test para medias con SPSS 197
6.11.2 - Test para medias con R/Splus 198
Referencias 199
7 - Estimación del tamaño muestral 201
7.1 - Introducción 201
7.2 - Margen de error 201
7.3 - Estimación de una proporción 201
7.4 - Estimación de una media 202
7.5 - Comparación de dos proporciones 203
7.6 - Comparación de dos medias 205
7.7 - Cálculo de la potencia estadística 206
7.8 - Curvas de potencia 206
7.9 - Uso de STATA para estimar el tamaño muestral y la potencia 208
7.10 - Programación de Excel para tamaño muestral y potencia 209
7.11 - Otros programas disponibles para el cálculo del tamaño muestral 210
7.11.1 - Otros programas específicos de ensayos clínicos 210
7.12 - Resumen de las fórmulas del tamaño muestral 210
7.13 - Resumen de las instrucciones en STATA 211
Referencias 211
8 - Comparaciones de k medias (tres o más grupos) 213
8.1 - Introducción al ANOVA de una vía 213
8.2 - Relación entre el ANOVA y la t de Student 215
8.3 - ANOVA de una vía con STATA 216
8.4 - Requisitos del ANOVA 217
8.5 - ANOVA de una vía con otros programas 218
8.5.1 - ANOVA de una vía con SPSS 218
8.5.2 - ANOVA de una vía con R/Splus 220
8.5.3 - Programación de un ANOVA sencillo a partir de datos agregados en Excel 220
8.6 - El ANOVA en manos de un lector sagaz de artículos científicos 221
8.6.1 - Primer ejemplo 221
8.6.2 - Segundo ejemplo 222
8.6.3 - Tercer ejemplo 222
8.7 - Test no paramétrico alternativo al ANOVA: Kruskal-Wallis 224
8.7.1 - Kruskal-Wallis en STATA 226
8.7.2 - Kruskal-Wallis en otros programas 227
8.8 - Comparaciones múltiples: contrastes a priori 228
8.9 - Contrastes a posteriori (post hoc): correcciones por comparaciones múltiples 231
8.9.1 - Método post hoc de Bonferroni 232
8.9.2 - Métodos post hoc de Scheffé, Dunnett, Tukey y Sidak 232
8.9.3 - Contrastes a priori con STATA 233
8.9.4 - Contrastes post hoc con STATA 233
8.9.5 - Contrastes en el ANOVA en otros paquetes de estadística 234
8.10 - Método de Benjamini-Hochberg basado en ordenar los valores p 236
8.11 - Resumen de las instrucciones en STATA y SPSS 238
Referencias 238
9 - Anova factorial, modelos lineales generalizados y ancova 241
9.1 - Introducción 241
9.2 - ANOVA factorial (de dos vías o dos criterios) 241
9.2.1 - Planteamiento e hipótesis en el ANOVA factorial 241
9.2.2 - Interpretación de los test de interacción y precauciones en el análisis de subgrupos 245
9.2.3 - Supuestos del modelo de ANOVA factorial 247
9.3 - ANOVA con medidas repetidas (comparación de k medias relacionadas) 247
9.4 - Equivalente no paramétrico del ANOVA con medidas repetidas: test de Friedman 252
9.5 - Ajuste del ANOVA por variables continuas: ANCOVA 254
9.6 - Comparaciones intragrupo e intergrupos con medidas repetidas 254
9.7 - Análisis estadístico de ensayos cross-over 259
9.8 - ANOVA factorial y ANCOVA: estimación de medias ajustadas en STATA 262
9.8.1 - ANOVA factorial 262
9.8.2 - ANCOVA: estimación de medias ajustadas 263
9.9 - ANOVA factorial en SPSS 265
9.10 - Test de Friedman con SPSS y con STATA 266
9.10.1 - Test de Friedman con SPSS 266
9.10.2 - Test de Friedman con STATA 266
9.11 - Resumen de las instrucciones en STATA y SPSS 267
Referencias 268
10 - Correlación y regresión lineal simple 269
10.1 - Introducción 269
10.2 - Correlación 269
10.2.1 - Coeficiente de correlación de Pearson 269
10.2.2 - Condiciones de aplicación de la correlación 274
10.2.3 - Coeficiente de correlación no paramétrico de Spearman3 (rho) 274
10.2.4 - Errores de interpretación de la correlación 275
10.2.5 - Test de hipótesis para la correlación 277
10.2.6 - Intervalo de confianza para la correlación 278
10.3 - Coeficiente de correlación con STATA 279
10.3.1 - Coeficiente de correlación de Pearson, nivel de significación estadística y tamaño muestral 279
10.3.2 - Coeficiente de correlación de Spearman, nivel de significación estadística y tamaño muestral 280
10.4 - Coeficiente de correlación con otros programas 281
10.4.1 - Coeficiente de correlación con Excel 281
10.4.1.1 - Intervalo de confianza para la correlación con Excel 282
10.4.2 - Coeficiente de correlación con SPSS 283
10.4.3 - Coeficiente de correlación con R/Splus 283
10.5 - Regresión lineal simple 285
10.5.1 - ANOVA de la regresión 287
10.5.2 - Coeficiente de determinación, R2 292
10.5.3 - Ajuste de una recta por mínimos cuadrados 294
10.5.4 - Error estándar del coeficiente b de regresión (o pendiente) 296
10.5.5 - Error estándar de la predicción e intervalo de confianza para la predicción media 297
10.5.6 - Intervalos de predicción individuales 298
10.6 - Usos e interpretación de una regresión lineal 298
10.7 - Supuestos del modelo de regresión 300
10.8 - Representación gráfica de los residuales en una regresión lineal 301
10.9 - Construcción de un modelo de regresión lineal con STATA e instrucciones postestimación 303
10.9.1 - Realizar un gráfico de dispersión 303
10.9.2 - Ajustar el modelo de regresión lineal simple 306
10.9.3 - Guardar valores predichos y residuales y sus correspondientes errores estándar 309
10.9.4 - Comprobar la normalidad de los residuales del modelo 309
10.9.5 - Representaciones gráficas 311
10.10 - Regresión lineal con otros programas informáticos 312
10.10.1 - Regresión lineal con SPSS 312
10.10.2 - Regresión lineal con Excel 314
10.10.3 - Regresión lineal con R/Splus 315
10.11 - Relación entre regresión, ANOVA y t de Student 316
10.12 - Uso de la regresión para sustituir al ANOVA factorial 319
10.13 - Resumen de correlación y regresión lineal simple 323
10.14 - Resumen de las instrucciones en STATA y SPSS 324
Referencias 325
Anchor 146 326
11 - Introducción al análisis de supervivencia 327
11.1 - Introducción 327
11.2 - Descripción de la supervivencia: método de Kaplan-Meier 329
11.3 - Pasos para realizar curvas de supervivencia de Kaplan-Meier 331
11.4 - Representación gráfica del estimador de Kaplan-Meier 332
11.5 - Intervalos de confianza para la estimación de supervivencia acumulada 334
11.6 - Análisis de supervivencia con STATA 335
11.7 - Análisis de supervivencia con otros programas 336
11.8 - Curvas de incidencia de Nelson-Aalen 338
11.9 - Comparación de curvas de supervivencia: test del log-rank 338
11.10 - Resumen de las instrucciones en STATA y SPSS 341
Referencias 342
12 - Introducción a los modelos multivariables. Regresión lineal múltiple 343
12.1 - Introducción 343
12.2 - Primera aproximación al modelo de regresión lineal múltiple 345
12.3 - Primera aproximación al modelo de regresión logística 347
12.3.1 - La odds ratio 348
12.4 - Primera aproximación al modelo de regresión de Cox 349
12.4.1 - Hazard ratio 350
12.5 - Aspectos comunes y diferenciales de los modelos lineal, logístico y de Cox 352
12.6 - Regresión de Poisson 353
12.7 - Otros métodos multivariantes 356
12.7.1 - MANOVA 356
12.7.2 - Análisis factorial 357
12.7.3 - Análisis de conglomerados o de clúster 357
12.8 - Hipótesis nulas en una regresión múltiple 357
12.9 - Interpretación condicional de los valores p 359
12.10 - Intervalos de confianza en la regresión múltiple 359
12.11 - Coeficiente de determinación R2 y su versión ajustada 360
12.12 - Condiciones de aplicación del modelo de regresión múltiple. Análisis de residuales y verificación de supuestos 361
12.13 - Tolerancia, factor de inflación de varianza y multicolinealidad 364
12.14 - Variables que deben registrarse en una investigación 366
12.15 - Variables categóricas y variables indicadoras (dummy) 367
12.16 - Factores de confusión en la regresión múltiple 369
12.16.1 - Definición de factor de confusión 369
12.16.2 - No se deben usar valores p ni procedimientos stepwise para valorar la confusión 370
12.16.3 - Cambio en la magnitud del coeficiente como criterio de confusión 370
12.17 - Interacción (o modificación del efecto) en la regresión múltiple 373
12.18 - Relaciones no lineales, modelos polinómicos 377
12.19 - Construcción de un modelo de regresión múltiple 380
12.19.1 - Realización de gráficos de dispersión 381
12.19.2 - Hacer un atento examen de la matriz de correlaciones 381
12.19.3 - Realizar regresiones univariantes de cada variable independiente con la dependiente 381
12.19.4 - Uso de regresiones no paramétricas (LOESS) 382
12.19.5 - Selección de variables candidatas para el modelo multivariante 383
12.19.6 - Valorar la contribución de cada variable incluida en el modelo: R2 ajustado 384
12.19.7 - Valorar la colinealidad 384
12.19.8 - Valorar relaciones dosis-respuesta que se aparten del modelo lineal 384
12.19.9 - Inclusión de términos de interacción entre variables 384
12.19.10 - Comprobar los residuales del modelo 385
12.20 - Elección del mejor modelo 386
12.21 - Los métodos automáticos por pasos (stepwise) casi nunca están indicados 386
12.22 - Regresión lineal múltiple en otros programas distintos de STATA 386
12.22.1 - SPSS 386
12.22.1.1 - Regresión lineal 387
12.22.1.2 - Modelos lineales generalizados 389
12.23 - Resumen de las instrucciones en STATA y SPSS 390
Referencias 393
13 - Regresión logística 397
13.1 - Introducción 397
13.1.1 - Función logística 397
13.1.2 - Transformación LOGIT 398
13.2 - Conceptos de odds, odds ratio y riesgo relativo 398
13.3 - Ejemplo ridículamente sencillo de regresión logística binaria univariante: interpretación 402
13.3.1 - Cálculo de una OR (manual) 402
13.3.2 - Ecuación logística: interpretación 403
13.3.3 - Estimaciones con STATA 403
13.3.4 - Obtención de odds, probabilidades (riesgos absolutos) y riesgo relativo 405
13.4 - Regresión logística binaria con variable independiente cuantitativa: interpretación 406
13.5 - Regresión logística binaria con una variable independiente con > 2 categorías: interpretación 409
13.6 - Regresión logística con múltiples variables independientes 412
13.7 - Control de la confusión en regresión logística. La confusión no tiene nada que ver con valores p 412
13.8 - Identificación de la interacción en regresión logística: test de razón de verosimilitud 415
13.9 - Supuesto de linealidad en el logit y uso de términos polinómicos 416
13.9.1 - Linealidad en el logit 416
13.9.2 - Comprobación de la linealidad en el logit con STATA. Test de tendencia lineal 418
13.9.3 - Uso de términos polinómicos 419
13.10 - Ajuste de un modelo multivariable de regresión logística 419
13.11 - Significación estadística en la regresión logística 422
13.11.1 - Prueba de la razón de verosimilitud 422
13.11.2 - Test de Wald 423
13.11.3 - Intervalo de confianza de la odds ratio 423
13.12 - Test de Hosmer-Lemeshow: bondad de ajuste o calibración 424
13.13 - Curvas ROC: discriminación 427
13.14 - Criterios de construcción de modelos en regresión logística 428
13.14.1 - Construcción de gráficas dirigidas (DAG, Directed Acyclic Graphs) 428
13.14.2 - Análisis estratificado 429
13.14.3 - Regresión logística univariante 430
13.14.4 - Regresión logística multivariante 430
13.14.5 - Valorar posibles interacciones 430
13.14.6 - Comprobar la bondad de ajuste 430
13.14.7 - Construcción de una curva ROC en modelos predictivos 430
13.15 - Regresión logística condicional 430
13.16 - Regresión logística en SPSS 432
13.17 - Resumen de las instrucciones en STATA y SPSS 434
Referencias 435
14 - Aspectos avanzados de regresión de Cox 437
14.1 - Introducción: contexto y utilidad 437
14.2 - Conceptos de hazard y hazard ratio 437
14.3 - Ejemplo ridículamente sencillo de regresión de Cox univariante 438
14.4 - La ecuación de la regresión de Cox 439
14.5 - Interpretación de los coeficientes de la regresión de Cox univariante 440
14.6 - Comparación de curvas de supervivencia con la regresión de Cox 441
14.7 - Regresión de Cox con variable independiente cuantitativa 441
14.8 - Interpretación de los coeficientes de variables independientes cuantitativas 443
14.9 - Regresión de Cox con una variable independiente con >2 categorías 443
14.10 - Interpretación de coeficientes de variables dummy 443
14.11 - Regresión de Cox con múltiples variables independientes 443
14.12 - Control de la confusión en la regresión de Cox 444
14.13 - Intervalos de confianza para la hazard ratio en el modelo de regresión de Cox 445
14.14 - Interacción (modificación del efecto) en regresión de Cox y test de razón de verosimilitud 446
14.15 - Interpretación del riesgo basal (baseline hazard) 446
14.16 - Regresión de Cox estratificada 446
14.17 - Tiempo de seguimiento en la regresión de Cox 448
14.18 - Regresión de Cox con covariables dependientes del tiempo 449
14.19 - Modelos de tiempos de fallo acelerados 449
14.20 - Relación entre hazard ratio y razón de densidades de incidencia 450
14.21 - Similitudes y diferencias entre regresión de Cox y regresión logística 450
14.22 - Posibilidades y opciones de la regresión de Cox con STATA 451
14.23 - Resumen de las instrucciones en STATA, SPSS y R 453
Referencias 454
15 - Análisis de concordancia, validez y pronóstico 455
15.1 - Conceptos y definiciones 455
15.1.1 - Validez 455
15.1.2 - Fiabilidad (reproducibilidad) 455
15.1.3 - Precisión 455
15.2 - Consideraciones generales sobre estudios de validación de pruebas diagnósticas 455
15.3 - Consistencia interna en escalas cuantitativas: alfa de Cronbach 457
15.4 - Reproducibilidad: índice kappa de concordancia en variables cualitativas 459
15.4.1 - Porcentaje de acuerdo simple 459
15.4.2 - Índice kappa de concordancia 460
15.5 - Coeficiente de correlación intraclase: concordancia en variables cuantitativas 461
15.6 - Gráficos de Bland-Altman para acuerdo en variables cuantitativas 464
15.7 - Coeficiente de correlación de concordancia de Lin 465
15.8 - Regresión de Passing-Bablok y regresión de Deming 466
15.9 - Gráficos de acuerdo-supervivencia 467
15.10 - Validez diagnóstica: sensibilidad, especificidad, valores predictivos, razones de verosimilitud 468
15.10.1 - Sensibilidad y especificidad 468
15.10.2 - Validez externa de las pruebas diagnósticas: valores predictivos 470
15.10.3 - Razón de verosimilitudes (RV) 473
15.11 - Discriminación diagnóstica y pronóstica: curvas ROC 475
15.12 - Comparación de curvas ROC 478
15.13 - Índice C de Harrell para predicciones en análisis de supervivencia 478
15.14 - Índice neto de reclasificación, capacidad de estratificación y otros índices de discriminación 481
15.15 - Resumen de las instrucciones en STATA y SPSS 484
Referencias 484
16 - Análisis factorial 487
16.1 - Introducción al análisis factorial 487
16.1.1 - Características y objetivos del análisis factorial 487
16.1.2 - Estandarización y obtención de valores z 488
16.1.3 - Extracción de factores 489
16.1.4 - Construcción de los factores (coeficientes o pesos de cada factor o componente) 493
16.2 - Número de factores para extraer 495
16.2.1 - Autovalores superiores a 1 o criterio de Kaiser 495
16.2.2 - Porcentaje de varianza extraída 495
16.2.3 - Test de la pendiente de Cattell o gráfico de sedimentación (scree plot) 495
16.3 - Cálculos numéricos 497
16.3.1 - Cálculo del valor de una variable a través de los factores extraídos 497
16.3.2 - Correlación entre dos variables (r) 498
16.3.3 - Colectividad de una variable (c) 498
16.3.4 - Autovalor de un factor (l) 498
16.4 - Sinonimias y equivalencias 499
16.5 - Condiciones de aplicación del análisis factorial de componentes principales (AFCP) 499
16.5.1 - Coeficientes de correlación entre variables (r) inferiores a 0,30 499
16.5.2 - Coeficientes de correlación entre variables (r) superiores a 0,80 499
16.5.3 - Test de esferidad de Bartlett 500
16.5.4 - Coeficientes de correlación parcial entre variables elevados 500
16.5.5 - Medidas individuales de adecuación y medida de adecuación de la muestra de Kaiser-Meyer-Olkin 500
16.6 - Consideraciones sobre el tamaño muestral 502
16.7 - Rotación de los factores 502
16.7.1 - Rotación ortogonal 502
16.7.2 - Rotación oblicua 503
16.8 - Refinamiento del análisis: eliminación de variables 504
16.8.1 - Evaluación de la correlación variable-factor (aij) 504
16.8.1.1 - Variables con bajos coeficientes de correlación con todos los factores 504
16.8.1.2 - Variables con altos coeficientes de correlación con múltiples factores 505
16.8.1.3 - Variables importantes en el análisis con baja correlación con el factor o los factores 505
16.8.2 - Interpretación de los factores 505
16.9 - Análisis factorial común frente a análisis factorial de componentes principales 505
16.10 - Análisis factorial confirmatorio frente al exploratorio 507
16.11 - Diferente aproximación en STATA para realizar un análisis factorial de componentes principales 507
16.12 - Análisis factorial de componentes principales con SPSS 508
16.13 - Resumen de las instrucciones en STATA y SPSS 510
Referencias 511
17 - Análisis de clústeres o conglomerados 513
17.1 - Introducción y concepto 513
17.2 - Tipos de análisis de clúster 513
17.2.1 - Clúster de K medias y clúster de K medianas 514
17.2.2 - Clúster jerárquico 514
17.3 - Método para la formación de conglomerados 514
17.3.1 - Determinar las medidas de similitud o disimilaridad (distancia entre observaciones) 514
17.3.2 - Elegir el método de unión de conglomerados 516
17.3.2.1 - En el análisis de clúster jerárquico 516
17.3.2.2 - En el análisis de clúster de K medias o K medianas 519
17.4 - Gráficos del análisis de clúster: dendrogramas 520
17.5 - Estandarización y transformación de variables 521
17.6 - Requisitos para la aplicación de los métodos de análisis de clúster 523
17.7 - Clústeres de variables 523
17.8 - Ejemplo de análisis de clúster con STATA 523
17.8.1 - A través de instrucciones 523
17.8.2 - A través del menú 526
17.9 - Análisis de clúster con SPSS 529
17.9.1 - Conglomerado de K medias 529
17.9.2 - Conglomerados jerárquicos 530
17.10 - Resumen de las instrucciones en STATA y SPSS 531
Referencias 531
18 - Métodos estadísticos en metaanálisis 533
18.1 - Revisiones sistemáticas y metaanálisis 533
18.2 - Tareas previas al análisis estadístico 533
18.3 - Escala aditiva o multiplicativa 533
18.4 - Efectos estandarizados: d de Cohen 533
18.5 - Método del inverso de la varianza: efectos fijos 534
18.5.1 - Combinar la estimación de proporciones 534
18.5.2 - Diferencias de proporciones, estimaciones de medias o diferencias de medias 536
18.5.3 - Combinación de medidas relativas (odds ratios, razones de riesgos, hazard ratios) 537
18.6 - Gráficos de bosque (forest plot) 538
18.7 - Test de heterogeneidad: estadístico Q 540
18.8 - Tau cuadrado: varianza entre estudios 541
18.9 - Índice I cuadrado 541
18.10 - Gráfico de L’Abbé para heterogeneidad 543
18.11 - Metaanálisis de efectos aleatorios: método de DerSimonian-Laird 544
18.12 - Análisis de subgrupos 545
18.13 - Metarregresión 545
18.14 - Sesgo de publicación: gráfico de embudo (funnel plot) 545
18.15 - Sesgo de publicación: test de Egger 547
18.16 - Sesgo de publicación: métodos de MacAskill y de Peters 547
18.17 - Sesgo de publicación: otros métodos 548
18.18 - Metaanálisis acumulado 549
18.19 - Uso de STATA para el metaanálisis 549
Referencias 550
19 - Otros métodos bioestadísticos 553
19.1 - Métodos de remuestreo: bootstrap, jackknife 553
19.1.1 - Bootstrap 553
19.1.1.1 - Bootstrap con STATA 554
19.1.2 - Jackknife 554
19.2 - Método de captura-recaptura para indagar el tamaño de una población 555
19.3 - Análisis de decisiones 557
19.3.1 - Definir el problema 557
19.3.2 - Definir los objetivos 557
19.3.3 - Estructurar el problema 558
19.3.4 - Incluir probabilidades 559
19.3.5 - Análisis de decisión: estimación de los desenlaces 559
19.3.6 - Interpretación del análisis de la decisión 560
19.4 - Modelos flexibles de regresión con intervalos de confianza (splines) 561
19.5 - Valores perdidos (missing) y métodos de imputación 565
19.5.1 - Exploración de valores perdidos en STATA 566
19.5.2 - Imputación simple 567
19.5.3 - Imputación múltiple 568
19.6 - Ponderación por el inverso de la varianza y modelos estructurales marginales 570
19.7 - Índices de propensión (propensity scores) 575
19.8 - Ecuaciones de estimación generalizadas (generalized estimating equations, GEE) 576
Referencias 578
Tablas estadísticas 581
Índice alfabético 589