Está en la página 1de 23

13/09/2019

Coeficiente de variación:

σ
CV =
x

Coeficiente de asimetría:

As < 0 izquiersa
As = 0 simétrica
As > 0 derecha

Coeficiente de Curtosis:

G2 = 0 mesocúrtica
G2 > 0 leptocúrtica
G2 < 0 platicúrtica

Gráficos:
- histograma
- polígono de frecuencias
- gráfico de cajas

Ejemplo:

n = 50 familias xi = personas malas

2, 1, 1, 3, 4, 3, 3, 1

Xi Fi (frecuencia FR (frecuencia
absoluta) relativa)
1 16
2 20
3 4
4 5
50 1 100
Σ xi
x= =2,06 média
n

Σ (xi−x )
θ=
√ n
=0,95 varianza

50
Med = =25 mediana
2
Med = 2

18/09/2019

D-35

Probabilidad

- El conjunto de posibles resultados de un experimento se llama de espacio muestral

Definicio de probabilidad

número de veces que aparece A


fr ( A )=
número de veces que se realiza el experimento

Definicion de Laplace

número de casos favorables al suceso A


P ( A )=
número de casos posibles

Propiedades

- 0 <= fr (A) <= 1 cualquiera que sea el suceso A


- fr (A  B ) = fr(A) + fr(B) si A  B diferente de 
- fr(E) = 1 fr() =

Definiciones

Unión: A  B
Cualquier elemento de una muestra que esté en A y en B

Ejemplo: A = {par}
B = {1, 2, 3}
A  B = {1, 2, 3, 4, 6}

Intersección:
Ejemplo: A  B = {2}

Diferencia: A - B
Los sucesos de A que no esté en B
Ejemplo: A – B = {4, 6}

Suceso contrario Ā = E - A
Suceso complementario, que no está en el otro
Ejemplo: Ā = {1, 3, 5}
Propiedades:

1. P(Ā) = 1 – P(A)
2. P() = 0
3. Si A  B > P(B) = P(A) + P(B-A)
4. Si A  B > P(A) <= P(B)
5. Si A1, A2, …, Ak, son incompatibles dos a dos, encontes:
P (A1  A2  …  Ak) = P(A1) + P(A2) + …
6. P(AB) = P (A) + P(B) – P(A  B)

Probabilidad condicionada

P(B A)
P( B/ A)=
P( A)

P (BA) = P(B/A) . P(A)

Tal que P(A)  0

- Independiente: la ocurrencia de uno no modifica la probabilidad del otro


- Dependiente: la ocurrencia de uno sí modifica la probabilidad del otro

Probabilidad total

- Sistema completo de sucesos posibles que son independientes y que es un suceso


seguro

P (B) = P(A1) . P(B/A1) + P(A2) . P(B/A2) + … + P(An) . P(B/An)

Teorema de Bayes

- La probabilidad de un suceso que ocurra en un suceso completo

P( Ai /B)=P ( Ai ) . P ¿ ¿
19/09/2019

Distribución de Probabilidad

- Representadas por polígonos de frecuencias (unir cada punto de las barras de


histograma)
- Función de probabilidad

y = f(x)
probabilidad de x = función de x

Parámetros en una distribución de probabilidad

- Media (esperanza matemática)


- Desviación típica

Distribución Binomial

- B (n, p)
n = número de veces
p = probabilidad de éxito
q = probabilidad de fracaso

Ejemplo: n= 100, p = 1/6, q = 5/6

- Función de probabilidad de la distribución Binomial

Ecuación

- Parámetros de la distribución binomial


Media
Varianza
Desviación típica

- Función de Distribución de la variable aleatoria Binomial

Distribución de Poisson

- Cuando tiene una dimensión temporal


- Parámetro lambida coincide con la media y con la varianza de la distribución de
poisson
23/09/2019

Distribuciones de probabilidad (II)

- X = N (, )
ˆ2
- La mitad de la población de estudios será mayor que la media
- La media y la mediana coinciden en una campana de Gauss
- Tablas de probabilidad asociadas a distribución normal (examen!)

Estadística inferencial 26/09/2019

- Infiere en todo el conjunto de individuos, pasa del desconocido al conocido


- También conocida por estadística analítica
- Las conclusiones son probables
- Azar: factores que infieren/influyen en los valores
- Alto valor en el ámbito de la investigación científica
- Depende del tipo de muestreo, suponiendo que es siempre muestreo aleatorio
simple (todo el resto de la asignatura!)

Partes de la Estadística inferencial

- Estimación de parámetros: intervalo de confianza (nivel de confianza)


- Contraste de hipótesis
- Relación entre estimación de parámetros y contraste de hipótesis

Estimación de parámetros

- Valor parecido al de la muestra


- Cuanto mayor sea la muestra, más seguro el valor
- El valor poblacional puede ser mayor o menor al de la muestra

Métodos de cálculo de parámetro

- Depende: tipo de parámetro o de la distribución de los datos


- Para muestras grandes, el cálculo puede simplificarse
- Podemos estimar medias y proporciones
30/09/2019 Clase 105 (Atrasada)

Estimación de parámetros

- Sacar resultados de una amuestra desconocida a una conocida


- Contraste de hipótesis (casi lo resto de la asignatura) y estimación de parámetros
- Depende: tipo de parámetro y distribución de los datos
- Para muestras grandes

Estimación con muestras grandes

- Sentido común
- Distribución simétrica
- Teorema central del limite (ley de los grandes números): se repite un
experimento varias veces, la distribución de las medias se aproximan mucho de
una curva de gauss
- Estimación de la media:
 N >= 30 (siguen una distribución normal)
 Curva media es la de la población
 Desviación típica es llamado erros estándar de la media

Digite a equação aqui.

- Estimación de la media
- Estimación de la proporción:
 N >= 100 (siguen una distribución normal)
 Centrada en la proporción de la muestra
 Erros estándar es:

Digite a equação aqui.

Estimación con muestras pequeñas

- Parámetro llamado número de grados de libertad (g.l.)


- g.l. = n -1
- Tablas de la t de Student
- Si los datos no siguen la distribución normal:
 Utilizar el método de la t de Student
 Se aproximar de la normal
 No se calcula el intervalo de confianza
01/09/2019 Clase 105

Comparación de medias

- Índice de Karnofsky: de 0 a 100

Contrastes de hipótesis

- Comprobar si las informaciones que tenemos de una muestra si coincide con la


población o no, si es verdadero o falso
- Tipos de métodos: técnicas clásicas, intervalos de confianza, métodos
bayesianos

Esquema técnicas clásicas

- “Pruebas de nivel de significación”


- Fenómenos deterministas y fenómenos aleatorios

Teoría Refutación
Determinista 1 fallo
Aleatorio 1 muy improbable

Regla de decisión

- Cuando encuentra algo muy improbable al supuesto inicial, se rechaza


- Cuando encuentra algo muy posible al supuesto inicial, no se rechaza

Hipótesis nula y alternativa

- Hipótesis nula: comparaciones que no hay diferencia


- Hipótesis alternativa: comparaciones hay diferencia
- La utilización de estas hipótesis es asimétrica
- La hipótesis nula es el punto de partida

Regiones de aceptación y de rechazo

- Se parte de la hipótesis nula, si ella es la cierta, 90% de seguridad que va a caer


dentro de la zona de aceptación
- Región de aceptación: valores de la hipótesis nula
- Región de rechazo: el resto de los valores
Resumen de pasos

- 1) Plantear la H0 (hipótesis nula)


- 2) Estadístico de contraste
- 3) H0 en función del estadístico de contraste
- 4) Regiones de aceptación y de rechazo
- 5) Valor experimental en la región de aceptación

- 1) x1 = x2 (las medias iguales)

- 2) dx

- 3) dx = 0

- 4) +- Z . sdx

- 5) |dx EXP| <> Z . sdx

02/09/2019 Clase 105

Comparación variable cuantitativa


Dos muestras independientes

- pareadas: cada dato de la primera serie está emparejado con uno dato de la
segunda, los datos viene por pares, hay una relación previa de un dato con el
otro
- independientes: los datos no están emparejados, no hay una relación previa de
un dato con el otro

Muestras independientes

- Muestras grandes
- Muestras pequeñas
 Variable normal o de gauss: dos métodos de cálculos (varianzas homogéneas
y varianzas heterogéneas)
 Variable no normal

Muestras grandes

- Una muestra es grande cuando ambas son mayores que 30


- De cada muestra se usa su media (se hacen comparaciones con la media porque
nos da más informaciones)
- Estadístico de contraste: la diferencia de medias (si es muy pequeña, muestras
iguales; si es muy grande, muestras distintas)
- Distribución (para H0: dx = 0) – si la hipótesis es nula, tiene una distribución de
probabilidad aproximadamente centrada al centro (cero) del gráfico. Se calcula
con la fórmula de error estándar
- Regiones de aceptación y de rechazo
 |dx exp| > Z . Sdx: Rechazar Ho (se considera demostrada la diferencia)
 |dx exp| <= Z . Sdx: “Aceptar” Ho (NO se considera demostrada la igualdad,
NUNCA se puede demostrar la igualdad)

Muestras pequeñas (al menos una < 30)

- comparación de varianzas
 F exp = S12/S22 (siempre en el numerador la S mayor)
 F de snedecor: depende de los números distintos de grados de libertad
- Valor crítido habitual de la F
 Para decidir si las varianzas son homogéneas
 En una comparación de medias: P = 0,05
 Varianzas homogéneas: “aceptar” H0
 Varianzas heterogéneas: rechazar H0

Varianza heterogénea

- Cuando el valor de la F experimental (Fexp) es mayor que el valor que viene en


la tabla, es una varianza heterogénea
- Ejemplo en el cuaderno

Varianza homogénea

- Distribución: t de Student
- Con s dx = raíz de (S1ˆ2/n1 + S2ˆ2/n2)
- Con grados de libertad según la corrección de Welch

- Cuando el valor de la F experimental (Fexp) es menor que el valor que viene en


la tabla, es una varianza homogénea
- Ejemplo en el cuaderno

03/09/2019 Clase 105

BE-S4

Seminario

Cuaderno!
07/09/2019 Clase 105

Cuaderno!

Comparación de medias mediante intervalos de confianza

- Intervalo de comparación: responde a preguntas del tipo: hay diferencia


demostrada en la población o no hay diferencia? (la respuesta es sí o no)
- Intervalo de confianza: responde a pregunta del tipo uanta diferencia hay?

Obtención del intervalo

- Muestras grandes
I.C. dx = dx exp +- Z . s. Dx
- Muestras pequeñas

Relación con las Técnicas clásicas

- Si el intervalor de confianza
 Incluye la H0: no se ha demostrado la diferencia
 Deja fuera la H0: se ha demostrado la diferencia

Nivel de significación

- No dice cuanto de grande es la diferencia


- Decisión de “aceptar H0”dependiente de n
- Probabilidad 0 de que exactamente dx = 0
- P (resultado/H0) es diferente/distinto de P (H0/resultado)
- Ventajas:
 Resultado muy simple (si/no), pero no es realista
 Casi en todas las situaciones de análisis estadísticas existen técnicas clásicas
o nivel de significación

08/09/2019 Clase 105

Comparación. Variable Cuantitativa.

- Ventajas
 Reduce la variabilidad
 Reduce el n necesario
- Muestra no pareada: se maneja los incrementos
- Muestras grandes (n >=30)
Media de los incrementos
n es el número de incrementos
14/10/2019 Clase 105

Cálculo de tamaño muestral

Objetivo:

- De estimación
 Nivel de confianza
 Fijar cual alfa poner en la confianza
 Amplitud del intervalo (por el error estándar)
 Idea de valoración

- De comparación
 Depende del nivel de significación
 Mitad de la amplitud de intervalo D (precisión del intervalo)

- Estimación de medias
 Cuanto menor el error, mayor el n que necesito
 D es el error, la precisión máxima admisible
 Siempre se arredondea el decimal para un números superior, nunca inferior

- Estimación de proporciones
 Si no sabemos cual es la proporción, se puede suponer que es la mitad (p =
1-p = 0,5)

- Objetivos de comparación
 Erros beta grande, probabilidad nula

15/10/2019 Clase 105

Seminario – Cuaderno
16/10/2019 Clase 105

Cálculo del tamaño muestral

D +- Zx Sd
D >= Zx Sd
D = Zx Sd
D = Zx

2Z 2 . 2. S 2
D=
n

2 S2
D=Zx
n √
S 12 S 22
S D=
√ +
n1 n 2

S2 S2
S D=
√ +
n n

2 S2
S D=
√ n

Seminario – Cuaderno

17/10/2019 Clase 105

ANOVA
- Comparar las medias a través de las varianzas (dispersiones)

Cálculo de dispersionas

- Dispersion total:
- Dispersion residual: dentro de los grupos
- Dispersión factorial: entre grupos, el factor importa

Cálculo de las dispersiones

- i varia de 1 a a, i indica el grupo que estoy


- j varia de 1 a ni, j indica la observación dentro de un grupo
- n es el total de observaciones, la suma de todos los ni

- i = 1…a
- j = 1…ni
- n = ni

Dispersión total

Dispersión residual o de error

Dispersión factorial

Distribución de F de Snédécor

- Cuando VR>VF : se acaba, hipostesis nula


- F de snedecor calcula cuando la varianza factorial es mayor que la residual
(Fexp = VF/VR)
- Comparación de la distribución de F de Snédécor frente a la distribución teórica
- Aceptación o rechazo de la hipótesis nula

21/10/2019 Clase 105

ANOVA
Condiciones de aplicación

- La variable respuesta sigue la distribución normal


- Suponer que toda las muestras tengan la misma varianza (propiedad:
homocedasticidad)
- Cuando hay solo dos muestras, coincide con la t de Student

Test de Student-Bewman-Keuls

- Propiedades
 Test secuencial
 Diseño equilibrado

23/10/2019 Clase 105

Seminario 8

28/10/2019 Clase 105

Bondad de ajuste a la normal: Test de Kolmogorov-Smirnov

- Dentro de un punto de referencia, donde aparezca la máxima referencia, que es


la máxima distancia entre experimental y teórica
- Numero de referencias es el numero de casos
- En la tabla se busca el grado de liberdad
- Dexp << Dkov: siempre mantengo la hipótesis nula H0
- Dexp > Dkov: rechazo la hipótesis nulas H0

Criterio de Bondad de Ajuste

- Las proporciones son las mismas (H0): son independientes


- Las proporciones son diferentes (H1): están asociadas

29/10/2019 Clase 105

Comparación de proporciones

- Procedimiento
 Se cosntruye una tabla con la distribución experimental
 Esa tabla se llama tabla de contigencia
 Se construye una distribución teórica (independencia de los caracteres)
 Se comparan entre sí
- Criterio de bondad de ajuste
 Se establece la hipótesis nula (H0)
 Se busca un índice (estadístico)
- Criterio de decisión
 Si x2 experimental <= x2 teorica: los caracteres no está relacionados, no se
detecta que los caracteres está relacionados, no se detecta dependencia o
asociación entre ambos caracteres
 Si s2 exp > x2 teorica: las diferencias entre ambas distribuciones no se
explican por azar (se rechaza la hipótesis nula H0)

30/10/2019 Clase 105

Prueba exacta de Fisher

- La F exp siempre va a ser el valor más pequeño


- Unilateral cuando el grafico parte de zero
- Bilateral cuando el gráfico parte de otro valor sin ser el zero
- Para bilateral se puede aproximar multiplicando por 2
Utilizado con variables independientes

Prueba Test de Mc Nemar

- Cuando si tiene datos relacionados, si utiliza ese tipo de prueba


- Prueba para dos variables dicotómicos relacionadas
- Utiliza la Chi Cuadrado para aproximarla

Resumen de comparación de variables cualitativas

- Muestras independientes
- Muestras relacionadas

04/11/2019 Clase 105

Seminario 9 Analisis Variables Cualitativas

Cuaderno

06/11/2019 Clase 105


Asociacion de variables cuantitativas

- Relacionar variables
- Analisar y conocer la relación entre variables cuantitativas
- Predecir
- Relacionar y predecir son objetivos distintos, pero están mucho relacionados
entre sí
- Predecir es más importante
- Una variable permite predecir cuanto vale la otra variable cuantitativa
- Estimar lo que no se conoce
- Variable imposible: el valor queremos saber en el futuro, y no ahora
- Predicción estadística
 Subjetivas: predicciones practicas pero difícil que sean siempre correctas,
pueden ser aceptadas o no, es difícil saber que probabilidad tenemos de
equivocarnos
 Deterministas: completamente exactas y seguras, no puedo haber
probabilidad de error
 Podemos saber cuanto de error cometido, que probabilidad tenemos de
acertar
 Planteamiento similar a leyes Física clásica, pero no todos somos
exactamente iguales, entonces la probabilidad no va a ser fija, y si
aproximada
 Ecuaciones deterministas: leyes exactas
 No deterministas: leyes aproximadas, no encontramos una ecuación que
cumpla exactamente (cuanto más datos tenemos, más fácil aproximar real de
la ley)
- Técnicas
 Correlación lineal
 Regresión lineal
 Regresión no lineal

Correlacción

- Variables cualitativas:
- Valores cuantitativas: hay más valores
- Tipos de relaciones:
 Creciente
 Decreciente
 Máximo en el centro
- La relación más sencilla es la lineal (línea recta)

Corrección lineal

- Coeficiente de corrección o r de Pearson: índice bivariante que mide el grado de


relación lineal entre dos variables cuantitativaa
- Evalua la seguridad de que, al variar cierta variable
- Si la r tiene valor bajo, el hecho que el valor cambie no nos dice nada si la
variable va a cambiar o no
- Al aumentar la x, el signo tiene a aumentar (y la seguridad tiende a aumentar)
- al disminuir la x, el signo tiende a disminuir
- Si la x es zero, indica que no aumentamos ni disminuimos (la x no nos dice
nada, son variables completamente diferentes, cuando no hay nada que ver una
variable con la otra)
- Es casi imposible que r llegue a 0
- Efecto de la suma de las x:
 ++=+
 --=+
 +-=-
- Significado de los valores de |r|
 Está siempre entre 0 y 1
 Consideramos r importante/fuerte cuando es 1 o está cerca de 1 (tenemos
mucha seguridad)
 r positiva: relación creciente
 r negativa: relación decreciente

08/11/2019 Clase 106

Correlación

- correlación: mide la relación entre variables cuantitativas


- sino positivo: relación creciente
- sino negativo: relación decreciente
- valor absoluto 0,5: cuando es 0,8, es una relación muy fuerte (al aumentar una
variable, estamos muy seguros de la variable)
- en la salud, 0,6 es un valor fuerte y 0,8 es un valor muy fuerte

Inferencias en la correlación

Variables gaussianas

- Estimación de parámetros de la correlación


- Método: Transformación z de Fisher
 Sigue una distribución de Gauss
- Ejemplo: variable de la población vale 0,9
 Curva muy asimétrica cuando el valor es próximo a 1
- Pasos:
 Transformación de r en z
 Intervalo de confianza para z
 Intervalo de confianza para r
 Seguridad de 95%: relación positiva
 Esa es la forma mas correcta de dar la relación de dos variables cuando
queremos extrapolar lo que conocemos y lo que no conocemos, pues da una
margen de valores

Significación de la relación lineal

- Parte de la hipótesis nula (que no hay relación linear)


- Numero de grados de libertad
- Cuando el valor es mayor que el limite,
- No dice cuanto de grande es la relación
- Ejemplo: cuando la probabilidad de error es P<0,001 y erros r = 0,4 está
fuertemente relacionadas las variables (seguridad muy alta y error muy bajo)
- Es preferible el método de estimación de parámetros

Regresión

- Me permite predecir un valor de una variable con el valor de otra


- Si hay relación entre dos variables x e y:
 x es causa de y
 y es causa de x
 ambas son efectos de la causa z
- Cuando tenemos un valor muy alto de una de las variables, disminuye el error

Obtención de leyes experimentales

- Cuando hay causalidad, una variable va a estar en función de la otra variable


(“variable independiente”)
- Permite hacer predicciones (que son aproximadas, y no exactas)
 Ecuación de regresión
- Residuos o errores de estimaciones (para la estimación ser la mas correcta
posible, los residuos tienen que ser pequeños)
- Decidir el tipo de función
- Estimación por “Mínimos Cuadrados”
 Si es mínima, encontramos los coeficientes más apropriados

Recta de Regresión

- Ecuación de regresión más sencilla


- Expresión clásica de uan recta
 y e = a + bx
 a: ordenada en el origen o termino independiente
 b: pendiente o coeficiente de regresión
 Si x vale 0, la y vale a
 Cuando la x aumenta de 0 a 1, cuanto aumenta b
- Sólo se calcula cuando la r es un valor suficientemente alto
- Es posible también calcular “x sobre y” (si x es una variable aleatoria)
- Si hay una relación creciente, se aproxima a la ecuación x = f(y)
- Si queremos predecir y = g (x), solo es posible cuando |r| = 1

Predicción con la recta de regresión

- No es exacta, no estamos completamente seguros


- Es valor aproximado
- Aproximar un conjunto de valor con una seguridad de 95% si se cumple 3
condiciones cuando los residuos son:
 Normales
 Homocedásticos (que la variabilidad de los resultados es similar para todos
los valores)
 Independientes
- Se sigue esas condiciones, los valores siguen una t de Student con n-2 grados de
libertad, centrada en y e
- Si r vale 1-1, s vale 0 y sy vale 0 (predicción exacta, error de predicción
pequeño)
- Si x esta muy cerca de la media, va a ser pequeño (la predicción no va a ser
correcta para todos los valores)

11/11/2019 Clase 105

Coeficiente de determinación

- Regresión: predecir una variable en función de otra


- Coeficiente de determinación: evalúa la calidad de una regresión
- Residuos o efectos residuales: no que está determinado por el factor x
- Cuanto mayor la dispersión, mayor la calidad
- DF/DT el valor máximo es 1, y el mínimo es 0
- Se calcula como la proporción de la dispersión de y atribuible a su relación
linean con x
- En la regresión lineal simple coincide con r2 (divido los efectos, saliendo r2)
- Permite comparar la calidad entre distintos modelos de regresión

Contraste de la Pendiente de la Recta

- Para comprobar si la recta de regresión se aparta de la horizontal (pendiente


distinto cero)
- Se llama análisis de la varianza en la regresión
- Descomposicion de la dispersión
- Distribucion: F de Snedecor
- Cuando es mayor que la F experiemntasl, se rechaza la hipótesis nula, entonces
la recta se aparta de la horizontal (P<0,01)

Cuestiones especiales en la regresión

Carácterísticas de los residuos

- Normalidad
- Homocedasticidad
- Independencia

Métodos

- Analíticos
- Gráficos

Análisis Gráfico de los Residuos


- Aleatorios puros: el resto no nos da ninguna información, toda la información
está en el modelo (ese es el mas deseado en un estudio, que los residuos sean
aleatorias puros)
- Tendencia subyacente

Valores influyentes

- Detección
 Analítica: índice de influencia o “leverage”
 Gráfica: comparar rectas con y sin el punto
- Tratamiento
 es un error de medición?
 Si: cambio de conportamiento
 No: cambio de comportamiento?
 No se sabe: parece más fiable sin el punto
- Precaución: n >= 20 (no ocurre si el numero de datos es igual o mayor que 20)
- Rango de validez:
 Cambio de comportamiento
 Pérdida de precisión

Regresión no lineal

- Función no lineal
- Criterios para eligir el tipo de función
 Sencillez (es recomendable que tenga pocos coeficientes)
 Observación gráfica
 Maximizar R2
- Cálculo con ordenador (es complicado hacer cálculos para funciones no lineales)

14/11/2019 Clase 105

Seminario S9

Cuaderno

15/11/2019 Clase 106

No paramétricas

1 – Cuantitativas NO Gauss (que no se ajustan a Gauss)

2 – Ordinales

*variables ordinales son intermedias de las variables cualitativas y de las


cuantitativas
*para ser variable cuantitativa hay que seguir las reglas de un número
*variables falsas cuantitativas = ordinales

3 – Subjetivas
Signos

- T de los signos: cuando se hace comparación de medias pareadas


- Ejemplo:

N = 12
Frencuencia cardiaca

1 2 3 4 5
Antes: 90, 63, 65, 87, 72, 79, 80, 46, 68, 49, 67, 82
Después: 70, 47, 78, 65, 60, 74, 68, 50 , 43, 42, 70, 66

 18, 16, -3, 22, -8, 5, 12, -4, 25, 7, -3, 16


+ + - + - + + - + + - +

4 pacientes han bajado, y 8 pacientes han subido (8 + , 4 -)

8+ 6+
4- 6-

N p = 0,05 p = 0,01 p=0,001 (niveles de significación)

Para 12 indidivuos (2, 10)

Wilcoxon rango con signo

- Es independiente del signo

1 2 3 4 5
Antes: 90, 63, 65, 87, 72, 79, 80, 46, 68, 49, 67, 82
Después: 70, 47, 78, 65, 60, 74, 68, 50 , 43, 42, 70, 66

 18, 16, -3, 22, -8, 5, 12, -4, 25, 7, -3, 16


+ + - + - + + - + + - +

Orden: -3, -3, -4, 5, 7, -8, 12, 16, 16, 18, 22, 25

Sustituir el valor paramétrico por un rango

Rango: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12


1,5 1,5 8,5 8,5

Organizar el rango:

S+ = 3 + 5 + 7 + 8,5 +8,5 + 10 + 11 + 12 = 66
S- = 1,5, 1,5, 3, 6 = 12

N ( NA 1 ) 12 .13
SeShS= = =78
2 2

n p = 0,05 p = 0,01

12 14,64 7,71

25/11/2019 Clase 105

Análisis de supervivencia

Diseño de estudio

- Función de riesgo parecida con la función de supervivencia


- Estimar la probabilidad que no se produzca el evento (función de riesgo)
- HR: hazard ratio
- x es la variable del modelo (puede ser tratamiento, si es hombre o mujer, etc –
puede ser cualquier tipo de variable, puede ser cuantitativa o cualitativa)
- la variable respuesta también se puede eligir
- Regresión de COX
- Ejemplo:
 Análisis de SLP en los pacientes que reciben tratamiento A frente a B
- Calidad del modelo es determinada por R2
- Si R2 es mas cerca de 1 más adecuado es el modelo y cuanto más cercano de 0
peor es el modelo
- Un R2 bajo no quiere decir necesariamente que las variables seleccionadas no
permiten estimar adecuadamente la variable respuesta. Es posible que la
relación no sea lineal
- Validación del modelo:
 Residuo: son la distancia esa que separada los valores experimentales del
modelo

26/11/2019 Clase 105

Seminario 12

1) Modelo de regresión linear múltiple

a) Sí, es significativo, es posible predicir la pasmedia


b) Edad, BIM significativo, el colesterol no es significativo (por el 0,021 que no
pesa en la pasmedia)
La calidad del modelo es mala, porque la R2 se acerca más a zero

*La calidad predictiva es buena o mala predice en todo sitios o no? El modelo
predice igual en todo el rango, la validez no es simular en todos los sitios y
sabemos eso con los residuos

*si es para comparar usamos la R2 corregida

c) Residuos quiere decir que en eso caso no está relacionado.

*Si sale menor que 0,05, el residuo predice mal por la izquierda
Si sale mayor que 0,05, el residuo predice mal por la derecha

*El segundo modelo es mejor que el primero

d) Se mantiene la hipótesis respecto a los residuos

2) R. Logística porque la variable es dicotómica

a) Hay mucha pérdida.


Solo han incluidos 72 (fumadores)
El modelo nos da información sobre quien es HTA

27/11/2019 Clase 105

“Funnel Plot’
(Diagrama de Embudo)

También podría gustarte