Está en la página 1de 18

Modelo de regresión lineal para las variables Diámetro e

ı́ndice de curvatura de la fibra de alpaca

Omar jael Chino Fur

4 de octubre de 2019

1. Introducción

En el presente trabajo se analizarón los datos registrados por el estudiante Jaime Alain Diaz Rosas, en
su tesis “PRINCIPALES CARACTERISTICAS DE LA FIBRA DE ALPACAS HUACAYA Y SURI DEL
SECTOR CHOCOAQUILLA - CARABAYA”, del 2014, para verificar la existencia de correlación entre el
diametro de fibra (D.F) e ı́ndice de curbatura de fibra (I.C), para lo cual usaremos un método matemático
denomiando regresión lineal simple, el mismo que nos permitira realizar predicciones de los valores que
tomará una de las dos variables a partir de los valores de la otra, en este caso consideraremos como variable
independiente al ı́ndice de curvatura y como variable dependiente el dı́amtro de fibra [1].
Nuestro principal objetivo fué determinar e interpretar los resultados obtenidos mediante un modelo lineal
adecuado, el coeficiente de correlación, el coeficiente de regresión, planteo de hipotesis, ettxx ,para lo cual
usaremos las fórmulas necesarias los resultados obtenidos serán verificados con el software R-studio.
La primera forma de regresión lineal documentada fue el método de los mı́nimos cuadrados que fue publicada
por Legendre en 1805, Gauss publicó un trabajo en donde desarrollaba de manera más profunda el método
de los mı́nimos cuadrados, y en dónde se incluı́a una versión del teorema de Gauss-Márkov.
El término regresión se utilizó por primera vez en el estudio de variables antropométricas: al comparar la
estatura de padres e hijos, donde resultó que los hijos cuyos padres tenı́an una estatura muy superior al
valor medio, tendı́an a igualarse a éste, mientras que aquellos cuyos padres eran muy bajos tendı́an a reducir
su diferencia respecto a la estatura media; es decir, “regresaban” al promedio. La constatación empı́rica de
esta propiedad se vio reforzada más tarde con la justificación teórica de ese fenómeno.
El término lineal se emplea para distinguirlo del resto de técnicas de regresión, que emplean modelos basa-
dos en cualquier clase de función matemática. Los modelos lineales son una explicación simplificada de la
realidad, mucho más ágiles y con un soporte teórico mucho más extenso por parte de la matemática y la
estadı́stica [2].

2. Desarrollo

2.1. Regresión lineal simple

En la práctica a menudo se requiere resolver problemas que implican conjuntos de variables de las cuales se
sabe que tienen alguna relación inherente entre sı́. Por ejemplo, en una situación industrial quizá se sepa que
el contenido de alquitrán en el fljo de salida de un proceso quı́mico está relacionado con la temperatura en la
entrada. Podrı́a ser de interés desarrollar un método de pronóstico, es decir, un procedimiento que permita

1
estimar el contenido de alquitrán para varios niveles de temperatura de entrada a partir de información
experimental [3].
Una forma razonable de relación entre la respuesta Y y el regresor x es la relación lineal.

Y = β0 + β1 x (1)

En la que, por supuesto, β0 es la intersección y β1 es la pendiente. obtienen una ecuacion separada del texto.

2.1.1. El modelo de regresión lineal simple

Hemos limitado el uso del término análisis de regresión a los casos en los que las relaciones entre las variables
no son deterministas, es decir, no son exactas. En otras palabras, debe existir un componente aleatorio en
la ecuación que relaciona las variables. Este componente aleatorio toma en cuenta consideraciones que no
son medibles o, de hecho, que los cientı́fios o los ingenieros no comprenden. En realidad, en la mayorı́a de
aplicaciones de la regresión, la ecuación lineal, digamos, Y = β0 + β1 x es una aproximación que representa
de manera simplifiada algo desconocido y mucho más complicado.
A continuación se presenta el modelo estadı́stico para la regresión lineal simple. La respuesta Y se relaciona
con la variable independiente x a través de la ecuación:

Y = β0 + β1 x + i (2)

en la cual β0 y β1 son los parámetros desconocidos de la intersección y la pendiente, respectivamente, y 


es una variable aleatoria que se supone está distribuida con E() = 0 y V ar() = σ 2 . Es frecuente que a la
cantidad σ 2 se le denomine varianza del error o varianza residual.
En el modelo anterior hay varias cuestiones evidentes. La cantidad Y es una variable aleatoria, ya que  es
aleatoria. El valor x de la variable regresora no es aleatorio y, de hecho, se mide con un error despreciable. La
cantidad , que a menudo recibe el nombre de error aleatorio o alteración aleatoria, tiene varianza constante.
Es común que a esta parte se le denomine suposición de varianza homogénea. La presencia de este error
aleatorio  evita que el modelo se convierta tan sólo en una ecuación determinista (fig.1).

Figura 1: Datos (x, y) hipotéticos dispersos alrededor de la verdadera recta de regresión para n = 5.

2
2.2. Regresión lineal simple

Recuerde que este modelo está creado para una población de mediciones que por lo general es desconocida,
pero puede usar información muestral para estimar los valores de y β, que son los coeficientes de la recta
de medias, E(Y ) = β0 + β1 x . Estas estimaciones se usan para formar la recta de mejor ajuste para un
conjunto de datos determinado, llamado recta de mı́nimos cuadrados o recta de regresión. En la siguiente
sección repasamos la forma de calcular la intersección y la pendiente de esta recta mediante el método de
mı́nimos cuadrados.

2.3. Método de mı́nimos cuadrados

Es un procedimiento de análisis numérico en la que, dados un conjunto de datos, generalmene pares ordena-
dos, se intenta determinar la función continua que mejor se aproxime a los datos, lı́nea de regresión o la lı́nea
de mejor ajuste, proporcionando una demostración visual de la relación entre los puntos de los mismos. En
su forma más simple, busca minimizar la suma de cuadrados de las diferencias ordenadas, llamadas residuos,
entre los puntos generados por la función y los correspondientes datos.

2.3.1. Pendiente (β1 )

P
(xi − x̄)(yi − ȳ)
β1 = (3)
(xi − x̄)2
P

2.3.2. Intercepto (β0 )

β0 = ȳ − β1 x (4)

2.4. Prueba de hipótesis para β1 :

Valor de t:
βb1 − β1
t1 = q (5)
M SE
Sxx

Error medio cuadratico:


SSE
M SE = (6)
n−2
Suma de cuadrados de error: X
SSE = (ybi − yi )2 (7)
Covarianza de x: X
Sxx = (xi − x̄)2 (8)

2.5. Prueba de hipótesis para β0 :

βb0 − β0
t0 = q (9)
x̄2
M SE( n1 + Sxx )

3
2.6. Intervalos de confianza para β1 :

2.6.1. Pueba de hipotesis para la pendiente:

β1 = ±tα/2 (SE) (10)


donde tα/2 está basada en (n − 2) grados de libertad y
r
M SE
SE = (11)
Sxx

2.7. Coeficiente de correlación (r)

El coeficiente de correlación de Pearson mide de la fuerza de la relación lineal entre dos variables. aleatorias
cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida
de las variables y varia desde −1 ≤ r ≤ 1. [4]
Deacuerdo a los valores de r podemos interpretarlo de la siguiente manera:

r = 1 Correlación perfecta.

0,8 < r < 1 Correlación muy alta.

0,6 < r < 0,8 Correlación alta.

0,4 < r < 0,6 Correlación moderada.

0,2 < r < 0,4 Correlación muy baja.

0 < r < 1 Correlación baja.

r = 0 Correlación nula.

De manera menos formal, podemos definir el coeficiente de correlación de Pearson como un ı́ndice que puede
utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas y
continuas.
P P P
(Xi Yi ) − Xi Yi
n
r=q P (12)
[n Xi 2 − ( Xi )2 ][n Yi 2 − ( Yi )2 ]
P P P

2.8. Coeficiente de determinación (R)

El coeficiente de determinación R se puede interpretar como el porcentaje de reducción en la variación total


en el experimento obtenido al usar la recta de regresión yb = a + bx, en lugar de ignorar x y usar la media
muestral para predecir la variable de respuesta y. [4]

R = r2 (13)

4
2.9. Prueba de hipótesis para r:

Al realizar una prueba de hipótesis formal para determinar si existe una correlación lineal significativa entre
dos variables.

r
tr = q (14)
1−r2
n−2

2.10. Análisis de varianza (ANOVA):

Yi = β0 + β1 Xi + i (15)

(ybi − yi )2
P
SSE =
(ybi − ȳi )2
P
SSR =
(yi − ȳi )2
P
SST =
SST = SSE + SSR (16)

TABLA DE ANALISIS DE VARIANZA (ANOVA)

Suma de cuadrados
Fuente de variación Grados de libertad Suma de cuadrados Estadı́stico
medios
Regresión 1 SSR MSR = SSR
F = MSR/MSE
Error residual n-2 SSE MSE = SSE/(n -2)
Total n -1 SST

Cuadro 1: Análisis de varianza para regresión lineal

2.11. Resultados

2.11.1. Diagrama de dispersión:

El diagrama de dispersión aparentemente no sugiere un tipo de correlación negativa entre las variables
diámetro de fibra y ı́ndice curvatura.

5
Figura 2: Gráfica de dispesión para las variables diametro de fibra y ı́ndice de curvatura

2.11.2. Modelo de regresión lineal:

Pendiente β1 :
β1 = −0,1139677 (17)

Intercepto β0 :
β0 = 22,99767 (18)

Por lo tanto nuestro modelo de regresión lineal para las variables en estudio serı́a la siguiente:

Y = 22,99767 − 0,1139677x (19)

y su grafica la que se muestra a continuación:


La gráfica de nuestro modelo de regresión lineal confirma nuestra suposición acerca del tipo de correlación
que presentan las variables.

6
Figura 3: Gráfica del modelo de regresión lineal para las variables diametro de fibra y ı́ndice de curvatura

De acuerdo al gráfico de dispersión (Fig.3) y de modelo de regresión (19) podemos afirmar que a medida
que aumenta el ı́ndice de curvatura el dı́ametro de fibra disminuye.
De acuerdo al Modelo de regresión lineal, la constante β0 de 2,99767µ (18) es una estimación del valor
esperado del dı́ametro de fibra con un ı́ndice de curvatura igual a 0grad/mm , con lo cual podemos inferir
que si una hebra no tiene ningun grado de curvatura esta será mas gruesa que una que presente cierto grado
de curvatura.
Con respecto al β1 , por cada a 1grado/mm de aumento en el ı́ndice de curvatura de fibra, el dı́ametro de la
misma disminuye en 0, 1139677µ (17).

2.11.3. Prueba de hipótesis para β1 :

Hipótesis nula: H0 : β1 = 0
Hipótesis alternativa: H1 : β1 6= 0

t = −12,12874 (20)

con (n - 2) = 178 grados de libertad. Con a α = 0.05, se puede rechazar H0 cuando t < −1,9734 . Como el
valor observado de la estadı́stica de prueba cae en la región de rechazo, H0 es rechazada y se puede concluir
que hay una relación lineal significativa entre diámetro de fibra e ı́ndice de curvatura para la muestra.

2.11.4. Prueba de hipótesis para β0 :

Hipótesis nula: H0 : β0 = 0
Hipótesis alternativa: H1 : β0 6= 0
con (n - 2) = 178 grados de libertad. Con a α = 0.05, se puede rechazar H0 cuando t > 1,9734 . Como el

7
valor observado de la estadı́stica de prueba cae en la región de rechazo, H0 es rechazada y se puede concluir
que si existe una significancia para los parámetros de regresión.

t = 75,7955 (21)

2.12. Intervalos de confianza para β1 :

2.12.1. Pueba de hipotesis para la pendiente:

Hipótesis nula: H0 : β1 = 0
Hipótesis alternativa: H1 : β1 6= 0
Tendremos:
r
2,45495
− 0,1139677 ± −1,973381 (22)
27804,19

El intervalo de confianza de 95 % resultante es -0.09542483 a -0.1325106. Como el intervalo no contiene 0, se


puede concluir que el verdadero valor de β1 no es 0 y se puede rechazar la hipótesis nula H0 : β1 = 0 a favor
de Ha : β1 6= 0, conclusión que está de acuerdo con los hallazgos del ejemplo 12.2. Además, la estimación del
intervalo de confianza indica que hay un aumento desde sólo -0.095 hasta -0.133 puntos en una puntuación
de examen de cálculo por cada aumento de 1 punto en la puntuación del examen de aprovechamiento.

2.13. Coeficiente de correlación r:

r = −0,6726714 (23)

En cuanto al coeficiente de correlación (23), las variables ı́ndice de curvatura y dı́ametro de fibra tienen una
correlación negativa moderada (-0.6726714).

2.14. Coeficiente de determinación R:

R = 45,24867 % (24)

Podemos decir que el 45,24 % (24) de la variación total ha sido explicada por el modelo de regresión lineal.

2.15. Prueba de hipótesis para r:

Hipótesis nula: H0 : ρ = 0
Hipótesis alternativa: H1 : ρ 6= 0
Al reemplazar los valores en el estadı́stico(14) correspondiente se obtiene:

t = −12,12874 (25)

El valor de t(0,025) = −1,973381 con 178 grados de libertad, como el valor de t(0,025) > t rechazamos la H0
y aceptamos la H1 , entonces podemos decir que existe una correlacion significativa.

8
2.16. Análisis de varianza (ANOVA):

Planteo de la hipótesis:
Hipótesis nula: H0 : β1 = 0
Hipótesis alternativa: H1 : β1 6= 0
SSE = 436,981
SSR=361.1385
SST=798.1195
MSE=2.4549

Suma de cuadrados
Fuente de variación Grados de libertad Suma de cuadrados Estadı́stico
medios
Regresión 1 361.1385 361.1385
147.1092
Error residual 178 436.981 2.4549
Total 179 798.1195

Cuadro 2: ANOVA para regresión lineal

Dado el p-valor, de 147.11, con α = 0,05, v1 = 1 y v2 = 12 es 2.2e-16*** y es altamente significativo


rechazamos la H0 , y se acepta la H1 .

3. Conclusiones

El dı́ametro de fibra disminuye a medida que su ı́ndice de curvatura aumenta.


Ambas variables estan relacionadas.
El análisis de regresión lineal es una técnica estadı́stica ampliamente utiliazada en diferentes campos de la
investigación donde se quiera determinar la relación funcional entre dos variables.
El uso de paquetes estádisticos simplifica considerablemente el proceso de cálculos manuales, pero la correcta
interpretación de los resultados dependeran de nuestra preparación y experiancia para poder tomar desiciones
acertadas y oportunas.

4. Anexos

4.1. Comandos en RStudio

Primero debemos tener nuestros datos, ya sea en un archivo en texto plano, tipo CSV o una hoja de cálculo
de MS Excel, dependiendo del método con el que vamos a importar nuestros datos, en el presente trabajo
usaremos la que considero más sencilla que es usar el comando clipboard a partir de una hoja de cálculo de
MS Excel, acontinuación mostramos el Rscript para los cálculos necesarios y la salida en consola para los
resultados.
#i m p o r t a r d a t o s
d a t o s=read . table ( ” c l i p b o a r d ” , h e a d e r = T)
attach ( d a t o s )

9
datos
IC
DF
n=length ( IC )
n
r e g r e s i o n=lm(DF˜IC , data=d a t o s )
plot ( IC , DF, x l a b=” I n d i c e de c u r v a t u r a ” , y l a b=” Diametro de f i b r a ” , main=” Diagrama de
d i s p e r s i o n Diametro de f i b r a − I n d i c e de c u r v a t u r a ” )
abline ( r e g r e s i o n )
#E s t i m a c i o n d e l modelo l i n e a l , x=IC ( i n d i c e de c u r v a t u r a ) , y = DF ( d i a m e t r o de f i b r a )
#B1
mx = mean( IC )
my = mean(DF)
mx
my

b1 = sum( ( IC − mx) ∗ (DF − my) ) /sum( ( IC − mx) ˆ 2 )


b1
#B0
b0 = my − b1∗mx
b0
#c a l c u l o de c o e f i c i e n t e de c o r r e l a c i o n
xy = sum( IC∗DF)
sumx = sum( IC )
sumy = sum(DF)
x2 = sum( IC ˆ 2 )
y2 = sum(DFˆ 2 )
xy #p r o d u c t o de x por y
sumx #s u m a t o r i a de x
sumy #s u m a t o r i a de y
x2 #s u m a t o r i a de x ˆ2
y2 #s u m a t o r i a de y ˆ2
#c o e f i c i e n t e de c o r r e l a c i o n
r =(n∗xy − sumx∗sumy ) /sqrt ( ( n∗x2−sumx ˆ 2 ) ∗ ( n∗y2−sumy ˆ 2 ) )
r
#c a l c u l o de c o e f i c i e n t e de d e t e r m i n a c i o n
R=r ˆ2∗100
R
#p r u e b a de h i p o t e s i s para b1
sxx = sxx=sum( ( IC−mx) ˆ 2 ) #c o v a r i a n z a de x
s s e = sum( ( b0+b1∗IC−DF) ˆ 2 ) #Suma de c u a d r a d o s de e r r o r
mse = s s e / ( n−2) #Error medio c u a d r t i c o .

sxx
sse
mse

t=b1/sqrt ( mse/ sxx )


t
#p r u e b a de h i p o t e s i s para b0
#S=s q r t ( mse )
tb0=b0/sqrt ( ( mse∗x2 ) / ( n∗ sxx ) )

#t b 0=b0/ ( S∗ s q r t ( ( 1 /n ) +(mxˆ2/ s x x ) ) )

#Pueba de h i p o t e s i s para l a p e n d i e n t e
SE=sqrt ( mse/ sxx )
t a 2=qt ( 0 . 0 2 5 , n−2)
#i n t e r v a l o
b1−t a 2 ∗SE
b1+t a 2 ∗SE

10
#p r u e b a de h i p o t e s i s para r
t r=r /sqrt ((1 − r ˆ 2 ) / ( n−2) )
tr

#anova

s s r=sum( ( b0+b1∗IC−my) ˆ 2 )

s s t=s s r+s s e

qf ( 0 . 9 5 , 1 , 1 7 8 )

#c a l c u l o s s i m p l i f i c a d o s usando d i r e c t a m e n t e comandos de R

coef ( r e g r e s i o n )
summary( r e g r e s i o n )
cor (DF, IC )
cor . t e s t (DF, IC )
confint ( regresion )
anova ( r e g r e s i o n )

#s a l i d a en t e r m i n a l

> n=length ( IC )
> n
[ 1 ] 180
> r e g r e s i o n=lm(DF˜IC , data=d a t o s )
> plot ( IC , DF, x l a b=” I n d i c e de c u r v a t u r a ” , y l a b=” Diametro de f i b r a ” , main=” Diagrama de
d i s p e r s i o n Diametro de f i b r a − I n d i c e de c u r v a t u r a ” )
> abline ( r e g r e s i o n )
> #E s t i m a c i o n d e l modelo l i n e a l , x=IC ( i n d i c e de c u r v a t u r a ) , y = DF ( d i a m e t r o de f i b r a )
> #B1
> mx = mean( IC )
> my = mean(DF)
> mx
[ 1 ] 29.80278
> my
[ 1 ] 19.60111
>
> b1 = sum( ( IC − mx) ∗ (DF − my) ) /sum( ( IC − mx) ˆ 2 )
> b1
[ 1 ] −0.1139677
> #B0
> b0 = my − b1∗mx
> b0
[ 1 ] 22.99767
> #c a l c u l o de c o e f i c i e n t e de c o r r e l a c i o n
> xy = sum( IC∗DF)
> sumx = sum( IC )
> sumy = sum(DF)
> x2 = sum( IC ˆ 2 )
> y2 = sum(DFˆ 2 )
> xy #p r o d u c t o de x por y
[ 1 ] 101981.4
> sumx #s u m a t o r i a de x
[ 1 ] 5364.5
> sumy #s u m a t o r i a de y
[ 1 ] 3528.2
> x2 #s u m a t o r i a de x ˆ2
[ 1 ] 187681.2
> y2 #s u m a t o r i a de y ˆ2

11
[ 1 ] 69954.76
> #c o e f i c i e n t e de c o r r e l a c i o n
> r =(n∗xy − sumx∗sumy ) /sqrt ( ( n∗x2−sumx ˆ 2 ) ∗ ( n∗y2−sumy ˆ 2 ) )
> r
[ 1 ] −0.6726714
> #c a l c u l o de c o e f i c i e n t e de d e t e r m i n a c i o n
> R=r ˆ2∗100
> R
[ 1 ] 45.24867
> #p r u e b a de h i p o t e s i s para b1
> sxx = sxx=sum( ( IC−mx) ˆ 2 ) #c o v a r i a n z a de x
> s s e = sum( ( b0+b1∗IC−DF) ˆ 2 ) #Suma de c u a d r a d o s de e r r o r
> mse = s s e / ( n−2) #Error medio c u a d r t i c o .
>
> sxx
[ 1 ] 27804.19
> sse
[ 1 ] 436.981
> mse
[ 1 ] 2.45495
>
> t=b1/sqrt ( mse/ sxx )
> t
[ 1 ] −12.12874
> #p r u e b a de h i p o t e s i s para b0
> #S=s q r t ( mse )
> tb0=b0/sqrt ( ( mse∗x2 ) / ( n∗ sxx ) )
>
> #t b 0=b0/ ( S∗ s q r t ( ( 1 /n ) +(mxˆ2/ s x x ) ) )
>
> #Pueba de h i p o t e s i s para l a p e n d i e n t e
> SE=sqrt ( mse/ sxx )
> t a 2=qt ( 0 . 0 2 5 , n−2)
> #i n t e r v a l o
> b1−t a 2 ∗SE
[ 1 ] −0.09542483
> b1+t a 2 ∗SE
[ 1 ] −0.1325106
>
> #p r u e b a de h i p o t e s i s para r
> t r=r /sqrt ((1 − r ˆ 2 ) / ( n−2) )
> tr
[ 1 ] −12.12874
>
>
> #anova
>
> s s r=sum( ( b0+b1∗IC−my) ˆ 2 )
>
> s s t=s s r+s s e
>
> qf ( 0 . 9 5 , 1 , 1 7 8 )
[ 1 ] 3.894232
>
> #c a l c u l o s s i m p l i f i c a d o s usando d i r e c t a m e n t e comandos de R
>
> coef ( r e g r e s i o n )
( Intercept ) IC
22.9976653 −0.1139677
> summary( r e g r e s i o n )

Call :

12
lm( formula = DF ˜ IC , data = d a t o s )

Residuals :
Min 1Q Median 3Q Max
−3.6388 −1.1600 −0.1867 1.1854 4.0975

Coefficients :
E s t i m a t e Std . E r r o r t v a l u e Pr ( >| t | )
( Intercept ) 22.997665 0.303417 75.80 <2e −16 ∗∗∗
IC −0.113968 0 . 0 0 9 3 9 7 −12.13 <2e −16 ∗∗∗
−−−
S i g n i f . codes : 0 ∗∗∗ 0.001 ∗∗ 0.01 ∗ 0.05 . 0.1 1

R e s i d u a l s t a n d a r d e r r o r : 1 . 5 6 7 on 178 d e g r e e s o f freedom
M u l t i p l e R−s q u a r e d : 0.4525 , Adjusted R−s q u a r e d : 0.4494
F− s t a t i s t i c : 1 4 7 . 1 on 1 and 178 DF, p−v a l u e : < 2 . 2 e −16

> cor (DF, IC )


[ 1 ] −0.6726714
> cor . t e s t (DF, IC )

Pearson ’ s product−moment c o r r e l a t i o n

data : DF and IC
t = −12.129 , d f = 1 7 8 , p−v a l u e < 2 . 2 e −16
a l t e r n a t i v e h y p o t h e s i s : t r u e c o r r e l a t i o n i s not e q u a l t o 0
95 p e r c e n t c o n f i d e n c e i n t e r v a l :
−0.7455793 −0.5838515
sample e s t i m a t e s :
cor
−0.6726714

> confint ( regresion )


2.5 % 97.5 %
( In te rc ept ) 22.3989074 23.59642314
IC −0.1325106 −0.09542483
> anova ( r e g r e s i o n )
A n a l y s i s o f V a r i a n c e Table

Response : DF
Df Sum Sq Mean Sq F v a l u e Pr(>F)
IC 1 3 6 1 . 1 4 3 6 1 . 1 4 1 4 7 . 1 1 < 2 . 2 e −16 ∗∗∗
R e s i d u a l s 178 4 3 6 . 9 8 2.45
−−−
S i g n i f . codes : 0 ∗∗∗ 0.001 ∗∗ 0.01 ∗ 0.05 . 0.1 1
>

Tabla 1. Datos de variables de alpacas en estudio.

13
Obs PROCED. RAZA SEXO DF IC FC CV FH CONFORT
1 PARINA HUACAYA MACHOS 17.99 42.1 100 17.9 17.07 10
2 PARINA HUACAYA MACHOS 16.28 57.6 100 22.4 15.98 10
3 PARINA HUACAYA MACHOS 22.24 35.8 94.8 20.7 18.74 9.7365
4 PARINA HUACAYA MACHOS 17.35 44.3 100 18.4 16.53 10
5 PARINA HUACAYA MACHOS 20.22 45.2 98.6 19.3 19.4 9.9298
6 PARINA HUACAYA MACHOS 17 45.3 100 20.4 16.45 10
7 PARINA HUACAYA MACHOS 19.14 46.8 99.3 18.9 18.31 9.9649
8 PARINA HUACAYA MACHOS 15.8 40.8 100 21.1 15.39 10
9 PARINA HUACAYA MACHOS 15.79 45.1 100 21.9 15.49 10
10 PARINA HUACAYA MACHOS 17.81 38.6 99.4 22 17.48 9.97
11 PARINA HUACAYA MACHOS 18.93 42.1 99 20.8 18.4 9.9499
12 PARINA HUACAYA MACHOS 15.92 46.9 100 22.2 15.66 10
13 PARINA HUACAYA MACHOS 20.11 35.2 98.9 19.2 19.29 9.9448
14 PARINA HUACAYA MACHOS 20.7 39.2 97 20.7 20.09 9.8489
15 PARINA HUACAYA MACHOS 17.15 40.5 100 20.3 16.59 10
16 PARINA HUACAYA HEMBRAS 18.12 36.2 99.2 21.9 17.77 9.9599
17 PARINA HUACAYA HEMBRAS 19.45 30.9 97.4 23.7 19.4 9.8691
18 PARINA HUACAYA HEMBRAS 21.56 35.3 96.8 19.4 20.7 9.8387
19 PARINA HUACAYA HEMBRAS 18.43 41.1 99.3 20.9 17.92 9.9649
20 PARINA HUACAYA HEMBRAS 20.31 37.7 97.6 20.2 19.63 9.8793
21 PARINA HUACAYA HEMBRAS 15.11 49.5 100 22.9 14.96 10
22 PARINA HUACAYA HEMBRAS 16.83 38.9 100 22.3 16.56 10
23 PARINA HUACAYA HEMBRAS 17.27 41.4 100 19 16.54 10
24 PARINA HUACAYA HEMBRAS 18.76 42.1 99.2 20.1 18.12 9.9599
25 PARINA HUACAYA HEMBRAS 18.9 39.3 99.1 20.2 18.27 9.9549
26 PARINA HUACAYA HEMBRAS 19.6 40.8 98.3 21.8 19.21 9.9146
27 PARINA HUACAYA HEMBRAS 17.69 46 99.7 20.4 17.13 9.985
28 PARINA HUACAYA HEMBRAS 17.29 46.5 100 19.2 16.58 10
29 PARINA HUACAYA HEMBRAS 17.37 49.4 100 19.1 16.64 10
30 PARINA HUACAYA HEMBRAS 17.75 44.8 99.8 18.7 16.96 9.99
31 PARINA SURI MACHOS 22.46 17.4 93.7 20 21.67 9.6799
32 PARINA SURI MACHOS 20.12 16.3 98 20.3 19.97 9.8995
33 PARINA SURI MACHOS 17.85 23.3 99.4 23.7 17.8 9.97
34 PARINA SURI MACHOS 22.12 16.1 92.3 24.5 22.22 9.6073
35 PARINA SURI MACHOS 21.8 19.5 95.5 19.4 20.93 9.7724
36 PARINA SURI MACHOS 19.85 17.7 96.8 23.9 19.83 9.8387
37 PARINA SURI MACHOS 20.85 15.9 95.8 21.6 20.39 9.7877
38 PARINA SURI MACHOS 20.59 17.7 96.1 23.6 20.51 9.8031
39 PARINA SURI MACHOS 23.07 12.3 95.6 18.2 21.94 9.7775
40 PARINA SURI MACHOS 22.63 17.5 93.1 22 22.23 9.6488
41 PARINA SURI MACHOS 18.79 19.1 99.4 19.9 18.11 9.97
42 PARINA SURI MACHOS 19.26 25.2 96.9 23.5 19.17 9.8438
43 PARINA SURI MACHOS 18.38 23 99.4 19.1 17.61 9.97
44 PARINA SURI MACHOS 19.95 17 96.6 24.7 20.07 9.8285
45 PARINA SURI MACHOS 19.95 14.6 98.5 19.7 19.21 9.9247
46 PARINA SURI HEMBRAS 19.82 15.2 98.1 19.6 19.06 9.9045
47 PARINA SURI HEMBRAS 19.69 17.8 98.1 19.5 18.93 9.9045
48 PARINA SURI HEMBRAS 18.18 17.9 99.3 22.1 17.87 9.9649

14
Obs PROCED. RAZA SEXO DF IC FC CV FH CONFORT
49 PARINA SURI HEMBRAS 16.72 24.8 100 21.2 16.3 10
50 PARINA SURI HEMBRAS 21.31 21.1 93.7 23.6 21.24 9.6799
51 PARINA SURI HEMBRAS 22.22 16.7 89.8 26.3 22.71 9.4763
52 PARINA SURI HEMBRAS 22.36 17.6 92.6 22.6 22.07 9.6229
53 PARINA SURI HEMBRAS 22.12 19.6 95.7 18.8 21.13 9.7826
54 PARINA SURI HEMBRAS 22.88 18.6 90.3 23.6 22.78 9.5026
55 PARINA SURI HEMBRAS 22.3 18.6 93.7 21.4 21.78 9.6799
56 PARINA SURI HEMBRAS 21.65 18.4 93.4 23.8 21.61 9.6644
57 PARINA SURI HEMBRAS 21.29 18.8 95.8 20.8 20.69 9.7877
58 PARINA SURI HEMBRAS 22.32 18 92.2 23.6 22.23 9.6021
59 PARINA SURI HEMBRAS 19.86 19.5 97.5 21.9 19.48 9.8742
60 PARINA SURI HEMBRAS 21.86 21.7 95.3 20.5 21.18 9.7622
61 TEXCI HUACAYA MACHOS 17.53 39.4 99.8 19 16.78 9.99
62 TEXCI HUACAYA MACHOS 17.57 39.3 99.8 18.2 16.71 9.99
63 TEXCI HUACAYA MACHOS 19.74 40.3 98.7 19.7 19.01 9.9348
64 TEXCI HUACAYA MACHOS 16.96 42.5 100 21.4 16.56 10
65 TEXCI HUACAYA MACHOS 22.62 37.2 93.8 20.1 21.84 9.685
66 TEXCI HUACAYA MACHOS 17.62 41.2 99.5 22.2 17.34 9.975
67 TEXCI HUACAYA MACHOS 20.81 29.5 94.8 23.3 20.68 9.7365
68 TEXCI HUACAYA MACHOS 16.82 47.5 100 19.9 16.23 10
69 TEXCI HUACAYA MACHOS 18.63 43.5 99.5 19.3 17.87 9.975
70 TEXCI HUACAYA MACHOS 20.54 32.4 98.1 18.7 19.62 9.9045
71 TEXCI HUACAYA MACHOS 17.63 45.8 99.8 19.9 17 9.99
72 TEXCI HUACAYA MACHOS 16.7 40.8 100 21.2 16.28 10
73 TEXCI HUACAYA MACHOS 17.62 41.1 99.9 19.7 16.96 9.995
74 TEXCI HUACAYA MACHOS 17.65 46.1 99.8 22.6 17.41 9.99
75 TEXCI HUACAYA MACHOS 18.11 49.6 99.5 22.6 17.87 9.975
76 TEXCI HUACAYA HEMBRAS 16.19 48.2 100 22.3 15.94 10
77 TEXCI HUACAYA HEMBRAS 17.22 48.3 100 18 16.36 10
78 TEXCI HUACAYA HEMBRAS 21.65 35.4 96.6 18 20.55 9.8285
79 TEXCI HUACAYA HEMBRAS 21.66 35.2 94.6 22.4 21.34 9.7263
80 TEXCI HUACAYA HEMBRAS 17.36 44.1 100 20.4 16.81 10
81 TEXCI HUACAYA HEMBRAS 17.13 43.3 100 20.3 16. 57 10
82 TEXCI HUACAYA HEMBRAS 15.81 50.4 100 22.4 15.57 10
83 TEXCI HUACAYA HEMBRAS 18.84 33.8 99 19.9 18.17 9.9499
84 TEXCI HUACAYA HEMBRAS 16.95 40.5 100 20 16.36 10
85 TEXCI HUACAYA HEMBRAS 20.21 42.5 97.6 21.2 19.7 9.8793
86 TEXCI HUACAYA HEMBRAS 18.08 38.5 99.5 21.6 17.7 9.975
87 TEXCI HUACAYA HEMBRAS 19.64 40.3 97.6 21.8 19.26 9.8793
88 TEXCI HUACAYA HEMBRAS 18.92 33.5 98.8 21.5 18.49 9.9398
89 TEXCI HUACAYA HEMBRAS 21.18 37.1 94.6 22.6 20.91 9.7263
90 TEXCI HUACAYA HEMBRAS 20.23 28.5 97.6 21.1 19.7 9.8793
91 TEXCI SURI MACHOS 19.12 16.1 98.4 24 19.12 9.9197
92 TEXCI SURI MACHOS 19.59 14.9 98 23.2 19.44 9.8995
93 TEXCI SURI MACHOS 19.64 16.2 97.8 21.7 19.23 9.8894
94 TEXCI SURI MACHOS 18.75 20.5 98.9 20.1 18.11 9.9448
95 TEXCI SURI MACHOS 19.88 18.4 97.5 22.2 19.56 9.8742
96 TEXCI SURI MACHOS 18.55 21.1 98.9 20.8 18.03 9.9448
97 TEXCI SURI MACHOS 23.73 16 91.1 21.3 23.15 9.5446

15
Obs PROCED. RAZA SEXO DF IC FC CV FH CONFORT
98 TEXCI SURI MACHOS 18.63 19.7 99 20.9 18.12 9.9499
99 TEXCI SURI MACHOS 19.72 24.3 96.8 23.1 19.55 9.8387
100 TEXCI SURI MACHOS 23.4 15 88.6 24.2 23.45 9.4128
101 TEXCI SURI MACHOS 20.68 18.9 96.7 21.1 20.14 9.8336
102 TEXCI SURI MACHOS 22.53 16.1 92.8 22.3 22.17 9.6333
103 TEXCI SURI MACHOS 23 16.7 92.8 21.2 22.42 9.6333
104 TEXCI SURI MACHOS 22.24 15.4 94.6 20.5 21.55 9.7263
105 TEXCI SURI MACHOS 22.49 15.9 92.1 23 22.28 9.5969
106 TEXCI SURI HEMBRAS 16.92 21.4 100 21.9 16.6 10
107 TEXCI SURI HEMBRAS 18.11 18.2 99.3 21.7 17.73 9.9649
108 TEXCI SURI HEMBRAS 20.76 19.8 97.8 18.3 19.76 9.8894
109 TEXCI SURI HEMBRAS 20.94 20.4 96.2 21.9 20.54 9.8082
110 TEXCI SURI HEMBRAS 20.6 16.3 95.7 22.6 20.33 9.7826
111 TEXCI SURI HEMBRAS 20.58 19.1 94.5 24.1 20.59 9.7211
112 TEXCI SURI HEMBRAS 21.55 17.4 93.8 23.3 21.41 9.685
113 TEXCI SURI HEMBRAS 21.38 17.2 95.1 22 22.78 9.7519
114 TEXCI SURI HEMBRAS 17.44 20.8 100 21.4 17.04 10
115 TEXCI SURI HEMBRAS 22.85 17.2 91.1 22.5 22.54 9.5446
116 TEXCI SURI HEMBRAS 22 18.6 94.4 20.8 21.37 9.716
117 TEXCI SURI HEMBRAS 20.7 15.4 96.5 21.2 20.18 9.8234
118 TEXCI SURI HEMBRAS 20.44 15.6 96.7 21.5 19.99 9.8336
119 TEXCI SURI HEMBRAS 17.81 20.4 99.4 22.8 17.62 9.97
120 TEXCI SURI HEMBRAS 23.17 17.6 88 25.7 23.54 9.3808
121 PUCA HUACAYA MACHOS 16.87 42.9 100 19.2 16.18 10
122 PUCA HUACAYA MACHOS 23.3 33.3 92.2 20.5 22.59 9.6021
123 PUCA HUACAYA MACHOS 18.86 38.7 99.2 19.4 18.12 9.9599
124 PUCA HUACAYA MACHOS 19.26 40.5 98.6 20.5 18.67 9.9298
125 PUCA HUACAYA MACHOS 21.17 38.9 97.7 19.6 20.37 9.8843
126 PUCA HUACAYA MACHOS 20.97 35.6 95.7 21.3 20.47 9.7826
127 PUCA HUACAYA MACHOS 17.3 44.1 100 20.6 16.77 10
128 PUCA HUACAYA MACHOS 16.05 54.4 100 23.5 16.73 10
129 PUCA HUACAYA MACHOS 18.6 39.9 99.6 19.3 17.85 9.98
130 PUCA HUACAYA MACHOS 19.41 41.9 97.8 21 18.89 9.8894
131 PUCA HUACAYA MACHOS 18.48 43.4 99.3 20.1 17.84 9.9649
132 PUCA HUACAYA MACHOS 19.02 36.8 99.4 19.8 18.32 9.97
133 PUCA HUACAYA MACHOS 16.44 45.7 100 20.5 15.93 10
134 PUCA HUACAYA MACHOS 18.84 37.8 98 23.4 18.74 9.8995
135 PUCA HUACAYA MACHOS 16.91 41.4 100 19.1 16.2 10
136 PUCA HUACAYA HEMBRAS 16.89 38.7 100 20 16.3 10
137 PUCA HUACAYA HEMBRAS 16.39 47.9 100 19.3 15.72 10
138 PUCA HUACAYA HEMBRAS 17.31 44.9 100 21.9 16.98 10
139 PUCA HUACAYA HEMBRAS 17.46 46.6 100 19.4 16.76 10
140 PUCA HUACAYA HEMBRAS 20.64 44.4 98.8 17.8 19.57 9.9398
141 PUCA HUACAYA HEMBRAS 22.34 33.3 91.1 24.3 22.4 9.5446
142 PUCA HUACAYA HEMBRAS 20 47.5 99.2 18.3 19.03 9.9599
143 PUCA HUACAYA HEMBRAS 20.09 31 95.4 25.2 20.31 9.7673
144 PUCA HUACAYA HEMBRAS 20.08 34.3 96.7 22.5 19.81 9.8336
145 PUCA HUACAYA HEMBRAS 19.12 41.2 99.1 21.8 18.13 9.9549
146 PUCA HUACAYA HEMBRAS 17.07 45.3 100 20.5 16.55 10

16
Obs PROCED. RAZA SEXO DF IC FC CV FH CONFORT
147 PUCA HUACAYA HEMBRAS 19.61 40.9 98.4 22.4 19.32 9.9197
148 PUCA HUACAYA HEMBRAS 17.55 40.8 99.8 19.9 16.92 9.99
149 PUCA HUACAYA HEMBRAS 17.36 45.6 100 21 16.89 10
150 PUCA HUACAYA HEMBRAS 15.94 53.2 100 20.8 15.49 10
151 PUCA SURI MACHOS 19.59 19.2 98.8 19.1 18.77 9.9398
152 PUCA SURI MACHOS 22.84 14.8 96.3 17.8 21.66 9.8133
153 PUCA SURI MACHOS 22.26 16.6 95.8 19.2 21.35 9.7877
154 PUCA SURI MACHOS 22.25 14.3 95.2 19.8 21.44 9.757
155 PUCA SURI MACHOS 19.83 16.3 98.4 19.3 19.04 9.9197
156 PUCA SURI MACHOS 19.96 18.1 96.3 22.9 19.75 9.8133
157 PUCA SURI MACHOS 17.79 25.5 99.4 23.6 17.71 9.96995
158 PUCA SURI MACHOS 18.59 19 99.3 20 17.94 9.96494
159 PUCA SURI MACHOS 21.07 19.2 96.1 21 20.51 9.80306
160 PUCA SURI MACHOS 21.96 19.5 93.3 22 21.56 9.65919
161 PUCA SURI MACHOS 20.28 17.9 96.4 22.2 19.95 9.81835
162 PUCA SURI MACHOS 23 17.9 89.9 23.9 22.97 9.48156
163 PUCA SURI MACHOS 19.84 18.5 98 19.7 19.1 9.89949
164 PUCA SURI MACHOS 22.64 16.1 92.5 22.3 22.28 9.61769
165 PUCA SURI MACHOS 21.35 15.5 94.9 22 20.96 9.74166
166 PUCA SURI HEMBRAS 25.28 13.7 82.5 24.7 25.45 9.08295
167 PUCA SURI HEMBRAS 19.38 20.4 98.2 22.8 19.17 9.90959
168 PUCA SURI HEMBRAS 20.88 17.6 94 24.9 21.06 9.69536
169 PUCA SURI HEMBRAS 20.02 15.3 95.7 24.5 20.11 9.78264
170 PUCA SURI HEMBRAS 21.77 17.4 91.4 25.5 22.09 9.56033
171 PUCA SURI HEMBRAS 18.54 19 99.2 21.2 18.08 9.95992
172 PUCA SURI HEMBRAS 20.13 20.8 97 23 19.94 9.84886
173 PUCA SURI HEMBRAS 19.81 16.1 96.1 24.5 19.91 9.80306
174 PUCA SURI HEMBRAS 19.92 15.7 95.5 24.8 20.06 9.77241
175 PUCA SURI HEMBRAS 20.26 16.6 95.6 23.9 20.24 9.77753
176 PUCA SURI HEMBRAS 23.98 15.8 88.1 22.7 23.69 9.38616
177 PUCA SURI HEMBRAS 24.13 15.5 87.7 23.2 23.94 9.36483
178 PUCA SURI HEMBRAS 19.47 18.7 98.1 21.4 19.02 9.90454
179 PUCA SURI HEMBRAS 18.88 21.8 98.9 21.1 18.39 9.94485
180 PUCA SURI HEMBRAS 19.23 22.1 98.2 21.9 18.86 9.90959
Nota: DF. Diametro de fibra, IC. Índice de curvatura, FC. Factor de confort, CV. Coeficiente de variación,
FH. Finura de hilado.

Referencias

[1] Flores Gutiérrez, Alfonso, “Determinación del diámetro de fibra y longitud de mecha en alpacas (Lama
pacos), de la provincia de Tarata – Tacna”, editorial, etc

[2] Wikipedia, “Regresión lineal”, https://es.wikipedia.org/wiki/Regresión lineal

[3] Ronald E., “Probabilidad y estadı́stica para ingenierı́a y ciencias”, PEARSON EDUCACIÓN, 2012

[4] William Mendenhall., “Introducción a la probabilidad y estadı́stica”, CENGAGE Learning, 2010

17
[5] DOUGLAS C. MONTGOMERY., “Introducción al análisis de regresión lineal”, EDITORIAL CONTI-
NENTAL, 2006

18

También podría gustarte