Está en la página 1de 61

Lección

Inferencia
2: estadística
Objetivos

A partir de las características (media, varianza, etc.) observadas en una


muestra, se desea conocer las mismas estadísticas para la población entera.

Las técnicas que permiten pasar de los valores observados en la muestra a


los parámetros desconocidos de la población pertenecen a la teoría de la
estimación. La operación intelectual que se hace en la estimación lleva el
nombre de “inferencia estadística”.

La estimación consiste en una elección / decisión en presencia de incertidumbre


(sólo se ha observado una muestra de la población), no es una deducción.
Objetivos

La problemática general es la siguiente:

• Se dispone de una muestra independiente (X1,... Xn) procedente de una


variable aleatoria X cuya distribución depende de un parámetro 
desconocido (o, quizás, de varios parámetros).

• Se busca un estadístico T = (X1,... Xn) tal que el valor observado

ˆ(x1,... xn )

puede ser considerado una estimación de . La variable aleatoria T se llama


estimador de . La función  no debe depender analíticamente del parámetro
 a estimar.
Objetivos

Ejemplo

Sea X una variable aleatoria de media  desconocida

• T = X1 es un estimador de 

• T = X1 + 3 X2 es otro estimador de 

• T = X1 + X2 /  no es un estimador de , pues depende de 

Ahora, acotaremos la definición del estimador al dar las propiedades interesantes


que debería tener en relación con el parámetro a estimar.
Propiedades de un estimador

Consistencia: la precisión de la estimación es cada vez mejor cuando el tamaño de


la muestra aumenta, o sea, T converge en probabilidad hacia  cuando n tiende a
infinito.

Ejemplo: si X tiene una esperanza  desconocida y una varianza finita, entonces


el valor promedio (media experimental) de la muestra es un estimador consistente
de la esperanza matemática , acorde a la ley de los grandes números.

Más generalmente, el momento empírico de una muestra es un estimador


consistente del momento teórico de la variable aleatoria correspondiente. Esto da
lugar al método de estimación conocido como método de los momentos.
Propiedades de un estimador

Insesgo: el sesgo de un estimador T se define como el valor esperado del “error”


T – .

El estimador es insesgado si tiene un sesgo igual a cero. Significa que no se


tiende ni a sobre-estimar ni sub-estimar el parámetro desconocido.

Un estimador es asintóticamente insesgado si su sesgo tiende a 0 cuando


el tamaño de la muestra tiende a infinito. Un estimador consistente es
asintóticamente insesgado.
Propiedades de un estimador

Ejemplos

• T = X1 es un estimador insesgado de la esperanza 

• T = X1 + 3 es un estimador sesgado de la esperanza 


n
1
• T ∑ (media aritmética) es un estimador insesgado de 
n i1
Xni

T  n  X i (media geométrica) es un estimador sesgado de 
i1

• T = S2 (varianza empírica) es un estimador insesgado de la varianza  2

• T = S es un estimador sesgado de la desviación estándar .


Propiedades de un estimador

Optimalidad: además de la condición de insesgo, se suele buscar estimadores


que tienen la varianza mínima:

var(T )  var(T  )

Esto corresponde a la intuición de maximizar la precisión, dado que la varianza


mide la amplitud que puede tener el error T – .
Propiedades de un estimador

Ejemplo: sea X variable aleatoria de esperanza  desconocida y varianza 2 ;


sea (X1,... Xn) una muestra de X

• T = X1 es un estimador insesgado de ; su varianza es  2

• T = (X1 + X2) / 2 es otro estimador insesgado de ; su varianza es  2 / 2

• T = X es un mejor estimador aún, puesto que su varianza es  2 /n


Propiedades de un estimador

Desigualdad de Cramer-Rao

Sea X una variable aleatoria continua, con densidad de probabilidad


f(x,) (dependiente de un parámetro desconocido  cuyo valor está en R
o en un intervalo de R).

Si f(x,) cumple ciertas condiciones de regularidad y T es un estimador


insesgado de , entonces se tiene la siguiente desigualdad:
Propiedades de un estimador

Ejemplo 1

Si X sigue una distribución normal de varianza  2 y esperanza 


desconocida, se obtiene

2
var(T ) 
 n

de modo que X es el mejor estimador posible de .

El mismo resultado se obtiene con una distribución de Poisson con esperanza


m
desconocida: X es el estimador de  con varianza mínima.
Propiedades de un estimador

A veces, se introduce la eficiencia de un estimador, como la razón entre la


varianza de este estimador y el límite de la desigualdad de Cramer-Rao.

Esta razón siempre es mayor o igual a 1.


Propiedades de un estimador

Suficiencia: sea X una variable aleatoria con una densidad de


probabilidad f(x,) que depende de un parámetro desconocido , (X1,...
Xn) una muestra independiente de X, T = (X1,... Xn) un estimador de 
cuya densidad de probabilidad es g(t,).

El estimador constituye un estadístico suficiente o exhaustivo para  si la


densidad de probabilidad de la muestra condicional a T no depende de . En
otras palabras, T es un “resumen” exhaustivo de la información contenida en
la muestra, con respecto al parámetro .
Propiedades de un estimador

Teorema de factorización

T es suficiente para  si y sólo si la verosimilitud de la muestra L(x1,x2,... xn;)


se factoriza como sigue:

L(x1,... xn ;)  g(t, ) h(x1,... xn )

n
con L(x1 ,... xn ;)   f(xi , )
i1
Propiedades de un estimador

Ejemplo: sea X variable aleatoria Gaussiana de esperanza  desconocida


y varianza 2 ; sea (X1,... Xn) una muestra de X

• T = X1 no es un estadístico suficiente para 


(se pierde información al tomar solamente el primer individuo de la población
como estimador de la esperanza)

• T = mediana (X1,... Xn) tampoco es suficiente

• T = X sí es un estadístico suficiente para 


No siempre existe un estadístico suficiente para un parámetro  (sólo para
algunos tipos de distribuciones y algunos tipos de parámetros)
Propiedades de un estimador

Caracterización de los estimadores insesgados y de varianza mínima

Sea X una variable aleatoria con una densidad de probabilidad f(x,) que
depende de un parámetro desconocido , (X1,... Xn) una muestra de X, T =
(X1,... Xn) un estimador insesgado de .

• Si T es de la forma T = (U), donde U es un estadístico suficiente para


, entonces T tiene la varianza mínima.
• Si T no es de la forma (U), entonces el estimador con varianza mínima
es
T* = E(T | U).
Propiedades de un estimador

En resumen, para encontrar el “mejor” estimador posible de un parámetro


, se debe buscar un estimador insesgado y suficiente (que no
“desperdicia” información).

Esta tarea no siempre se puede desarrollar analíticamente, por lo cual existen


enfoques alternativos:

• buscar un estimador que sea una combinación lineal de los valores de


la muestra (X1,... Xn) y que tenga la varianza más baja posible

• buscar un estimador por el método de los momentos

• buscar un estimador por el máximo de verosimilitud


• buscar un estimador por el método Bayesiano
• buscar un intervalo de confianza sobre el parámetro 
Método de los momentos

El método de los momentos consiste en escribir  como una función continua h


de los primeros r momentos poblacionales, esto es,

  h(1,..., r )

donde   E( X k ) es el k-ésimo momento poblacional (no centrado). Luego, se


k
considera como estimador por momentos a

T  h(M1 ,..., M r )
n
1
donde M k  ∑X k
i es el k-ésimo momento muestral.
n i1
Método de los momentos

Ejemplo
Una muestra de tamaño n se selecciona desde una población con
distribución uniforme sobre el intervalo (0,), en que  es desconocido.

El valor de  para una variable aleatoria uniforme es   (X) =  Así,

n
1
  h(1 )  21 y M1  ∑
n i1
Xi  X

Por lo tanto, el estimador por momentos de  es

T  2M1  2 X
Máximo de verosimilitud

Se conoce la forma de la densidad de probabilidad de X, f(x,), que depende


del parámetro desconocido .

Si  fuera conocido (igual a 0), se podría calcular la probabilidad de obtener


cualquier muestra (y1,... yn), suponiendo que las observaciones son independientes
e idénticamente distribuidas:

( y1 ,... yn )  R , L( y1 ,... yn ;0 )


n
 f( y , i 0
 i1 )
Máximo de verosimilitud

La idea es buscar el valor de  que maximiza la probabilidad para la muestra


efectivamente observada (x1,... xn):

n
  L(x1 ,... xn ;)   f(xi ,
buscar ˆque maximiza la función
)
i1

Para este valor ˆ, la muestra observada era la más probable a priori, o la más
“verosímil”. En otras palabras, lo que se realizó era lo que tenía la mayor
probabilidad de realizarse

 procedimiento astuto, aunque discutible


Máximo de verosimilitud

El estimador ˆ es solución del siguiente sistema:


Máximo de verosimilitud

Observaciones

1) Como se maximiza L(x1,... xn ;) con respecto a , el resultado no depende


de , sino que sólo de (x1,... xn). Luego, es un estimador de .

2) En caso de existir varios máximos locales, se elige entre ellos aquel que
proporciona la máxima verosimilitud.
Máximo de verosimilitud

Ejemplo: estimar la esperanza  de una distribución de Poisson

n
L(x1 ,... xn ;)   f(xi , )
i1


n

xi

 exp(n n i1

) x! i
i1

Se obtiene ˆ X : media de la muestra

Es un resultado alentador, pues coincide con un estimador usual.


Máximo de verosimilitud

Propiedad 1: suficiencia y máximo de verosimilitud

Si U es un estadístico suficiente para , entonces el estimador del máximo de


verosimilitud es una función de este estadístico:

ˆf (U )

Consecuencia: si ˆes insesgado, entonces es el estimador de mínima varianza.


Sin embargo, el estimador del máximo de verosimilitud no siempre es insesgado.
Máximo de verosimilitud

Propiedad 2: invarianza funcional

Si  = f(), con una función biyectiva f, entonces

 f (ˆ) ˆ

Ejemplo: supongamos que X tiene una distribución de Poisson de esperanza  y


que se quiere estimar la probabilidad de tener el valor 0. Esta probabilidad es igual
a exp(–), de modo que el estimador por máximo de verosimilitud es:

exp( X )
Máximo de verosimilitud

Propiedad 3: consistencia cuando n  

Bajo ciertas condiciones (generalmente verificadas), se tiene

ˆ  si n  

(convergencia casi segura)


Máximo de verosimilitud

Dadas sus propiedades, el estimador del máximo de verosimilitud ha


sido aceptado en estadística cuando no se puede aplicar la teoría general.

Este estimador siempre es calculable por métodos de análisis numérico, aunque


a veces los cálculos son engorrosos.
Máximo de verosimilitud
Buscar un estadístico suficiente U

SI

Buscar un estimador insesgado T

SI

NO T = f(U )? SI T es el estimador sin sesgo


de varianza mínima
NO

Se puede calcular T * = E (T | U )? SI T * es el estimador sin


sesgo de varianza mínima
NO

* estimador del máximo de verosimilitud

* insesgado? SI * es el estimador sin sesgo


de varianza mínima
NO

n es grande? SI * es cercano al estimador sin sesgo


de varianza mínima
Estimación Bayesiana

El enfoque Bayesiano consiste en definir una distribución de probabilidad a


priori para el parámetro  a estimar, por ejemplo una densidad o una masa
de probabilidad

La distribución traduce las “creencias” (intuición, conocimiento previo) del


usuario sobre los valores de  y es necesariamente subjetiva. Por ejemplo, no
se puede validar mediante experimentos.

Lo interesante de definir probabilidades subjetivas es poder utilizar la famosa


“fórmula de Bayes”.
Estimación Bayesiana

La fórmula de Bayes relaciona las probabilidades condicionales de varios


eventos A1,... An (causas) y B (efecto):

Prob(B | Ai ) Prob( Ai ) Prob(B | Ai )


Prob( A i | B)  Prob(B)  n
Prob( Ai )
∑Prob(B | Aj )
Prob( Aj )
j1

Esta fórmula expresa la modificación aportada por la realización de B sobre la


probabilidad a priori del evento Ai. Por consiguiente, permite formalizar la
modificación de las creencias del usuario, a medida que los eventos que se
realizan aportan nuevas informaciones.
Estimación Bayesiana

Ejemplo
Se desconoce la proporción p de piezas defectuosas en una población. Sin
embargo se dispone de una muestra de 100 piezas elegidas al azar, entre las cuales
se observa k = 3 piezas defectuosas. Se supone además que los estados pi
posibles para p son:

{1%, 2%, 3%, 4%, 5%, 6%,7%}

a los cuales se asocia las probabilidades a priori

{0.01, 0.06, 0.24, 0.38, 0.24, 0.06, 0.01}


Estimación Bayesiana

El hecho de observar k = 3 piezas con defecto, conduce a nuevos valores de


las probabilidades sobre los estados {pi, i = 1... 7}:

Prob(k  3 | pi )
Prob( pi | k  3)  7
Prob( pi )
∑Prob(k  3 | p j ) Prob( p
j)
j1
con (distribución binomial de tamaño 100 y parámetro pi):

Prob(k  3 | p )  C3
p3 (1 p )97
i
100
i
i
Estimación Bayesiana

Se desemboca en las siguientes probabilidades (a posteriori)

{0.003, 0.06, 0.3, 0.415, 0.188, 0.03, 0.004}

Naturalmente, el haber observado k = 3 aumenta la credibilidad de valores


como p = 3 o p = 4. El valor estimado de la proporción p de piezas defectuosas
puede ser aquel cuya probabilidad a posteriori es la más alta, o sea

pˆ  4%

Este estimador difiere del estimador sin sesgo de varianza mínima, que hubiese
sido la proporción observada en la muestra (3%)
Estimación Bayesiana

Vínculo con el máximo de verosimilitud

Se demuestra que el estimador del máximo de verosimilitud coincide con el


estimador Bayesiano cuando la distribución a priori del parámetro  a estimar es
uniforme en un intervalo de R, es decir cuando su densidad de probabilidad es:

1
[a,b], () 
ba

El estimador del máximo de verosimilitud corresponde a suponer implícitamente


que el parámetro a estimar se distribuye uniformemente en un intervalo, o sea
que, a priori, el usuario no puede particulizar ningún valor del intervalo.
Intervalos de confianza

La estimación puntual consiste en tomar como valor de  el valor obtenido por


el estimador, planteando como modelo:

  T (x1 ,... xn )

 no toma en cuenta la incertidumbre en la estimación del parámetro (aunque el


estimador tenga varianza mínima, esta varianza no es 0)

 con otra muestra, se hubiese obtenido un valor distinto de 


Intervalos de confianza

En la práctica, es común buscar acotar el valor de , definiendo dos límites


y precisando el grado de confianza en el intervalo entre estos límites
Intervalos de confianza

Las etapas para determinar un intervalo de confianza son las siguientes:

1) Elegir un estimador T del parámetro 

Es importante buscar un estimador que tenga una varianza pequeña.


En cambio, contrariamente a la estimación “puntual”, no es crucial
que el estimador sea insesgado.

2) Identificar la distribución de probabilidad del estimator g(t,)

Para superar esta etapa, puede ser útil recurrir a la distribución asintótica
como aproximación de la distribución real.
Intervalos de confianza

3) Elegir un grado de confianza: 1 – 

4) Construir un intervalo de confianza sobre T, de medida 1 – 

Este intervalo puede o no ser simétrico. En esta etapa, se tendrá

Prob(t1 ()  T  t2 ())  1 

5) Despejar  y resolver la doble desigualdad

Prob(u1 (T )    u2 (T ))  1 

6) Reemplazar T por su valor t0 en la muestra


Intervalos de confianza

Ejemplo 1: estimación de una media (población de varianza conocida)


Sea una variable X Gaussiana de esperanza  desconocida y de varianza  2
conocida.

La media de la muestra X es el estimador sin sesgo de varianza mínima. Se sabe


además que este estimador tiene una distribución normal:

X
 / n~ N (0,1)
Intervalos de confianza
Intervalos de confianza

Si ahora se despeja , se obtiene (intervalo de


confianza):

Comentarios

•  aparece acotado en un intervalo cuyos límites son aleatorios. Se trata de


un intervalo de confianza para .

• No se trata de un intervalo de probabilidad sobre , puesto que  no es


una variable aleatoria (es un parámetro determinístico)
Intervalos de confianza

• La amplitud del intervalo depende de varios términos:

1) el factor 1.96 proviene del grado de confianza, fijado a 95%

2) el número de individuos n: cuando este número aumenta, el intervalo se


achica y la estimación se vuelve más precisa

3) el factor /n1/2 se debe a la varianza del estimador: el intervalo de


confianza es más angosto cuando el estimador tiene poca varianza,
por lo cual es preferible buscar el estimador de varianza mínima

• Los resultados son robustos frente a desviaciones pequeñas a moderadas de la


distribución normal, siempre que el número de datos (n) sea grande. Esto se
debe a que la media experimental X tiene una distribución aproximadamente Gaussiana
(teorema del límite central).
Intervalos de confianza

Ejemplo 2: estimación de una media (población de varianza desconocida)


Sea ahora una variable X Gaussiana de esperanza  y varianza  2 desconocidas,
de la cual se tiene una muestra independiente (X1,... Xn). Denotemos como X y S2
la media y la varianza experimental de la muestra.

En este caso, se sabe que la variable

Tn1  X   n
S
sigue una distribución de Student con n – 1 grados de
libertad.
Intervalos de confianza

Considerando un grado de confianza de 1 – , un intervalo simétrico en torno a 0


para una Student Tn-1 está dado por [-t/2; t/2], donde t/2 viene dado por la tabla de
la distribución de Student.

Con respecto al caso anterior (varianza de población conocida), basta con


reemplazar  por S y el valor de la normal por el valor de Student de n –
1 grados de libertad.
Intervalos de confianza

Ejemplo 3: estimación de una proporción

Se busca estimar la proporción p de individuos que tienen una propiedad A


dada, a partir de la frecuencia observada en una muestra de tamaño n. Se
supone que n es muy pequeño con respecto al tamaño N de la población o, lo
que es equivalente, que el muestreo se hace con reposición.

Se define la variable aleatoria X, igual a 1 si se cumple la propiedad A, 0 en


caso contrario. Se tiene:
Intervalos de confianza

A los individuos de la muestra, se asocia un conjunto de variables (X1,... Xn)


independientes y de misma distribución que X

Se define la variable aleatoria:


n

S  ∑ Xi
i1

Se demuestra que S es un estadístico exhaustivo para p, luego que F = S/n


(frecuencia empírica de la muestra) es un estimador sin sesgo de
varianza mínima para p. Además, S tiene una distribución binomial de
tamaño n y parámetro p.
Intervalos de confianza

Se puede considerar dos casos:

1) La muestra es pequeña: n < 50

El intervalo de confianza se obtiene según la metodología general,


usando técnicas numéricas basadas en las tablas de la distribución
binomial.

2) La muestra es grande: n  50

La distribución de F = S/n es aproximadamente normal. Su esperanza es p


y su varianza es p (1 – p) / n
Intervalos de confianza

Se define entonces, para una confianza de 1 –


:

donde U es el límite para un intervalo simétrico en la Gaussiana estándar


(U0.05 = 1.96).

En la práctica, se ha observado una frecuencia f (realización de F) Se


debe invertir la relación anterior para despejar p.
Intervalos de confianza

La inversión de la relación anterior proporciona el siguiente intervalo de


confianza:

Prob( pmin  p  pmax )  1 

con
Intervalos de confianza

Cuando n es grande, se puede aproximar el intervalo por la fórmula


más sencilla:

Prob( pmin  p  pmax )  1 

con
Intervalos de confianza

Otro método (más conservador) consiste en acotar la varianza de F

p [0,1], p(1 p)  1/ 4

con lo que se obtiene:

Esta fórmula proporciona el tamaño de la muestra que asegura un intervalo


particular, de ancho pmax – pmin = 2p:

• si  = 0.05 y p = 0.05, entonces n = 400

• si  = 0.05 y p = 0.01, entonces n = 10 000


Caso multivariable:
regiones de confianza
Método de Bonferroni

Al tener varias variables (X1,… Xp), interesa definir intervalos de confianza


simultánea sobre las esperanzas de estas variables. Supongamos que, para
cada variable Xi, se tiene un intervalo de confianza 1 –  sobre su esperanza
i:

Probu1 ( X i )  i  u2 ( X i )   1 

Entonces, usando la desigualdad de Boole:


Caso multivariable:
regiones de confianza

La región rectangular de Rp definida por el producto de los intervalos de


confianza de cada variable Xi, tiene una confianza superior a 1 – p para la
estimación conjunta de las esperanza 1,… p. Para asegurar una confianza
conjunta de 1 – , basta con utilizar intervalos de confianza 1 – /p para
cada variable.

El método de Bonferroni puede ser aplicado cualquiera sea la estructura de


dependencia entre las variables. Se trata además de un método
conservador, pues la confianza obtenida puede ser mayor a 1 – .
Caso multivariable:
regiones de confianza
Método de Sidák

Al suponer que las variables (X1,… Xp) son independientes, se puede refinar el
método de Bonferroni. Para asegurar una confianza conjunta de 1 – , basta
con utilizar intervalos de confianza (1 – )1/p para cada variable.

Por ejemplo, para p = 2 variables y  = 0.05, se tiene: (1 – )1/p ≈ 0.975.

En el caso general, (1 – )1/p ≤ 1 – /p: el método de Sidák es menos exigente


que el de Bonferroni.
Caso multivariable:
regiones de confianza
Caso particular: esperanza de un vector Gaussiano

Sea X una variable Gaussiana vectorial con p componentes, de esperanza


 desconocida y matriz de varianza-covarianza C conocida. A partir de una
muestra de tamaño n, se tiene un vector (p×1) de medias experimentales X .

La variable
 2n  n(X  )t C1 (X 
)
tiene una distribución del chi cuadrado de n grados de
libertad.
Caso multivariable:
regiones de confianza

Lo anterior permite definir una región de confianza para :

Prob{n(X  )t C1 (X  )  c ()}  1



n

donde cn() es el valor que tiene una


probabilidad
 de ser superado por una variable del chi
cuadrado de n grados de libertad (se obtiene
de tablas de la distribución del chi cuadrado).

Por ejemplo, para p = 2 componentes, la región de


confianza es una elipse, centrada en X . Para p =
3 componentes, será un elipsoide.
Caso multivariable:
regiones de confianza

Observaciones

1) Los resultados son robustos frente a desviaciones pequeñas a moderadas


de la distribución Gaussiana, siempre que el número de datos (n) sea
grande. Esto se debe a que la media experimental X tiene una distribución
aproximadamente multigaussiana (teorema del límite central).

2) Si la matriz de varianza-covarianza C es desconocida, las ecuaciones se


modifican al reemplazar C por V (matriz de varianza-covarianza
experimental) y la distribución del chi cuadrado de n grados de libertad
por la T2de Hotelling de parámetros p y n–1. El valor que delimita la
confianza
región de se obtiene al plantear que la variable np (n1)
p
T 2 tiene una
distribución de Fisher de p y n – p grados de
libertad.
Lecturas recomendadas

Box, G.E.P., Hunter, W.G., Hunter, J.S., 1978. Statistics for Experimenters. John
Wiley and Sons, New York, 653 p.

Johnson, R., Wichern, D.W., 2002. Applied Multivariate Statistical Analysis.


Prentice-Hall, Upper Saddle River.

Lapin, L.L, 1990. Probability and Statistics for Modern Engineering.


PWS- Kent, Boston.

Montgomery, D.C., Runger, G.C., 1999. Applied Statistics and Probability for
Engineers. John Wiley and Sons, New York.
Ejercicios

1) Se tiene 9 muestras con ensayos de ley de cobre total (en %):

0.52 0.63 0.70 0.47 0.39 0.12 0.21 0.55


1.38

Determinar un intervalo de confianza para la ley de cobre promedio del


sector en el cual se tomaron estas muestras. Se considerará que la varianza
de las leyes en este sector es igual a 0.15.

2) Mismo ejercicio, suponiendo que la varianza de las leyes es desconocida.

3) Se dispone de 1000 puntos de extracción en una mina de block caving. De


50 puntos observados, 13 presentaron una falla. ¿Cuántos puntos (en
total) son defectuosos?
Ejercicios

4) (“Round Robin” para muestras estándares). Para un programa de control


de calidad de muestreo, se prepara una muestra estándar a partir de
rechazos de sondajes. La calibración del estándar se hace al enviar 6
porciones (sobres) de 250g a varios laboratorios de reputación. Cada
laboratorio tiene su propio procedimiento para el análisis químico de la ley.

De los resultados obtenidos, determinar un intervalo de confianza sobre la ley


media verdadera de la muestra estándar. Comentar.

5) A partir de datos de sondajes de exploración, estimar la ley de cobre


promedio así como la ley mediana en el depósito. Se podrá comparar varios
estimadores (método de los momentos, máximo de verosimilitud, intervalo
de confianza).

También podría gustarte