Está en la página 1de 11

Probabilidad

Cuando piensas en probabilidad, ¿qué imágenes te vienen a la mente? Tal vez piense en
ejemplos relacionados con los juegos de azar, como la probabilidad de ganar la lotería o
conseguir un par con dos dados. Tal vez esté prediciendo el rendimiento de las acciones,
el resultado de una elección política o si su vuelo llegará a tiempo. Nuestro mundo está
lleno de incertidumbres que queremos medir.
Quizá esa sea la palabra en la que deberíamos centrarnos: incertidumbre. ¿Cómo
medimos algo de lo que no estamos seguros?
Al final, la probabilidad es el estudio teórico de medir la certeza de que ocurrirá un evento.
Es una disciplina fundamental para las estadísticas, las pruebas de hipótesis, el
aprendizaje automático y otros temas de este libro. Mucha gente da por sentada la
probabilidad y asume que la entiende. Sin embargo, es más matizado y complicado de lo
que la mayoría de la gente piensa. Si bien los teoremas y las ideas de probabilidad son
matemáticamente sólidos, se vuelve más complejo cuando introducimos datos y nos
aventuramos en las estadísticas. Cubriremos eso en el Capítulo 4 sobre estadística y
prueba de hipótesis.
En este capítulo, discutiremos qué es la probabilidad. Luego cubriremos los conceptos
matemáticos de probabilidad, el teorema de Bayes, la distribución binomial y la
distribución beta.

comprensión de la probabilidad
La probabilidad es la fuerza con la que creemos que ocurrirá un evento, a menudo
expresada como un porcentaje. Aquí hay algunas preguntas que podrían garantizar una
probabilidad de respuesta:
 ¿Qué probabilidades hay de que salgan 7 caras en 10 lanzamientos de moneda
justos?
 ¿Cuáles son mis posibilidades de ganar una elección?
 ¿Se retrasará mi vuelo?
 ¿Qué tan seguro estoy de que un producto es defectuoso?
La forma más popular de expresar la probabilidad es como un porcentaje, como en "Hay
un 70% de posibilidades de que mi vuelo llegue tarde". Llamaremos a esta probabilidad
P( X ), donde X es el evento de interés. Sin embargo, a medida que trabaja con
probabilidades, es más probable que lo vea expresado como un decimal (en este caso,
0,70), que debe estar entre 0,0 y 1,0:
P ( X ) =.70
La probabilidad es similar a la probabilidad, y es fácil confundirlos (muchos diccionarios
también lo hacen). Puede salirse con la suya usando "probabilidad" y "verosimilitud"
indistintamente en una conversación cotidiana. Sin embargo, debemos precisar estas
diferencias. La probabilidad se trata de cuantificar las predicciones de eventos que aún no
han sucedido, mientras que la probabilidad mide la frecuencia de los eventos que ya
ocurrieron. En estadísticas y aprendizaje automático, a menudo usamos la probabilidad
(el pasado) en forma de datos para predecir la probabilidad (el futuro).
Es importante tener en cuenta que la probabilidad de que ocurra un evento debe estar
estrictamente entre 0% y 100%, o 0.0 y 1.0. Lógicamente, esto significa que la
probabilidad de que un evento no suceda se calcula restando la probabilidad del evento
de 1.0:
P ( X ) =.70
P ( not X ) = 1 -.70 =.30
Esta es otra distinción entre probabilidad y verosimilitud. Las probabilidades de todos los
posibles resultados mutuamente excluyentes para un evento (lo que significa que solo
puede ocurrir un resultado, no múltiples) deben sumar 1.0 o 100%. Las probabilidades, sin
embargo, no están sujetas a esta regla.
Alternativamente, la probabilidad se puede expresar como una probabilidad O ( X ) como
7:3, 7/3 o 2. 333 ¯ .
Para convertir una cuota O ( X ) en una probabilidad proporcional P( X ) , utilice esta
fórmula:

Entonces, si tengo una probabilidad de 7/3, puedo convertirla en una probabilidad


proporcional como esta:

Por el contrario, puede convertir una cuota en una probabilidad simplemente dividiendo la
probabilidad de que ocurra el evento por la probabilidad de que no ocurra:

¡LAS PROBABILIDADES SON ÚTILES!


Si bien muchas personas se sienten más cómodas expresando probabilidades como
porcentajes o proporciones, las cuotas pueden ser una herramienta útil. Si tengo una
probabilidad de 2.0, eso significa que siento que un evento tiene dos veces más
probabilidades de suceder que de no suceder. Eso puede ser más intuitivo para describir
una creencia que un porcentaje de 66. 666 %. Por esta razón, las cuotas son útiles para
cuantificar las creencias subjetivas, especialmente en un contexto de juego/apuestas.
Desempeña un papel en las estadísticas bayesianas (incluido el factor de Bayes), así
como en las regresiones logísticas con log-odds, que trataremos en el Capítulo 6.

Probabilidad Versus Estadística


A veces, las personas usan los términos probabilidad y estadística indistintamente y, si
bien es comprensible combinar las dos disciplinas, tienen distinciones. La probabilidad es
puramente teórica de la probabilidad de que suceda un evento y no requiere datos. La
estadística, por otro lado, no puede existir sin datos y los usa para descubrir
probabilidades y proporciona herramientas para describir datos.
Piense en predecir el resultado de tirar un 4 en un dado (ese es el singular de los dados).
Al abordar el problema con una mentalidad puramente probabilística, uno simplemente
dice que hay seis caras en un dado. Suponemos que cada lado tiene la misma
probabilidad, por lo que la probabilidad de obtener un 4 es 1/6, o 16,666 %.
Sin embargo, un estadístico celoso podría decir: “¡No! Necesitamos tirar el dado para
obtener datos. Si podemos sacar 30 tiradas o más, y cuantas más tiradas hagamos mejor,
solo entonces tendremos datos para determinar la probabilidad de sacar un 4”. Este
enfoque puede parecer tonto si asumimos que el dado es justo, pero ¿y si no lo es? Si
ese es el caso, recopilar datos es la única forma de descubrir la probabilidad de sacar un
4. Hablaremos sobre la prueba de hipótesis en el Capítulo 3.

matemáticas de probabilidad
Cuando trabajamos con una sola probabilidad de un evento P ( X ), conocida como
probabilidad marginal, la idea es bastante sencilla, como se discutió anteriormente. Pero
cuando comenzamos a combinar probabilidades de diferentes eventos, se vuelve un poco
menos intuitivo.

Probabilidades conjuntas
Digamos que tienes una moneda justa y un dado de seis caras justo. Quiere encontrar la
probabilidad de sacar cara y sacar un 6 en la moneda y el dado, respectivamente. Estas
son dos probabilidades separadas de dos eventos separados, pero queremos encontrar la
probabilidad de que ambos eventos ocurran juntos. Esto se conoce como probabilidad
conjunta.
Piense en una probabilidad conjunta como un operador AND. Quiero encontrar la
probabilidad de sacar cara Y sacar un 6. Queremos que ambos eventos sucedan juntos,
entonces, ¿cómo calculamos esta probabilidad?
Hay dos lados en una moneda y seis lados en el dado, por lo que la probabilidad de cara
es 1/2 y la probabilidad de seis es 1/6. La probabilidad de que ocurran ambos eventos
(suponiendo que sean independientes, ¡más sobre esto más adelante!) es simplemente
multiplicar los dos juntos:
P(A AND B) = P(A) × P(B)

Bastante fácil, pero ¿por qué es este el caso? Se pueden descubrir muchas reglas de
probabilidad generando todas las combinaciones posibles de eventos, lo que proviene de
un área de matemáticas discretas conocida como permutaciones y combinaciones. Para
este caso, genere todos los resultados posibles entre la moneda y el dado, emparejando
cara (H) y cruz (T) con los números del 1 al 6. Tenga en cuenta que puse asteriscos "*"
alrededor del resultado de interés donde obtenemos cara y un 6:
H1 H2 H3 H4 H5 *H6* T1 T2 T3 T4 T5 T6

Observe que hay 12 resultados posibles al lanzar nuestra moneda y lanzar nuestro dado.
El único que nos interesa es "H6", obtener cara y 6. Entonces, debido a que solo hay un
resultado que satisface nuestra condición, y hay 12 resultados posibles, la probabilidad de
obtener cara y 6 es 1/12.
En lugar de generar todas las combinaciones posibles y contar las que nos interesen,
nuevamente podemos usar la multiplicación como un atajo para encontrar la probabilidad
conjunta. Esto se conoce como la regla del producto :
P(A AND B) = P(A) × P(B)

Unión de probabilidades
Discutimos las probabilidades conjuntas, que es la probabilidad de que dos o más eventos
ocurran simultáneamente. Pero, ¿qué pasa con la probabilidad de obtener el evento A o
B?Cuando tratamos con operaciones OR con probabilidades, esto se conoce como
probabilidad de unión.
Comencemos con eventos mutuamente excluyentes, que son eventos que no pueden
ocurrir simultáneamente. Por ejemplo, si tiro un dado, no puedo obtener simultáneamente
un 4 y un 6. Solo puedo obtener un resultado. Obtener la probabilidad de unión para estos
casos es fácil. Simplemente los sumo. Si quiero encontrar la probabilidad de obtener un 4
o un 6 en una tirada de dado, será 2/6 = 1/3:

Pero, ¿qué pasa con los eventos no mutuamente excluyentes, que son eventos que
pueden ocurrir simultáneamente? Volvamos al ejemplo del lanzamiento de la moneda y la
tirada del dado. ¿Cuál es la probabilidad de obtener cara O un 6? Antes de que tenga la
tentación de agregar esas probabilidades, generemos todos los resultados posibles
nuevamente y resaltemos los que nos interesan.:
*H1* *H2* *H3* *H4* *H5* *H6* T1 T2 T3 T4 T5 *T6*
Aquí estamos interesados en todos los resultados de cabeza, así como en los 6
resultados. Si proporcionamos los 7 de los 12 resultados que nos interesan, 7/12,
obtenemos una probabilidad correcta de .58 333.
Pero, ¿qué sucede si sumamos las probabilidades de cara y 6 juntas? Obtenemos una
respuesta diferente (¡y equivocada!) de . 666:
¿Porqué es eso? Estudie las combinaciones de lanzamiento de moneda y resultados de
dado nuevamente y vea si puede encontrar algo sospechoso. ¡Observe que cuando
sumamos las probabilidades, contamos dos veces la probabilidad de obtener un 6 tanto
en "H6" como en "T6"! Si esto no está claro, intente encontrar la probabilidad de obtener
cara o una tirada de 1 a 5:

Obtenemos una probabilidad del 133,333%, lo que definitivamente no es correcto porque


la probabilidad no debe ser superior al 100 % o 1,0. El problema nuevamente es que
estamos contando dos veces los resultados.
Si reflexiona lo suficiente, puede darse cuenta de que la forma lógica de eliminar el conteo
doble en una probabilidad de unión es restar la probabilidad conjunta. Esto se conoce
como la regla de la suma de probabilidades y asegura que cada evento conjunto se
cuente solo una vez.:
P(A OR B) = P(A) + P(B) - P(A AND B)
P(A OR B) = P(A) + P(B) - P(A) × P(B)
Entonces, volviendo a nuestro ejemplo de calcular la probabilidad de obtener cara o 6,
debemos restar la probabilidad conjunta de obtener cara o 6 de la probabilidad de unión:

P(A OR B) = P(A) + P(B) - P(A) × P(B)

Tenga en cuenta que esta fórmula también se aplica a eventos mutuamente excluyentes.
Si los eventos son mutuamente excluyentes donde solo se permite un resultado A o B
pero no ambos, entonces la probabilidad conjunta P ( A Y B ) será 0 y, por lo tanto, se
eliminará de la fórmula. Entonces te queda simplemente sumar los eventos como lo
hicimos antes.
En resumen, cuando tiene una probabilidad de unión entre dos o más eventos que no son
mutuamente excluyentes, asegúrese de restar la probabilidad conjunta para que no se
cuenten dos veces las probabilidades.
Probabilidad Condicional y Teorema de Bayes
Un tema de probabilidad que fácilmente confunde a las personas es el concepto de
probabilidad condicional, que es la probabilidad de que ocurra un evento A dado que ha
ocurrido un evento B. Normalmente se expresa como P (A DADO B) o P (A|B).
Digamos que un estudio afirma que el 85% de los pacientes con cáncer beben café.
¿Cómo reacciona ante esta afirmación? ¿Esto te alarma y te da ganas de abandonar tu
bebida matutina favorita? Primero definamos esto como una probabilidad condicional
P(Coffee given Cancer) or P(Coffee|Cancer) P ( Café dado Cáncer ) o P ( Café | Cáncer ).
Esto representa una probabilidad de que las personas tomen café dado que tienen
cáncer.
Dentro de los Estados Unidos, comparemos esto con el porcentaje de personas
diagnosticadas con cáncer (0.5% según cancer.gov ) y el porcentaje de personas que
beben café (65% según statista.com ):
P(Coffee) = .65
P(Cancer) = .005
P(Coffee|Cancer) = .85
Hmmmm.. estudie estos números por un momento y pregúntese si el café es realmente el
problema aquí. Observe nuevamente que solo el 0.5% de la población tiene cáncer en un
momento dado. Sin embargo, el 65% de la población bebe café regularmente. Si el café
contribuye al cáncer, ¿no deberíamos tener cifras de cáncer mucho más altas que el 0,5
%? ¿No estaría más cerca del 65%?
Esto es lo engañoso de los números proporcionales. Pueden parecer significativos sin
ningún contexto dado, y los titulares de los medios ciertamente pueden explotar esto para
obtener clics: "Nuevo estudio revela que el 85% de los pacientes con cáncer beben café",
podría leerse. Por supuesto, esto es una tontería porque hemos tomado un atributo
común (beber café) y lo hemos asociado con uno poco común (tener cáncer).
La razón por la que las personas pueden confundirse tan fácilmente con las
probabilidades condicionales es porque la dirección de la condición importa, y las dos
condiciones se combinan como si fueran iguales. La “probabilidad de tener cáncer dado
que es un bebedor de café” es diferente de la “probabilidad de ser un bebedor de café
dado que tiene cáncer”. En pocas palabras: pocos bebedores de café tienen cáncer, pero
muchos pacientes con cáncer beben café.
Si estamos interesados en estudiar si el café contribuye al cáncer, realmente nos interesa
la primera probabilidad condicional: la probabilidad de que alguien tenga cáncer dado que
es un bebedor de café.
P(Coffee|Cancer) = .85¿
P(Cancer|Coffee) =?

Cómo cambiamos la condición? Hay una pequeña y poderosa fórmula llamada Teorema
de Bayes, y podemos usarla para cambiar las probabilidades condicionales:

Si conectamos la información que ya tenemos en esta fórmula, podemos resolver la


probabilidad de que alguien tenga cáncer dado que bebe café:
Si desea calcular esto en Python, consulte el Ejemplo 2-1.
Ejemplo 2-1. Usando el teorema de Bayes en Python
p_coffee_drinker = .65
p_cancer = .005
p_coffee_drinker_given_cancer = .85
p_cancer_given_coffee_drinker = p_coffee_drinker_given_cancer *
p_cancer / p_coffee_drinker
# prints 0.006538461538461539
print(p_cancer_given_coffee_drinker)¡
Entonces la probabilidad de que alguien tenga cáncer dado que es un bebedor de café es
solo del 0.65%! Este número es muy diferente de la probabilidad de que alguien sea un
bebedor de café dado que tiene cáncer, que es del 85 %. ¿Ahora ves por qué es
importante la dirección de la condición? El teorema de Bayes es útil por esta razón.
También se puede usar para encadenar varias probabilidades condicionales para seguir
actualizando nuestras creencias en función de nueva información.

¿QUÉ DEFINE A UN “BEBEDOR DE CAFÉ”?


Tenga en cuenta que podría haber tenido en cuenta otras variables aquí, en particular lo
que califica a alguien como "bebedor de café". Si alguien bebe café una vez al mes, a
diferencia de alguien que bebe café todos los días, ¿debo calificar a ambos por igual
como “bebedores de café”? ¿Qué pasa con la persona que comenzó a tomar café hace
un mes en comparación con alguien que tomó café durante 20 años? ¿Con qué
frecuencia y durante cuánto tiempo deben beber café las personas antes de alcanzar el
umbral de ser un "bebedor de café" en este estudio de cáncer?
Estas son preguntas importantes a considerar y muestran por qué los datos rara vez
cuentan la historia completa. Si alguien le da una hoja de cálculo de pacientes con una
simple bandera de "SÍ/NO" sobre si son bebedores de café, ¡ese umbral debe definirse! O
necesitamos una métrica más ponderada como “número de bebidas de café consumidas
en los últimos tres años”. Mantuve este experimento mental simple y no definí cómo
alguien califica como un "bebedor de café", pero tenga en cuenta que en el campo,
siempre es una buena idea tirar de los hilos de los datos. Discutiremos esto más en el
Capítulo 3.

Si desea explorar la intuición detrás del Teorema de Bayes más profundamente, consulte
el Apéndice A. Por ahora, solo sé que nos ayuda a cambiar una probabilidad condicional.
A continuación, hablemos de cómo las probabilidades condicionales interactúan con las
operaciones conjuntas y de unión.

NAIVE BAYES
El teorema de Bayes juega un papel central en un algoritmo común de aprendizaje
automático llamado Naive Bayes. Joel Grus lo cubre en su libro Data Science from
Scratch (O'Reilly).

Probabilidades Condicionales Conjuntas y Uniones


Revisemos las probabilidades conjuntas y cómo interactúan con las probabilidades
condicionales. Quiero encontrar la probabilidad de que alguien beba café Y tenga cáncer.
¿Debo multiplicar P (Café) y P (Cáncer) ? ¿O debería usar P ( Coffee|Cancer ) en
lugar de P ( Coffee ) si está disponible? cual uso?
Option 1:
P(Coffee) × P(Cancer) = .65 × .005 = .00325

Option 2:
P(Coffee|Cancer) × P(Cancer) = .85 × .005 = .00425
Si ya hemos establecido que nuestra probabilidad se aplica solo a personas con cáncer,
¿no tiene sentido usar P (Café|Cáncer) en lugar de P (Café) ? Uno es más
específico y se aplica a una condición que ya se ha establecido. Entonces deberíamos
usar P ( Coffee|Cancer ) ya que P ( Cancer ) ya es parte de nuestra probabilidad
conjunta. Esto quiere decir que la probabilidad de que alguien tenga cáncer y sea bebedor
de café es del 0,425%:
P(Coffee and Cancer) = P(Coffee|Cancer) × P(Cancer) = .85 × .005 = .00425
Esta probabilidad conjunta también se aplica en la otra dirección. Puedo encontrar la
probabilidad de que alguien sea un bebedor de café y tenga cáncer al multiplicar P
(Cáncer|Café) y P (Café). Como puedes observar, llego a la misma respuesta:
P(Cancer|Coffee) × P(Coffee) = .0065 × .65 = .00425
Si no tuviéramos ninguna probabilidad condicional disponible, entonces lo mejor que
podemos hacer es multiplicar P ( Bebedor de café ) y P (Cáncer) como se muestra aquí:
P(Coffee Drinker) × P(Cancer) = .65 × .005 = .00325
Ahora piense en esto: si el evento A no tiene impacto en el evento B, ¿qué significa eso
para la probabilidad condicional P ( B | A )? Eso significa que P ( B | A ) = P ( B ), lo que
significa que la ocurrencia del evento A no hace ninguna diferencia en la probabilidad de
que ocurra el evento B. Por lo tanto, podemos actualizar nuestra fórmula de probabilidad
conjunta, independientemente de si los dos eventos son dependientes, para que sea:
P(A AND B) = P(B) × P(A|B)
Y finalmente hablemos de uniones y probabilidad condicional. Si quisiera calcular la
probabilidad de que ocurra A o B, pero A puede afectar la probabilidad de B, actualizamos
nuestra regla de suma de esta manera:
P(A OR B) = P(A) + P(B) - P(A|B) × P(B)
Como recordatorio, esto también se aplica a eventos mutuamente excluyentes. La regla
de la suma P ( A | B ) × P ( B ) arrojaría 0 si los eventos A y B no pueden ocurrir
simultáneamente.

Distribución binomial
En el resto de este capítulo, aprenderemos dos distribuciones de probabilidad: las
distribuciones binomial y beta. Si bien no los usaremos en el resto del libro, son
herramientas útiles en sí mismas y fundamentales para comprender cómo ocurren los
eventos después de una serie de pruebas. También serán una buena transición para
comprender las distribuciones de probabilidad que usaremos mucho en el Capítulo 3.
Exploremos un caso de uso que podría ocurrir en un escenario del mundo real.
Supongamos que está trabajando en un nuevo motor a reacción de turbina y realizó 10
pruebas. Los resultados arrojaron ocho éxitos y dos fracasos:
✓✓✓✓✓✘✓✘✓✓
Esperaba obtener una tasa de éxito del 90 %, pero según estos datos concluye que sus
pruebas fallaron con solo un 80 % de éxito. Cada prueba lleva mucho tiempo y es
costosa, por lo que decide que es hora de volver a la mesa de dibujo para rediseñar el
diseño.
Sin embargo, uno de sus ingenieros insiste en que debería haber más pruebas. “La única
manera de saberlo con certeza es realizar más pruebas”, argumenta. “¿Qué pasa si más
pruebas arrojan un 90% o más de éxito? Después de todo, si lanzas una moneda 10
veces y obtienes 8 caras, no significa que la moneda esté fijada en un 80 %”.
Consideras brevemente el argumento de la ingeniera y te das cuenta de que tiene razón.
Incluso un lanzamiento de moneda justo no siempre tendrá un resultado dividido por igual,
especialmente con solo 10 lanzamientos. Lo más probable es que obtenga cinco cabezas,
pero también puede obtener tres, cuatro, seis o siete cabezas. Incluso podría obtener 10
cabezas, aunque esto es extremadamente improbable. Entonces, ¿cómo se determina la
probabilidad de un 80 % de éxito asumiendo que la probabilidad subyacente es del 90 %?
Una herramienta que podría ser relevante aquí es la distribución binomial, que mide la
probabilidad de que se produzcan k éxitos en n intentos dada una probabilidad p.

Visualmente, una distribución binomial se parece a la Figura 2-1.


Aquí, vemos la probabilidad de éxitos k para cada barra de 10 intentos. Esta distribución
binomial supone una probabilidad p del 90 %, lo que significa que hay una probabilidad de
0,90 (o 90 %) de que se produzca el éxito. Si esto es cierto, eso significa que hay una
probabilidad de.1937 de que obtendríamos 8 éxitos de 10 intentos. La probabilidad de
obtener 1 éxito de 10 intentos es extremadamente improbable,.000000008999, por lo que
la barra ni siquiera es visible.
También podemos calcular la probabilidad de ocho o menos éxitos sumando barras para
ocho o menos éxitos. Esto nos daría una probabilidad de.2639 de ocho o menos éxitos.
Figura 2-1. Una distribución binomial

Entonces, ¿cómo implementamos la distribución binomial? Podemos hacerlo desde cero


con relativa facilidad (como se comparte en el Apéndice A ), o podemos usar bibliotecas
como SciPy. El ejemplo 2-2 muestra cómo usamos la función binom.pmf() de SciPy ( PMF
significa "función de masa de probabilidad") para imprimir las 11 probabilidades para
nuestra distribución binomial de 0 a 10 éxitos.
Ejemplo 2-2. Usando SciPy para la distribución binomial
from scipy.stats import binom
n = 10
p = 0.9
for k in range(n + 1):
probability = binom.pmf(k, n, p)
print("{0} - {1}".format(k, probability))
# OUTPUT:
# 0 - 9.99999999999996e-11
# 1 - 8.999999999999996e-09
# 2 - 3.644999999999996e-07
# 3 - 8.748000000000003e-06
# 4 - 0.0001377809999999999
# 5 - 0.0014880347999999988
# 6 - 0.011160260999999996
# 7 - 0.05739562800000001
# 8 - 0.19371024449999993
# 9 - 0.38742048900000037
# 10 - 0.34867844010000004

Como puede ver, proporcionamos n como el número de intentos, p como la probabilidad


de éxito de cada intento y k como el número de éxitos para los que queremos buscar la
probabilidad. Iteramos cada número de éxitos x con la probabilidad correspondiente de
que veríamos muchos éxitos. Como podemos ver en la salida, el número más probable de
éxitos es nueve.
Pero si sumamos la probabilidad de ocho o menos éxitos, obtendríamos.2639. Esto
significa que hay una probabilidad del 26,39 % de que veamos ocho éxitos o menos,
incluso si la tasa de éxito subyacente es del 90 %. Entonces, tal vez el ingeniero tenga
razón: el 26,39% de probabilidad no es nada y ciertamente es posible.
Sin embargo, hicimos una suposición aquí en nuestro modelo, que discutiremos a
continuación con la distribución beta.

También podría gustarte