P. 1
TEORIA DE CONJUNTOS

TEORIA DE CONJUNTOS

3.0

|Views: 37.228|Likes:
Publicado poradea153

More info:

Published by: adea153 on Dec 07, 2009
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOC, PDF, TXT or read online from Scribd
See more
See less

06/03/2015

pdf

text

original

Historia de la probabilidad

El estudio científico de la probabilidad es un desarrollo moderno. Los juegos de azar muestran que ha habido un interés en cuantificar las ideas de la probabilidad durante milenios, pero las descripciones matemáticas exactas de utilidad en estos problemas sólo surgieron mucho después. Según Richard Jeffrey, "Antes de la mitad del siglo XVII, el término 'probable' (en latín probable) significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una acción u opinión probable era una que las personas sensatas emprenderían o mantendrían, en las circunstancias."[1] Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. Véase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de probabilidad matemática. La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (póstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría para la discusión de errores de observación. La reimpresión (1757) de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables, y que hay ciertos límites asignables dentro de los cuales se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad. Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación de observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley de la probabilidad de error con una curva y = φ(x), siendo x cualquier error e y su probabilidad, y expuso tres propiedades de esta curva:
1. es simétrica al eje y; 2. el eje x es una asíntota, siendo la probabilidad del error

igual a 0; 3. la superficie cerrada es 1, haciendo cierta la existencia de un error. Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula para la ley de facilidad de error (un

término debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes. El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para la determinación de las órbitas de los cometas). Ignorando la contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de error,

siendo c y h constantes que dependen de la precisión de la observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma de John Herschel (1850). Gauss expuso la primera demostración que parece que se conoció en Europa (la tercera después de la de Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para r, el error probable de una única observación, es bien conocida.

Definición:
La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto de resultados) al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos.

Teoría de la probabilidad.
La probabilidad constituye un importante parámetro en la determinación de las diversas casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico. Existen diversas formas como método abstracto, como la teoría Dempster-Shafer y la teoría de la relatividad numérica, esta última con un alto grado de aceptación si se toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel mínimo ya que somete a todas las antiguas reglas a una simple ley de relatividad.

Interpretación
se puede interpretar como, tomando los mundos en los que B se cumple, la fracción en los que también se cumple A. Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza, sería la probabilidad de tener dolor de cabeza cuando se está enfermo de gripe. Gráficamente, si se interpreta el espacio de la ilustración como el espacio de todos los mundos posibles, A serían los mundos en los que se tiene dolor de cabeza y B el espacio en el que se tiene gripe. La zona verde de la intersección representaría los mundos en los que se tiene gripe y dolor de cabeza . En este caso , es

decir, la probabilidad de que alguien tenga dolor de cabeza sabiendo que tiene gripe, sería la proporción de mundos con gripe y dolor de cabeza (color verde) de todos los mundos con gripe: El área verde dividida por el área de B. Como el área verde representa el área de B representa a P(B), formalmente se tiene que: y

“TEORIA DE CONJUNTOS” Historia
El primer estudio formal sobre el tema fue realizado por el matemático alemán Georg Cantor, Gottlob Frege y Julius Wilhelm Richard Dedekind en el Siglo XIX y más tarde reformulada por Zermelo. se puede hablar de un conjunto de personas, ciudades, gafas, lapiceros o del conjunto de objetos que hay en un momento dado encima de una mesa. Un conjunto está bien definido si se sabe si un determinado elemento pertenece o no al conjunto.

Definición:
La teoría de conjuntos es una división de las matemáticas que estudia los conjuntos. El concepto de conjunto es intuitivo y se podría definir como una "colección de objetos" o tambien se entiende por conjunto a la agrupación en un todo de objetos bien diferenciados de nuestra intuición o nuestra mente. Se puede hablar de un conjunto de personas, ciudades, gafas, lapiceros o del conjunto de objetos que hay en un momento dado encima de una mesa. Un conjunto está bien definido si se sabe si un determinado elemento pertenece o no al conjunto.

Notación

Usualmente los conjuntos se representan con una letra mayúscula: A, B, K,... Llamaremos elemento, a cada uno de los objetos que forman parte de un conjunto, estos elementos tienen carácter individual, tienen cualidades que nos permiten diferenciarlos, y cada uno de ellos es único, no habiendo elementos duplicados o repetidos. Los representaremos con una letra minúscula: a, b, k,... De esta manera, si es un conjunto, y elementos, es común escribir: todos sus

para definir a tal conjunto . Esta notación empleada para definir al conjunto se llama notación por extensión Para representar que un elemento pertenece a un conjunto A, escribimos (léase "x en A", "x pertenece a A" o bien "x es un elemento de A"). La negación de se escribe (léase no pertenece a ).

Igualdad de conjuntos
Dos conjuntos y se dicen iguales, lo que se escribe si constan de los mismos elementos. Es decir, si y solo si todo elemento de A está también contenido en B y todo elemento de B está contenido en A. En símbolos:

Subconjuntos y Superconjuntos

Diagrama de Venn que muestra

Un conjunto se dice que es subconjunto de otro , si cada elemento de es también elemento de , es decir, cuando se verifique: , sea cual sea el elemento . En tal caso, se escribe .

Cabe señalar que, por definición, no se excluye la posibilidad de que si , se cumpla . Si tiene por lo menos un elemento que no pertenezca al conjunto , pero si todo elemento de es elemento de , entonces decimos que es un subconjunto propio de , lo que se representa por . En otras palabras, si y sólo si ,y . Así, el conjunto vacío es subconjunto propio de todo conjunto (excepto de sí mismo), y todo conjunto A es subconjunto impropio de sí mismo. Si es un subconjunto de , decimos también que es un superconjunto de , lo que se escribe . Así pues , y también que: , significando que es superconjunto propio de .

Por el principio de identidad, es siempre cierto , para todo elemento , por lo que todo conjunto es subconjunto (y también superconjunto) de sí mismo. Vemos que es una relación de orden sobre un conjunto conjuntos, pues ( es reflexiva) de

( es antisimétrica) ( es transitiva)

Operaciones con conjuntos

Sean

y

dos conjuntos.

Unión u

Diagrama de Venn que ilustra Para cada par de conjuntos A y B existe un conjunto Unión de los dos, que se denota como el cual contiene todos los elementos de A y de B. De manera más general, para cada conjunto S existe otro conjunto denotado como de manera que sus elementos son todos los tales que . De esta manera es el caso especial donde .Es claro que el hecho de que un elemento x pertenezca a es condición necesaria y suficiente para afirmar que x es un elemento de A o al menos de B. Es decir

Ejemplos: si tenemos los conjuntos

Entonces:

“Diagrama de venn” Historia:
Los diagramas de Venn reciben el nombre de su creador, John Venn, matemático y filósofo británico. Estudiante y más tarde profesor en Caius College de la Universidad de Cambridge, desarrolló toda su producción intelectual entre esas cuatro paredes. el

Venn introdujo el sistema de representación que hoy conocemos en julio de 1880 con la publicación de su trabajo titulado « De la representación mecánica y diagramática de proposiciones y razonamientos»1 2 3 en el Philosophical Magazine and Journal of Science, provocando un cierto revuelo en el mundo de la lógica formal. Aunque la primera forma de representación geométrica de silogismos lógicos se atribuye comúnmente a Gottfried Leibniz, y fue luego ampliada por George Boole y Augustus De Morgan, el método de Venn superaba en claridad y sencillez a los sistemas de representación anteriores, hasta el punto de convertirse con el tiempo en un nuevo estándar. Venn fue el primero en

formalizar su uso y en ofrecer un mecanismo de generalización para los mismos. Los diagramas de Venn se emplean hoy día para enseñar matemáticas elementales y para reducir la lógica y la Teoría de conjuntos al cálculo simbólico puro. Se suelen usar también en el aula diagramas de Venn de dos o tres conjuntos como herramienta de síntesis, para ayudar a los estudiantes a comparar y contrastar dos o tres de elementos; en este uso, se incluyen dentro de cada elemento las características exclusivas, y en las intersecciones, las comunes con los otros.

Definición:
Los diagramas de Venn son ilustraciones usadas en la rama de la matemática conocida como teoría de conjuntos. Estos diagramas se usan para mostrar gráficamente la agrupación de cosas elementos en conjuntos, representando cada conjunto mediante un círculo o un óvalo. La posición relativa en el plano de tales círculos muestra la relación entre los conjuntos. Por ejemplo, si los círculos de los conjuntos A y B se solapan, se muestra un área común a ambos conjuntos que contiene todos los elementos contenidos a la vez en A y en B. Si el círculo del conjunto A aparece dentro del círculo de otro B, es que todos los elementos de A también están contenidos en B.

Tipos de diagramas de Venn:
Diagrama de dos conjuntos

Conjuntos A y B

Considérese el ejemplo a la derecha: supóngase que el conjunto A (el círculo naranja) representa, por ejemplo, a todas las criaturas vivas con solo dos piernas motrices y que el conjunto B (el círculo azul) contiene a todas las criaturas que pueden volar. El área donde ambos círculos se superponen (que recibe el nombre de intersección entre A

y B, o intersección A - B) contendría por tanto todas las criaturas que, al mismo tiempo, pueden volar y tienen sólo dos piernas motrices. Imaginemos ahora que cada tipo distinto de criatura viva está representado con un punto situado en alguna parte del diagrama. Los humanos y los pingüinos estarían dentro del círculo naranja (el conjunto A) en la parte en la que no se superpone con el círculo azul (el conjunto B), ya que ambos son bípedos y no pueden volar. Los mosquitos, que tienen seis piernas motrices y pueden volar, estarían representados con un punto dentro del círculo azul fuera de la intersección A - B. Los loros, que tienen dos piernas motrices y pueden volar, estarían representados por un punto dentro de la intersección A - B. Cualquier tipo de criatura que ni tuviera dos piernas ni pudiera volar (como por ejemplo las ballenas o las serpientes), estaría representado mediante puntos fuera de ambos círculos. El diagrama de Venn representado en el ejemplo 1 puede describirse como la relación entre el conjunto A y el conjunto B. El área combinada de ambos conjuntos recibe el nombre de unión de los conjuntos A y B. La unión en este caso contiene todos los tipos de criaturas que tienen dos piernas, pueden volar, o ambas cosas a la vez. El área donde los conjuntos A y B se solapan se define como la intersección de A y B. Contiene todos los tipos de criaturas que pertenecen a la vez a A y a B, es decir, que tienen dos piernas y pueden volar.

Diagrama de Venn mostrando todas las intersecciones posibles entre tres conjuntos A, B y C.

Un diagrama de Venn de dos conjuntos define 4 áreas diferentes (la cuarta es la exterior), que pueden unirse en 6 posibles combinaciones:
• • • • • •

A (dos patas) A y B (dos patas y vuelan) A y no B (dos patas y no vuelan) no A y B (más o menos de dos patas, y vuelan) no A y no B (ni tienen dos patas ni vuelan) B (vuelan)

A veces se incluye un rectángulo alrededor del diagrama de Venn, que recibe el nombre de universo de discurso (antes se creía en la existencia de un conjunto universal pero Bertrand Russell descubrió que con tal concepto el sistema es inconsistente véase paradoja de Russell). Se usa para representar el conjunto de todas las cosas posibles. La definición del universo, al igual que la de los conjuntos, depende del diagrama sobre el que se representa. La idea de conjunto universal, aunque fue apuntada por el propio Venn, se atribuye habitualmente a Charles Dodgson, más conocido como Lewis Carroll.

Diagramas de tres conjuntos
Los diagramas de tres conjuntos fueron los más corrientes elaborados por Venn en su presentación inicial. Las distintas intersecciones de los tres conjuntos A, B y C definen SIETE áreas diferentes, cuyas posibles uniones suponen 256 combinaciones distintas de los tres conjuntos iniciales.

Más de tres conjuntos
La dificultad de representar más de tres conjuntos mediante diagramas de Venn (o cualquier otra representación gráfica) es evidente. Venn sentía afición a la búsqueda de diagramas para más de tres conjuntos, a los que definía como "figuras simétricas, elegantes en sí mismas". A lo largo de su vida diseñó varias de estas representaciones usando elipses, así como indicaciones para la creación de diagramas con cualquier cantidad de curvas, partiendo del diagrama de tres círculos.

Diagramas de Venn de Edwards
A. W. F. Edwards diseñó representaciones para diagramas de Venn de más de tres conjuntos, proyectando el diagrama sobre una esfera. Se pueden representar fácilmente tres conjuntos tomando tres hemisferios en ángulos rectos (x=0, y=0 y z=0). Un cuarto conjunto se puede representar tomando una curva similar a la juntura de una pelota de tenis que suba y baje alrededor del ecuador. Los conjuntos resultantes pueden proyectarse de nuevo sobre el plano para mostrar diagramas de engranaje, con cantidades cada vez mayores de dientes. Edwards ideó estos diagramas mientras diseñaba la ventana acristalada en memoria de Venn que hoy adorna el comedor de su colegio.

Diagrama para tres conjuntos

Diagrama para cuatro conjuntos

Diagrama para cinco conjuntos

Diagrama para seis conjuntos

Otros diagramas
Los diagramas de Edwards son topológicamente equivalentes a los diagramas diseñados por Branko Grünbaum, que se basaban en polígonos intersecados, con cantidades crecientes de lados. Phillip Smith ideó diagramas similares de n conjuntos usando curvas senoidales en ecuaciones como y=sin(2ix)/2i, 0 ≤i ≤n-2. Por su parte, Lewis Carroll diseñó un diagrama de cinco conjuntos.

Diagramas de Euler

Diagrama de Euler

Los diagramas de Euler son similares a los de Venn, pero no necesitan todas las posibles relaciones. Los diagramas de Euler permiten representar inclusión de una clase en otra. Por ejemplo, en el representado a la derecha un conjunto (el A) está totalmente incluido en otro (el B), mientras que otro (el C) no tiene ninguna relación con los dos anteriores. Los diagramas de Euler anteceden a los diagramas de Venn,7 pero son distintos. Fueron introducidos por Euler para ayudar en la comprensión. John Venn intenta rectificar algunas deficiencias a través de los Diagramas de Venn. Supongamos que el conjunto A representa todos los tipos de queso que pueden encontrarse en el mundo, y el B representa a todos los comestibles existentes en el mundo. Según el diagrama, se ve claramente que todos los quesos son comestibles, pero no todos los

comestibles son quesos. Si definimos el conjunto C como el de las cosas hechas de metal, el diagrama nos permite representar de forma evidente dos afirmaciones adicionales: los comestibles no están hechos de metal, y las cosas hechas de metal no son comestibles.

Diagrama de Johnston

Diagrama de Johnston para la expresión ni A ni B son ciertas

Los diagramas de Johnston se usan para ilustrar afirmaciones lógicas como ni A ni B son ciertas, y son una forma visual de ilustrar tablas de verdad. Pueden ser idénticos en apariencia a diagramas de Venn, pero no representan conjuntos de elementos.

Diagrama de Peirce
Los diagramas de Peirce, creados por Charles Peirce, son extensiones de los diagramas de Venn que incluyen información sobre afirmaciones existenciales, disyuntivas, de probabilidades y otras relaciones.8

Teoría del binomio
la teoría del binomio proporciona la expansión de las potencias de una suma. (1) Donde De manera que sustituyendo se obtiene: Como ejemplo, para n=2, n=3, n=4: (2) Para obtener la expansión de las potencias de una resta, basta con tomar -y en lugar de y en el caso anterior. La expresión (2) queda de la siguiente forma: Teorema generalizado del binomio (Newton) [editar]Isaac Newton generalizó la fórmula para tomar otros exponentes, considerando una serie infinita: (3) Donde r puede ser cualquier número complejo (en particular, r puede ser cualquier número real, no necesariamente positivo ni entero), y los coeficientes están dados por: (el k = 0 es un producto vacío y por lo tanto, igual a 1; en el caso de k = 1 es igual a r, ya que los otros factores (r − 1), etc., no aparecen en ese caso). Una forma útil pero no obvia para la potencia recíproca: La suma en (3) converge y la igualdad es verdadera siempre que los números reales o complejos x e y sean suficientemente cercanos, en el sentido de que el valor absoluto | x/y | sea menor a uno.

Diagrama de árbol
Definición:
Un diagrama de árbol es una representación gráfica que muestra los resultados posibles de una serie de experimentos y sus respectivas probabilidades. Un diagrama de árbol es una representación gráfica de un experimento que consta de r pasos, donde cada uno de los pasos tiene un número finito de maneras de ser llevado a cabo.

Ejemplos:

1. Un médico general clasifica a sus pacientes de acuerdo a: su sexo (masculino o femenino), tipo de sangre (A, B, AB u O) y en cuanto a la presión sanguínea (Normal, Alta o Baja). Mediante un diagrama de árbol diga en cuantas clasificaciones pueden estar los pacientes de este médico? N Solución: A A B N B A B M AB N A O B A F B N A B

AB O B A B Si contamos todas las ramas terminales, nos damos cuenta que el número de clasificaciones son 2 x 4 x 3 = 24 mismas que podemos enumerar; MAN, MAA, MAB, MBN, MBA, MBB, etc, etc.

Técnicas de conteo
Definición:
Las técnicas de conteo son aquellas que son usadas para enumerar eventos difíciles de cuantificar. Se les denomina técnicas de conteo a: las combinaciones, permutaciones y diagrama de árbol, las que a continuación se explicarán y hay que destacar que éstas nos proporcionan la información de todas las maneras posibles en que ocurre un evento determinado. Las bases para entender el uso de las técnicas de conteo son el principio multiplicativo y el aditivo, los que a continuación se definen y se hace uso de ellos.

Ejemplos:
Ejemplos en los que definitivamente haremos uso de las técnicas de conteo serían: -¿Cuántas comisiones pro limpieza del instituto se pueden formar si hay 150 alumnos que desean ayudar en esta tarea y se desea formar comisiones de ocho alumnos? -¿Cuántas representaciones de alumnos pueden ser formadas a) si se desea que estas consten solo de alumnos de Ingeniería Química?, b) se desea que el presidente sea un químico?, c) se desea que el presidente y tesorero sean químicos? Para todos los casos, se desea que las representaciones consten de once alumnos. -¿Cuántas maneras tiene una persona de seleccionar una lavadora, una batidora y dos licuadoras, si encuentra en una tienda 8 modelos diferentes de lavadoras, 5 modelos diferentes de batidoras y 7 modelos diferentes de licuadoras?

Probabilidad para eventos
Definición:
Para calcular la probabilidad de eventos es necesario que éstos se comporten de una manera más o menos estable. Precisamente, se echa mano de la regularidad estadística, que es la propiedad de los fenómenos aleatorios, y que consiste en que al aumentar el número de repeticiones de un experimento en condiciones prácticamente constantes, la frecuencia relativa de ocurrencia para cada evento tiende a un valor fijo. Sin embargo, al momento de definir la probabilidad de un evento podemos tomar en cuenta los siguientes criterios: 1. La probabilidad subjetiva de un evento se la asigna la persona que hace el estudio, y depende del conocimiento que esta persona tenga sobre el tema. Precisamente por su carácter de subjetividad no se considera con validez científica, aunque en la vida diaria es de las más comunes que se utilizan al no apoyarse más que en el sentido común y los conocimientos previos, y no en resultados estadísticos. 2. La probabilidad frecuencial de un evento es el valor fijo al que tienden las frecuencias relativas de ocurrencia del evento de acuerdo a la regularidad estadística. Esta definición sería la más real, pero proporciona probabilidades aproximadas, es decir, proporciona estimaciones y no valores reales. Además, los resultados son a posteriori, pues se necesita realizar el experimento para poder obtenerlo. 3. La probabilidad clásica de un evento E, que denotaremos por P (E), se define como el número de eventos elementales que componen al evento E, entre el número de eventos elementales que componen el espacio muestra:

Es la definición más utilizada porque supone de antemano, y se necesita como requisito indispensable, que todos los eventos elementales tienen la misma probabilidad de ocurrir.

Eventos complementarios
Dos eventos se denominan complementarios cuando su unión da el espacio muestral y su intersección es vacía. La suma de las probabilidades de dos eventos complementarios es igual a 1. Se denomina Ac al evento complementario del evento A. Entonces A y B son eventos complementarios. EJEMPLO: Lanzar un dado. Omega = {1, 2, 3, 4, 5, 6} Sale par: E1 = {2, 4 ,6} Sale impar. E2 = {1, 3, 5} Sale menor que 3. E3 = {1,2} Sale 3 o más.

E4 = {3, 4, 5,6} E1 y E2 son eventos complementarios y E3 y E4 son también eventos complementarios. Sale 5 El = {5} No sale 5 E2 = ( 1, 2, 3,4,6} Por tanto El y E2 serán también eventos complementarios.

Principios de la suma y multiplicación
Principio de la multiplicación: Si una primera operación puede realizarse de m maneras y una segunda operación puede realizarse de n maneras, entonces ambas operaciones pueden efectuarse juntas de mn maneras. Principio de la suma: Si una primera operación puede realizarse de m maneras y una segunda operación puede realizarse de n maneras, entonces una operación o la otra pueden efectuarse de m + n maneras.

El principio de multiplicación requiere que dos eventos A y B sean independientes. Dos eventos A y B son independientes si la ocurrencia de una no afecta la probabilidad de ocurrencia del otro. La regla especial se escribe: P(A y B) = P(A) * P(B). Ejemplo Chris posee dos inventarios independientes uno de otro. La probabilidad de que el inventario A aumente su valor el próximo año es .5. La probabilidad de que el B aumente el suyo es .7. ¿Cuál es la probabilidad de que ambos aumenten su valor el próximo año?

P(A y B) = (.5)(.7) = .35. ¿Cuál es la probabilidad de que al menos uno aumente su valor el próximo año (esto implica que cualquiera de los dos o ambos aumenten)? Así, P(al menos uno) = (.5)(.3) + (.5)(.7) + (.7)(.5) = .85.

Permutación
Una permutación es una combinación en donde el orden es importante. La notación para permutaciones es P(n,r) que es la cantidad de permutaciones de “n” elementos si solamente se seleccionan “r”. Ejemplo: Si nueve estudiantes toman un examen y todos obtienen diferente calificación, cualquier alumno podría alcanzar la calificación más alta. La segunda calificación más alta podría ser obtenida por uno de los 8 restantes. La tercera calificación podría ser obtenida por uno de los 7 restantes. La cantidad de permutaciones posibles sería: P(9,3) = 9*8*7 = 504 combinaciones posibles de las tres calificaciones más altas.

Combinación
Una combinación es un arreglo donde el orden NO es importante. La notación para las combinaciones es C(n,r) que es la cantidad de combinaciones de “n” elementos seleccionados, “r” a la vez. Es igual a la cantidad de permutaciones de “n” elementos tomados “r” a la vez dividido por “r” factorial. Esto sería P(n, r)/r! en notación matemática. Ejemplo: Si se seleccionan cinco cartas de un grupo de nueve, ¿cuantas combinaciones de cinco cartas habría?

La cantidad de combinaciones posibles sería: P(9,5)/5! = (9*8*7*6*5)/ (5*4*3*2*1) = 126 combinaciones posibles.

Probabilidad condicionada
Probabilidad condicionada es la probabilidad de que ocurra un evento A, sabiendo que también sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee «la probabilidad de A dado B. No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa o pueden no tener relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le dé a los eventos. El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes. Dado un espacio de probabilidad (Ω,F,P) y dos eventos (o sucesos) con P(B) > 0, la probabilidad condicional de A dado B esta definida como:

Eventos Independientes
Cuando A y B son dos eventos con probabilidades positivas, hemos visto que en general la probabilidad condicional del evento B dado el evento A es diferente de la probabilidad del evento B. Sin embargo, cuando se tiene la igualdad: P(B/A) = P(B) es de especial importancia porque esto quiere decir que el evento B no depende o es independiente del evento A. Es decir, no importa si ocurrió o no el evento A puesto que la ocurrencia o no de A no afecta al evento B. Si B es independiente de A, entonces A es independiente de B. Demostración: De la definición de probabilidad condicional se tiene

y Despejando [3.3]

Como B es independiente de A, se tiene: P(B/A) = P(B) y sustituyendo en [3.3] nos conduce a la expresión Por lo tanto, , de donde indica que A es independiente de B. , lo que nos

Teorema de Bayes
El teorema de Bayes, enunciado por Thomas Bayes, en la teoría de la probabilidad, es el resultado que da la distribución de probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A.

Sea {A1,A2,...,Ai,...,An} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | Ai). Entonces, la probabilidad P(Ai | B) viene dada por la expresión:

Donde: P(Ai) son las probabilidades a priori. P(B | Ai) es la probabilidad de B en la hipótesis Ai. P(Ai | B) son las probabilidades a posteriori. Esto se cumple El teorema de Bayes es válido en todas las aplicaciones de la teoría de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadística tradicional sólo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmación empírica mientras que los llamados estadísticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cómo debemos modificar nuestras probabilidades subjetivas cuando recibimos información adicional de un experimento. La estadística bayesiana está demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en función de la evidencia empírica es lo que está abriendo nuevas formas de hacer conocimiento. Una aplicación de esto son los clasificadores bayesianos que son frecuentemente usados en implementaciones de filtros de correo basura o spam, que se adaptan con el uso.

Como observación, se tiene resulta trivial.

y su demostración

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->