Está en la página 1de 19

ESCUELA DE NEGOCIOS

CARRERA DE MERCADEO

Asignatura:

Estadística II

Tema:

Trabajo final

Participante:

MANUEL VÓLQUEZ

Matrícula:

201810403

Facilitador (a):

Domingo De la Cruz

Modalidad:

SEMIPRESENCIAL

Santo Domingo Este

República Dominicana

26 de mayo del 2020


Contenido
INTRODUCCIÓN............................................................................................................................4
Desarrollo:....................................................................................................................................5
Haga una breve reflexión sobre la importancia de las probabilidades para carrera que
estudia........................................................................................................................................5
¿Para qué sirve la probabilidad?..............................................................................................5
¿Cómo se usa la probabilidad en finanzas?..............................................................................5
Hable ampliamente sobre el origen y desarrollos de las probabilidades...........................6
LA TEORIA DE LA PROBABILIDAD SIGLO XVIII...........................................................6
PROBABILIDADES INVERSA Jacob Bernoulli (1654-1705)..........................................6
IMPORTANCIA DE LAS PROBABILIDADES....................................................................7
UNIVERSO DETERMINISTA..............................................................................................8
Hable ampliamente sobre el origen y desarrollo de las distribuciones de probabilidad
discreta.......................................................................................................................................8
Tipos de distribuciones de variable discreta............................................................................9
Hable ampliamente sobre el origen y desarrollo de las distribuciones de probabilidad
continúa....................................................................................................................................11
¿Qué es el muestreo?.............................................................................................................12
¿Por qué funciona el muestreo?............................................................................................13
El tamaño de la muestra........................................................................................................14
Tamaño de muestra necesaria para tener un error del 5% con un nivel de confianza del
95%....................................................................................................................................15
Ventajas e inconvenientes del muestreo...............................................................................16
✔Ventajas..............................................................................................................................16
✘Inconvenientes....................................................................................................................16
La muestra aleatoria simple: definición y alternativas...........................................................17
Conclusión................................................................................................................................18
Opinión personal:....................................................................................................................19
INTRODUCCIÓN.

La Estadística se ocupa de los métodos científicos para recolectar, organizar,


resumir, presentar y analizar datos, así como de sacar conclusiones válidas y
tomar decisiones con base en este análisis, así también realizar predicciones a
cerca del conjunto del cual se han seleccionado dichos datos

La distribución uniforme discreta describe el comportamiento de una variable


discreta que puede tomar n valores distintos con la misma probabilidad cada
uno de ellos. Un caso particular de esta distribución, ocurre cuando los valores
son enteros consecutivos. También vamos hablar de los dos métodos para
seleccionar muestras de poblaciones: el muestreo no aleatorio o de juicio y el
muestreo aleatorio (que incorpora el azar como recurso en el proceso de
selección.

El presente trabajo de investigación se refiere al análisis realizado a las


distribuciones y las probabilidades se inicia en el año de 1654 cuando el
matemático francés Blaise pascal hacia un viaje con el apasionado jugador de
dados y castas, conocido como el caballero de mere, guíen era noble e
ilustrado.
Desarrollo:

Haga una breve reflexión sobre la importancia de las


probabilidades para carrera que estudia.
La contabilidad recurre a los métodos estadísticos para establecer los hechos
futuros para facilitarle la elaboración de los cálculos de estimación probables y
enunciación de leyes estadísticos económicos financieros. Además, ayuda a
cuantificar los valores o posibles reacciones a una decisión tomada en una
empresa.
En términos generales, la probabilidad es un estudio que mide la frecuencia
con la que se obtiene un cierto resultado cuando se lleva a cabo una serie de
experimentos aleatorios con características conocidas y controladas. Para
estudiar la probabilidad deben tenerse en cuenta todos los posibles resultados
del experimento en cuestión.
Así pues, como en el caso de la moneda en la teoría de la probabilidad, se
utiliza para saber que, si se lanza la misma moneda cien veces con el mismo
impulso, sobre la misma superficie y sin ningún cambio, ésta caerá cincuenta
veces sobre una cara y cincuenta sobre la otra. En este caso, la probabilidad
no nos puede hacer saber de qué lado va a caer la moneda, pero sí nos indica
que existe un cincuenta por ciento de probabilidad de que caiga de un lado o
del otro. Si se trata de un dado, por ejemplo, cada número sólo tiene una sexta
parte de probabilidad de caer; por lo que resulta más difícil que un mismo lado
se repita varias veces.

¿Para qué sirve la probabilidad?


La teoría de la probabilidad es un instrumento muy útil para predecir la
frecuencia con que ocurren ciertos fenómenos, por lo que se utiliza
frecuentemente en ciencias exactas, como la física o las matemáticas. Con el
paso de los siglos y la modernidad de los tiempos, el estudio de la probabilidad
se ha asociado a la estadística y, por supuesto, a las finanzas.

¿Cómo se usa la probabilidad en finanzas?


En términos financieros, de acuerdo con el diccionario financiero y de inversión
de McGraw Hill, la probabilidad es “el valor fijo límite hacia el que tiende a
aproximarse la frecuencia de aparición de un resultado cuando crece el número
de observaciones que se realizan en circunstancias similares".
Lo anterior quiere decir que, en el mundo de las finanzas, la probabilidad está
asociada a la recurrencia de un cierto resultado cuando se analiza a gran
escala un mismo instrumento o situación financiera.

Si retomamos el ejemplo de las monedas y los dados y lo aplicamos a una


inversión, entenderemos mejor el manejo de la probabilidad financiera. En el
mundo de las inversiones, existen muchos expertos que se dedican a realizar
mediciones sobre la frecuencia con que ocurren determinados fenómenos. Los
inversionistas utilizan estos estudios para analizar mejor sus posibles negocios.
Así pues, si existe un estudio que nos revela que la posibilidad que tiene una
determinada acción de subir es de treinta y cinco por ciento, esto nos da a
entender que tiene un sesenta y cinco por ciento de probabilidad de descender,
lo cual nos habla de mayor riesgo al momento de invertir.

Hable ampliamente sobre el origen y desarrollos de las


probabilidades.
El origen de las probabilidades se inicia en el año de 1654 cuando el
matemático francés Blaise pascal hacia un viaje con el apasionado jugador de
dados y castas, conocido como el caballero de mere, guíen era noble e
ilustrado. Este creía que había encontrado una falsedad en los números al
analizar el comportamiento de los dados, era diferente cuando se utilizaban dos
dados. Esta presunción era una comparación errónea, entre las probabilidades
de sacar un seis en un solo dado o de sacar un seis con dos dados.
La teoría de la probabilidad se usa extensamente en áreas como la estadística,
la física, la matemática, las ciencias, la administración, contaduría, economía y
la filosofía para sacar conclusiones sobre la probabilidad discreta de sucesos
potenciales y la mecánica subyacente discreta de sistemas complejos, por lo
tanto es la rama de las matemáticas que estudia, mide o determina los
experimentos o fenómenos aleatorios.
La talmúdica describe propiedades de ,mecanismos aleatorios tales como
juegos de azar, lanzamiento de una moneda, etc. La rabínica es usada para
medir la opinión sobre la ocurrencia de un seceso, parte de suponer unas
probabilidades iniciales o aprioris. La manera de pasar de una a otra
probabilidad es mediante el concurso del teorema de BAYES que en su versión
continua dice: rc(8lx)=rc(8)f(xl8) Jrc(8)f(x l8)d8.
LA TEORIA DE LA PROBABILIDAD SIGLO XVIII Se aplica en los juegos en
sentidos amplios y en la jurisprudencia. También en la forma de análisis de
datos y de la inferencia inductiva se aplica a la teoría del seguro. En el siglo
XIX se aplica en la física la biología y la psicología, mas adelante en la
agronomía, en las encuestas, en los contrastes médicos, en el deporte, entre
otros.
PROBABILIDADES INVERSA Jacob Bernoulli (1654-1705) pionero de
la probabilidad inversa. En 1570 se refugia en Basilea huyendo de la
persecución de los herejes llevada a cabo por el duque de Alba. Los Bernoulli
fueron la familia de mas renombre en la historia de las matemáticas. Mas de
doce miembros de esa familia contribuyeron al desarrollo de las matemáticas y
de la física y alguno de ellos a escrito sobre las probabilidades . Stigler (1786)
dice que unos de los Bernoulli tenia que ser el padre de la cuantificación de la
incertidumbre. Actualmente hay un Daniel Bernoulli profesor de la Universidad
de Zurich.
IMPORTANCIA DE LAS PROBABILIDADES Nuestro cerebro utiliza
probabilidades en la mayoría de sus razonamientos: ejemplo, identificar una
palabra/ una frase dicha por otra persona. Sin embargo, aún así nuestro
cerebro es capaz de identificarla por semejanza (probabilidades) con otras
entonaciones y pronunciaciones que hemos escuchado antes. Esto no es mas
que un calculo de la probabilidad de que esta palabra recientemente sea la
misma que hayamos escuchado antes. De la misma forma, para situaciones en
las que no tenemos seguridad en un 100%, al buscar algo parecido o “lo mas
probable” no hacemos más que utilizar esta importante ciencia.
La teoría de errores puede tardarse atrás en el tiempo hasta Opera Miscellanea
(póstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas
Simpson en 1755 (impresa en 1766) aplicó por primera vez la teoría para la
discusión de errores de observación. La reimpresión (1757) de esta misma
teoría expone los axiomas de que los errores positivos y negativos son
igualmente probables, y que hay ciertos límites asignables dentro de los cuales
se supones que caen todos los errores; se discuten los errores continuos y se
da una curva de la probabilidad. Pierre-Simpson Laplace (1774) hizo el primer
intento para deducir una regla para la combinación de observaciones a partir de
los principios de la teoría de las probabilidades. Representó la ley de la
probabilidad de error con una curva y=o(x), siendo x cualquier error e y su
probabilidad, y expuesto tres propiedades de esta curva:
Es simétrica al eje y; El eje x es un asíntota,
siendo la probabilidad del error (infinito) igual a 0;
La superficie cerrada es 1,
haciendo cierta la existencia de un error.
En los últimos años, parece haber resurgido el interés por la Historia de la
Ciencia en general, lo que también ha ocurrido en el campo de la historia del
Calculo de la Probabilidad y de la Estadística, como lo demuestra el creciente.
La probabilidad constituye un importante parámetro en la determinación de las
diversas casualidades obtenidas tras una serie de eventos esperados dentro de
un rango estadístico. Se puede decir razonablemente que el descubrimiento de
métodos rigurosos para calcular y combinar los cálculos de probabilidad ha
tenido un profundo efecto en la sociedad moderna. Por consiguiente, puede ser
de alguna importancia para la mayoría de los ciudadanos entender como se
calculan los pronósticos y las probabilidades, y como contribuyen a la
reputación y a las decisiones, especialmente en una democracia.

UNIVERSO DETERMINISTA Esta basado en los conceptos newtonianos,


no hay probabilidad si se conocen todas las condiciones, ejemplo: en el
caso de la ruleta; si la fuerza de la mano y el periodo de esta fuerza es
conocida, entonces el numero donde la bola parara será seguro. Los físicos
tienen la misma situación ene la teoría cinética de los gases donde el
sistema determinantico en principio, es tan complejo (con el numero de
moléculas típicamente en el orden de magnitud de la constante de avogrado
6-10)23 que solo la descripción estadística de sus propiedades es viable.

Hable ampliamente sobre el origen y desarrollo de las


distribuciones de probabilidad discreta.
La distribución uniforme discreta describe el comportamiento de una variable
discreta que puede tomar n valores distintos con la misma probabilidad cada
uno de ellos. Un caso particular de esta distribución, que es la que se incluye
en este módulo de Epidat 4, ocurre cuando los valores son enteros
consecutivos. Esta distribución asigna igual probabilidad a todos los valores
enteros entre el límite inferior y el límite superior que definen el recorrido de la
variable. Si la variable puede tomar valores entre a y b, debe ocurrir que b sea
mayor que a, y la variable.
En teoría de la probabilidad y estadística, la distribución de probabilidad de
una variable aleatoria es una función que asigna a cada suceso definido sobre
la variable la probabilidad de que dicho suceso ocurra. La distribución de
probabilidad está definida sobre el conjunto de todos los sucesos y cada uno
de los sucesos es el rango de valores de la variable aleatoria. También puede
decirse que tiene una relación estrecha con las distribuciones de frecuencia. De
hecho, una distribución de probabilidades puede comprenderse como una
frecuencia teórica, ya que describe cómo se espera que varíen los resultados.
Se denomina distribución de variable discreta a aquella cuya función de
probabilidad solo toma valores positivos en un conjunto de valores de X finito o
infinito numerable. A dicha función se le llama función de masa de probabilidad.
En este caso la distribución de probabilidad es la suma de la función de masa,
por lo que tenemos entonces que:
Y, tal como corresponde a la definición de distribución de probabilidad,
esta expresión representa la suma de todas las probabilidades desde -∞ hasta
el valor x.

Tipos de distribuciones de variable discreta


Definidas sobre un dominio finito
La distribución binomial, que describe el número de aciertos en una serie de n
experimentos independientes con posibles resultados binarios, es decir, de
«sí» o «no», todos ellos con probabilidad de acierto p y probabilidad de fallo q =
1 − p.
La distribución de Bernoulli, la clásica binomial, que toma valores «1», con
probabilidad p, o «0», con probabilidad q = 1 − p (ensayo de Bernoulli).
La distribución de Rademacher, que toma valores «1» o «-1» con probabilidad
1/2 cada uno.
La distribución beta-binomial, que describe el número de aciertos en una serie
de n experimentos independientes con posibles resultados «sí» o «no», cada
uno de ellos con una probabilidad de acierto variable definida por una beta.
La distribución degenerada en x0, en la que X toma el valor x0 con probabilidad
1. A pesar de que no parece una variable aleatoria, la distribución satisface
todos los requisitos para ser considerada como tal.
La distribución uniforme discreta, que recoge un conjunto finito de valores que
son resultan ser todos igualmente probables. Esta distribución describe, por
ejemplo, el comportamiento aleatorio de una moneda, un dado, o una ruleta de
casino equilibrados (sin sesgo).
La distribución hipergeométrica, que mide la probabilidad de obtener x (0 ≤ x ≤
d) elementos de una determinada clase formada por d elementos
pertenecientes a una población de N elementos, tomando una muestra de n
elementos de la población sin reemplazo.
La distribución hipergeométrica no central de Fisher.
La distribución hipergeométrica no central de Wallenius.
La ley de Benford, que describe la frecuencia del primer dígito de un conjunto
de números en notación decimal.
Definidas sobre un dominio infinito
La distribución binomial negativa o distribución de Pascal, que describe el
número de ensayos de Bernoulli independientes necesarios para conseguir n
aciertos, dada una probabilidad individual de éxito p constante.
La distribución geométrica, que describe el número de intentos necesarios
hasta conseguir el primer acierto.
La distribución beta-binomial negativa, que describe el número de
experimentos del tipo «sí/no» necesarios para conseguir n aciertos, cuando la
probabilidad de éxito de cada uno de los intentos está distribuida de acuerdo
con una beta.
La distribución binomial negativa extendida.
La distribución de Boltzmann, importante en mecánica estadística, que describe
la ocupación de los niveles de energía discretos en un sistema en equilibrio
térmico. Varios casos especiales son:
La distribución de Gibbs.
La distribución de Maxwell-Boltzmann.
La distribución elíptica asimétrica.
La distribución fractal parabólica.
La distribución hipergeométrica extendida.
La distribución logarítmica.
La distribución logarítmica generalizada.
La distribución de Poisson, que describe el número de eventos individuales que
ocurren en un periodo de tiempo. Existen diversas variantes como la
distribución de Poisson desplazada, la hiperdistribución de Poisson, la
distribución binomial de Poisson y la distribución de Conway-Maxwell-Poisson,
entre otras.
La distribución de Polya-Eggenberger.
La distribución Skellam, que describe la diferencia de dos variables aleatorias
independientes con distribuciones de Poisson de distinto valor esperado.
La distribución de Yule-Simon.
La distribución zeta, que utiliza la función zeta de Riemman para asignar una
probabilidad a cada número natural.
La ley de Zipf, que describe la frecuencia de utilización de las palabras de una
lengua.
La ley de Zipf-Mandelbrot es una versión más precisa de la anterior.
Hable ampliamente sobre el origen y desarrollo de las distribuciones
de probabilidad continúa.
Para una variable continua hay infinitos valores posibles de la variable y entre
cada dos de ellos se pueden definir infinitos valores más. En estas condiciones
no es posible deducir la probabilidad de un valor puntual de la variable; cómo
se puede hacer en el caso de variables discretas, pero es posible calcular la
probabilidad acumulada hasta un cierto valor función de distribución de
probabilidad, y se puede analizar cómo cambia la probabilidad acumulada en
cada punto estos cambios no son probabilidades sino otro concepto: la función
de densidad.
Una distribución de probabilidad continua, la distribución normal.
En teoría de la probabilidad una distribución de probabilidad se llama continua
si su función de distribución es continua. Puesto que la función de distribución
de una variable aleatoria X viene dada por F_{X}(x)=P(X\leq x) F_{X}
(x)=P(X\leq x)}, la definición implica que en una distribución de probabilidad
continua X se cumple P[X = a] = 0 para todo número real a, esto es, la
probabilidad de que X tome el valor a es cero para cualquier valor de a. Si la
distribución de X es continua, se llama a X variable aleatoria continua.

Existe una definición alternativa más rigurosa en la que el término "distribución


de probabilidad continua" se reserva a distribuciones que tienen función de
densidad de probabilidad. Estas funciones se llaman, con más precisión,
variables aleatorias absolutamente continuas (véase el Teorema de Radon-
Nikodym). Para una variable aleatoria X absolutamente continua es equivalente
decir que la probabilidad P[X = a] = 0 para todo número real a, en virtud de que
hay un incontables conjuntos de medida de Lebesgue cero (por ejemplo, el
conjunto de Cantor).
Una variable aleatoria con la distribución de Cantor es continua de acuerdo con
la primera definición, pero según la segunda, no es absolutamente continua.
Tampoco es discreta, ni una media ponderada de variables discretas y
absolutamente continuas. En aplicaciones prácticas, las variables aleatorias a
menudo ofrece una distribución discreta o absolutamente continua, aunque
también aparezcan de forma natural mezclas de los dos tipos.
I- Hable ampliamente sobre el origen y desarrollo de las
diferentes técnicas de muestreo.
Cada vez que miro las estadísticas de este modesto blog, siempre observo la
misma pauta: el tráfico de visitas cumple de forma precisa el principio de
Pareto: el 20% de los posts generan el 80% de las visitas. Y entre este 20% de
posts más visitados destacan con mucha diferencia los posts dedicados a
cómo calcular el tamaño de una muestra representativa para hacer un estudio
de opinión.
Viendo el gran interés que despierta esta cuestión, inauguramos hoy una serie
de posts dedicados al muestreo: explicaremos qué es, cuáles son las
principales técnicas de muestreo y cuando conviene usar una técnica u otra.
Esperamos que estos contenidos sean de utilidad, ya sea a estudiantes de
investigación, personas con curiosidad en estos temas o profesionales que
tengan estos conceptos un poco oxidados.

¿Qué es el muestreo?
El muestreo es el proceso de seleccionar un conjunto de individuos de una
población con el fin de estudiarlos y poder caracterizar el total de la población.

La idea es bastante simple. Imagina que queremos saber algo de un universo o


población, por ejemplo, qué porcentaje de los habitantes de México fuma
habitualmente. Una forma de obtener este dato sería contactar con todos los
habitantes de México (122 millones de personas) y preguntarles si fuman. La
otra forma sería seleccionar un subconjunto de individuos (por ejemplo, 1.000
personas), preguntarles si fuman y usar esta información como una
aproximación de la información buscada. Pues bien, este grupo de 1.000
personas que me permiten conocer mejor cómo se comportan el total de
mexicanos es una muestra, y la forma en que los seleccionamos es la técnica
de muestreo.

1) Universo o población: Es el total de individuos que deseo estudiar o


caracterizar. En el ejemplo anterior, el universo lo forman los habitantes de
México, pero podemos pensar en todo tipo de universos, más generales o más
concretos. Por ejemplo, si quiero saber cuánto fuman de media los fumadores
de México, el universo en este caso serían "los fumadores de México".
2) Muestra: Es el conjunto de individuos del universo que selecciono para
estudiarlos, por ejemplo a través de una encuesta.
¿Por qué funciona el muestreo?
El muestreo es útil gracias a que podemos acompañarlo de un proceso inverso,
que llamamos generalización de resultados. Es decir, para conocer un
universo lo que hacemos es:
1)  Extraer una muestra del mismo.
2) Medir un dato u opinión.
3) Proyectar en el universo el resultado observado en la muestra.
La generalización de resultados añade cierto error al dato que medimos.
Imagina que tomamos una muestra al azar de 1.000 personas de México y les
preguntamos si fuman. Obtengo que el 25% de la muestra fuma. La simple
lógica nos dice que si de 1.000 mexicanos elegidos al azar el 25% fuma, este
dato debería ser indicativo de lo que obtendríamos si preguntásemos a los 122
millones de mexicanos. Ahora bien, el azar podría haber hecho que haya
escogido para mi muestra más fumadores de lo que correspondería a la
proporción exacta que hay en el universo o, por el contrario, que en mi muestra
los fumadores estén algo infrarepresentados. El azar podría hacer que el
porcentaje de fumadores en la población fuese algo diferente del 25% que
hemos observado en la muestra (tal vez un 25,2%, por ejemplo). Por lo tanto, la
generalización de resultados de un muestra a un universo conlleva aceptar que
cometemos cierto error, tal y como ilustra el siguiente esquema.

Afortunadamente, el error cometido al generalizar resultados puede acotarse


gracias a la estadística. Para ello suelen usarse dos parámetros: el margen de
error, que es la máxima diferencia que esperamos que haya entre el dato
observado en mi muestra y el dato real en el universo, y el nivel de confianza,
que es el nivel de certeza que tenemos de que el dato real esté dentro del
margen de error.
Por ejemplo, en nuestro caso de fumadores mexicanos, si selecciono una
muestra de 471 individuos y les pregunto si fuman, el resultado que obtenga
tendrá un margen de error máximo de ±5% con un nivel de confianza del 97%.
Esta forma de expresar los resultados es la correcta cuando usamos muestreo.

El tamaño de la muestra
¿Qué tamaño de muestra necesito usar para estudiar cierto universo? Depende
del tamaño del universo y del nivel de error que esté dispuesto a aceptar, 
Cuanta más precisión exija, mayor muestra necesito. Si quiero tener una
certeza absoluta en mi resultado, hasta el último decimal, mi muestra tendrá
que ser tan grande como mi universo.

Pero el tamaño de la muestra tiene una propiedad fundamental que explica


porqué el muestreo se usa tanto en tantos ámbitos del conocimiento. Esta
propiedad podría resumirse como sigue: a medida que estudio universos
mayores, el tamaño de muestra que necesito cada vez representa un
porcentaje menor de dicho universo.

Este fenómeno lo explican de forma muy didáctica en Gaussianos.com, un


interesante blog dedicado a las matemáticas. Supongamos que queremos
hacer una encuesta para conocer un porcentaje (podría ser el de gente que
fuma) con un nivel de error determinado, por ejemplo, un margen de error del
5% y una confianza del 95%. Si el universo a estudiar fuese de tan sólo 100
personas, mi muestra tendría que ser de 79,5 individuos (es decir, 79,5% del
universo, lo que representa un parte muy importante del total del universo).  Si
el universo fuese de 1.000 personas, mi muestra debería ser de 277,7
personas (27,7% del universo). Y si mi universo fuese de 100.000 personas, la
muestra necesaria sería de 382,7 personas (3,83% del universo).

Por lo tanto, a medida que trabajo con universos más grandes, la muestra que
necesito debe ir creciendo pero de forma no proporcional, tiende a estancarse y
cada vez representa un porcentaje más pequeño del universo. A partir de cierto
tamaño de universo (en torno a 100.000 individuos), el tamaño de la muestra
ya no necesita crecer más. La siguiente tabla nos muestra algunos ejemplos:
 
Tamaño de muestra necesaria para tener un error del 5% con un nivel de confianza del
95%
 
Universo Muestra necesaria
%
10 10 100%

100 80 80%

1.000 278 27,8%

10.000 370 3,7%

100.000 383 0,38%

1.000.000 384 0,038%

10.000.000 385 0,004%

100.000.000 385 0,0004%

  

Los datos anteriores nos dicen que por grande que sea el universo, con 385
personas puedo estudiar cualquier dato con el mismo nivel de error (margen de
5%, confianza de 95%). Por esta razón el muestreo es tan poderoso: nos
permite hacer afirmaciones altamente precisas de una gran cantidad de
individuos a través de un parte muy pequeña de los mismo.

Como contrapartida, el ejemplo anterior ilustra que el muestreo no funciona


bien en universos pequeños. Si tengo una clase de 10 alumnos, la opinión de
cada uno de ellos es fundamental para conocer la opinión global, no puedo
prescindir de ninguno. Si no quiero superar el error que nos hemos propuesto,
en un universo de 10 individuos necesito encuestar a todos ellos.
Ventajas e inconvenientes del muestreo

✔Ventajas ✘Inconvenientes
- Necesitamos estudiar menos - Introducimos error (controlado) en el
individuos, necesitamos menos resultado, debido a la propia naturaleza
recursos (tiempo y dinero). del muestreo y a la necesidad de
generalizar resultados.
- La manipulación de datos es
mucho más simple. Si con una - Tenemos el riesgo de introducir
muestra de 1.000 personas sesgos debido a una mala selección de
tengo suficiente, ¿para qué la muestra. Por ejemplo, si la forma en
quiero analizar un fichero de que seleccionamos individuos para la
millones de registros? muestra no es aleatoria, los resultados
pueden verse seriamente afectados.

La muestra aleatoria simple: definición y alternativas


La técnica más simple de muestreo, a partir de la cual se desarrollan en resto
de técnicas, es el muestreo aleatorio simple. Una muestra aleatoria simple es
aquella en la que se seleccionan individuos del universo de forma totalmente
aleatoria. Esto implica que todos los individuos deben tener idéntica
probabilidad (no nula) de ser seleccionados para la muestra.

Pero una cosa es la teoría y otra la práctica. Sólo en entornos muy controlados
es posible hacer muestras aleatorias. Por otra parte, cuando tenemos
universos compuestos por grupos homogéneos (entre sí) de personas,
podemos aprovechar esta agrupación para mejorar la precisión de la muestra
(o reducir el tamaño de la misma).

Conclusión.
Se puede decir que no hay una cosa llamada probabilidad. También podemos
decir que la probabilidad es la medida de nuestro grado de incertidumbre, o
esto es, el grado, de nuestra ignorancia dada una situación. La física moderna
proporciona ejemplos importantes de situaciones determinantes donde solo la
descripción probabilística es falible debido a información incompleta y la
complejidad de un sistema así como de un fenómeno realmente aleatorio La
teoría de la probabilidad se usa extensamente en aéreas de la estadística, la
física la matemática, las ciencias y la filosofía para sacar conclusiones sobre la
probabilidad de sucesos potenciales y la mecánica subyacentes de sistemas
complejos.
La probabilidad es una medida de la certidumbre asociada a un suceso o
evento futuro y suele expresarse como un número entre 0 y 1 (o entre 0 % y
100 %.
Una forma tradicional de estimar algunas probabilidades sería obtener la
frecuencia de un acontecimiento determinado mediante la realización de
experimentos aleatorios, de los que se conocen todos los resultados posibles,
bajo condiciones suficientemente estables. Un suceso puede ser improbable
con probabilidad cercana a 0, probable (probabilidad intermedia o seguro con
probabilidad uno.
La distribución es aquel conjunto de actividades, que se realizan desde que el
producto ha sido elaborado por el fabricante hasta que ha sido comprado

Opinión personal:
Mi Opinión personal es la probabilidad está basada en el estudio de la
combinatoria y es fundamento necesario de la estadística, además de otras
disciplinas como matemática, física u otra ciencia. En ellas se aplica una teoría
de probabilidades, la cual tiene como fin examinar las formas y medios para
obtener esas medidas de certeza, así como encontrar los métodos de
combinarlos cuando intervienen varios sucesos en un experimento aleatorio o
prueba.
Cada uno de los resultados obtenidos al realizar un experimento recibe el
nombre de suceso elemental. Se llama espacio muestral el conjunto de todos
los sucesos elementales obtenidos, de forma que todo subconjunto del espacio
muestral es un suceso.

También podría gustarte