Está en la página 1de 37

Universidad Autónoma de

Coahuila
Facultad de Contaduría y
Administración
Licenciatura en Administración de
Empresas Gastronómicas y Turísticas

PORTAFOLIO DE EVIDENCIAS

Alumna: Chris Anette Reyes Rodríguez

MATRICULA: 22222945

Turno: Matutino 2 “T”

Materia: Estadística Básica

1
Misión
Formar profesionistas especializados en la toma de decisiones, generando
controles internos e información financiera en forma veraz para los sectores
público y privado, con pertinencia laboral, empresarial y social para coadyuvar en
el desarrollo político, económico y social de la República. Mexicana.

Visión

Vemos a nuestros estudiantes ocupando puestos administrativos y a los


egresados como líderes empresariales al servicio de la comunidad, aplicando el
sentido ético-humano con pertinencia en el entorno social, laboral y empresarial.

2
ESTADISTICA DESCRIPTIVA E INDUCTIVA
Estadística Descriptiva.
La estadística descriptiva es la técnica matemática que obtiene, organiza,
presenta y describe un conjunto de datos con el propósito de facilitar el uso,
generalmente con el apoyo de tablas, medidas numéricas o gráficas.

Ejemplo:
Un ejemplo fácil de la estadística descriptiva sería calcular la media de goles en un
partido por un futbolista, en esto tratamos de describir una variable, o sea, el
número de goles que este caso sería mediante el cálculo de una métrica.

Otro ejemplo podría ser calcular en una población la frecuencia del color de ojos
en los individuos, por decirlo así, el 30% de los individuos tienen los ojos verdes, el
60% los tiene marrones y el 10% restante los tiene azules, esto se trataría de una
variable cualitativa ya que describimos la cualidad y frecuencia de estos reflejada
en datos numéricos.
Por último, una heladería dispone una variedad de sabores de helados y quiere
mejorar las ventas, sus dueños logran un estudio donde cuentan la cantidad de
clientes diarios, así, los separa en grupos por sexo y edades, en este estudio se
registra sus sabores preferidos y cuál es la presentación más vendida, por lo tanto,
con los datos adquiridos planifican cuáles serán las compras de helados.

Estadística Inductiva.
Estadística inferencial o estadística inductiva; es la estadística que tiene como
objetivo obtener conclusiones sobre el total de la población a partir de los datos
obtenidos en un subconjunto de esta o grupo de elementos representativos
(muestra).

Ejemplo:
Análisis de mercado. Las empresas a menudo contratan otras empresas
especializadas en marketing para que analicen sus nichos de mercado a través de
diversas herramientas estadísticas y diferenciales, como encuestas y focus
groups, a partir de las cuales deducir qué productos prefiere la gente y en qué
contexto, etc.

3
HISTORIA DE LA ESTADÍSTICA
La estadística es mucho más que sólo números apilados y gráficas bonitas. Es
una ciencia con tanta antigüedad como la escritura, y es por sí misma auxiliar de
todas las ciencias –medicina, ingeniería, sociología, psicología, economía,
etcétera–, así como de los gobiernos, mercados y otras actividades humanas.
Desde los comienzos de la civilización han existido formas sencillas de
estadísticas, pues ya se utilizaban representaciones gráficas y otros símbolos en
pieles, rocas, palos de madera y paredes de cuevas para contar el número de
personas, animales y otras cosas.
Hacia el año 3000 a. de C. los babilonios utilizaban ya pequeñas tablillas de arcilla
para recopilar datos sobre la producción agrícola y los géneros vendidos o
cambiados mediante trueque.
En el antiguo Egipto, los faraones lograron recopilar, alrededor del año 3050 a. de
C., prolijos datos relativos a la población y la riqueza del país; de acuerdo con el
historiador griego Heródoto, dicho registro de la riqueza y la población se hizo con
el propósito de preparar la construcción de las pirámides.
En el antiguo Israel, la Biblia da referencia, en el libro de los Números, de los
datos estadísticos obtenidos en dos recuentos de la población hebrea.
En China ya había registros numéricos similares con anterioridad al año 2000 a.
de C.
Los griegos, hacia el año 594 a. de C., efectuaron censos periódicamente con
fines tributarios, sociales (división de tierras) y militares (cálculo de recursos y
hombres disponibles). La investigación histórica revela que se realizaron 69
censos para calcular los impuestos, determinar los derechos de voto y ponderar la
potencia guerrera.
Pero fueron los romanos, maestros de la organización política, quienes mejor
supieron emplear los recursos de la estadística. Cada cinco años llevaban a cabo
un censo de la térpoblación, y los funcionarios públicos tenían la obligación de
anotar nacimientos, defunciones y matrimonios, sin olvidar los recuentos
periódicos del ganado y de las riquezas contenidas en las tierras conquistadas. En
la época del nacimiento de Cristo sucedía uno de estos empadronamientos de la
población bajo la autoridad del Imperio.

Después de la conquista normanda de Inglaterra en 1066, el rey Guillermo I


encargó un censo en el año 1086. La información en él obtenida se recoge en el
Domesday Book, o Libro del Gran Catastro, que es un documento acerca de la
propiedad, la extensión y el valor de las tierras en Inglaterra. Esta obra fue el
primer compendio estadístico de ese país.
Durante los siglos XV, XVI y XVII, hombres como Leonardo de Vinci, Nicolás
Copérnico, Galileo Galilei, William Harvey, Francis Bacon y René Descartes
hicieron grandes operaciones con base en el método científico, de tal forma que
cuando se crearon los Estados nacionales y surgió como fuerza el comercio
internacional, había ya un método capaz de aplicarse a los datos económicos.
Debido al temor que Enrique VII tenía de la peste, en el año 1532 empezaron a
registrarse en Inglaterra las defunciones causadas por esta enfermedad. En

4
Francia, más o menos por la misma época, la ley exigía a los clérigos registrar los
bautismos, fallecimientos y matrimonios.
Durante un brote de peste que apareció a fines del siglo XVI, el gobierno inglés
comenzó a publicar estadísticas semanales de los decesos. Esa costumbre
continuó muchos años, y en 1632 los llamados Bills of Mortality (Cuentas de
Mortalidad) ya contenían datos sobre los nacimientos y fallecimientos por sexo.
En 1662, el capitán John Graunt compiló documentos que abarcaban treinta años,
mediante los cuales efectuó predicciones sobre el número de personas que
morirían de diversas enfermedades, así como de las proporciones de nacimientos
de hombres y mujeres que cabía esperar.
Durante el siglo XVII se aportaron indicaciones más concretas sobre los métodos
de observación y análisis cuantitativo y se ampliaron los campos de la inferencia y
la teoría estadística.
El primer empleo de los datos estadísticos para fines ajenos a la política tuvo lugar
en 1691 y estuvo a cargo de Gaspar Neumann, un profesor alemán que vivía en
Breslau. Este investigador se propuso destruir la antigua creencia popular de que
en los años terminados en 7 moría más gente que en los restantes, y para lograrlo
hurgó pacientemente en los archivos parroquiales de la ciudad.

Después de revisar miles de partidas de defunción, pudo demostrar que en tales


años no fallecían más personas que en los demás. Los procedimientos de
Neumann fueron conocidos por el astrónomo inglés Halley, descubridor del
cometa que lleva su nombre, quien los aplicó al estudio de la vida humana. Sus
cálculos sirvieron de base para las tablas de mortalidad que hoy utilizan todas las
compañías de seguros.
Godofredo Achenwall, profesor de la Universidad de Gotinga, acuñó en 1760 la
palabra estadística, que extrajo del término italiano statista (estadista). Creía, y
con sobrada razón, que los datos de la nueva ciencia serían el aliado más eficaz
del gobernante consciente. La raíz remota de la palabra se halla en el término
latino s t a t u s, que significa “estado” o “situación”. Esta etimología aumenta el
valor intrínseco de la palabra por cuanto que la estadística revela el sentido
cuantitativo de las más variadas situaciones.
Uno de los primeros trabajos sobre las probabilidades corresponde al matemático
italiano del siglo XVI Girolano Cardano, aunque fue publicado 86 años después de
su fallecimiento.

Durante ese mismo siglo y principios del XVIII, matemáticos como Bernoulli,
Maseres, Lagrange y Laplace desarrollaron la teoría de probabilidades. No
obstante, durante cierto tiempo la teoría de las probabilidades limitó su aplicación
a los juegos de azar, y no fue sino hasta el siglo siguiente que comenzó a
aplicarse a los grandes problemas científicos.
Durante el sigo XVIII empieza el auge de la estadística descriptiva en asuntos
sociales y económicos, y es a finales de ese siglo y comienzos del XIX cuando se
comienzan a asentar verdaderamente las bases teóricas de la teoría de
probabilidades con los trabajos de Joseph Louis Lagrange y Pierre Simon de
Laplace, del brillantísimo y ubicuo matemático y astrónomo alemán Carl Friedrich
Gauss, y de Simeón-Denis Poisson.
5
En el periodo de 1800 a 1820 se desarrollaron dos conceptos matemáticos
fundamentales para la teoría estadística: la teoría de los errores de observación,
aportada por Laplace y Gauss, y la teoría de los mínimos cuadrados, realizada por
Laplace, Gauss y Legendre.
A finales del siglo XIX, Sir Francis Galton ideó el método conocido como
correlación, que tenía por objeto medir la influencia relativa de los factores sobre
las variables.
Kurt Pearson. Este último publicó en 1892 el libro The Grammar of Science (La
gramática de la ciencia), un clásico en la filosofía de la ciencia, y fue él quien ideó
el conocido test de Chi -cuadrado.
Ronald Arnold Fisher la figura más influyente de la estadística, su libro Statistical
Methods for Research Workers (Métodos estadísticos para los investigadores),
publicado en 1925, ha sido probablemente el libro de estadística más utilizado a lo
largo de muchos años.

En el siglo XIX, con la generalización del método científico para estudiar todos los
fenómenos de las ciencias naturales y sociales, los investigadores vieron la
necesidad de reducir la información a valores numéricos para evitar la
ambigüedad de las descripciones verbales.
En nuestros días, la estadística se ha convertido en un método efectivo para
describir con exactitud los valores de los datos económicos, políticos, sociales,
psicológicos, biológicos y físicos, y sirve como herramienta para relacionar y
analizar dichos datos.

6
ORDENAMIENTO DE DATOS
¿Qué es el ordenamiento de datos?
La ordenación organiza los datos en orden alfabético o numérico ascendente o
descendente. Por ejemplo, puede ordenar una columna que enumere los valores
de las ventas de un producto en orden descendente para ordenar las ventas del
producto de la más alta a la más baja.

Conceptos básicos
Clase: Es el número de subconjuntos en que se han agrupado los datos. Cada
clase se puede denominar mediante una letra, un número o alguna característica
del subconjunto.

Intervalo de clase (número de clase): Es un conjunto de elementos que forman a


una clase, conteniendo un límite inferior y un límite superior.

FORMULA
K=1+3.322LonN
k=numero de clase N=total de frecuencia Log=logaritmo N

RANGO: Es el límite dentro de diferentes valores que toma la variable en un


estudio o investigación dada. Es la diferencia entre
(valor mayor – valor menor) + 1

Marca de clase: La marca de clase es el punto medio de cada intervalo y es el


valor que representa a todos los intervalos para el cálculo de algunos parámetros
se obtiene al sumar los limites superior e inferior y dividirlo entre dos
Marca de clase= 𝑙𝑖𝑚𝑖𝑡𝑒 𝑠𝑢𝑝𝑒𝑟𝑖𝑜𝑟+𝑙𝑖𝑚𝑖𝑡𝑒 𝑖𝑛𝑓𝑒𝑟𝑖𝑜𝑟/ 2

Limites reales: Consiste en unir el limite superior con el límite inferior inmediato en
la clase

¿Cuál es la regla de sturges?


La regla de Sturges es una regla que sirve para calcular el número clases o
intervalos idóneo en los que se debe dividir un conjunto de datos. La fórmula de la
regla de Sturges establece que el número de clases es igual a uno más el
logaritmo en base dos del número total de datos. Donde k es el número de clases
o intervalos y N es el número total de observaciones de la muestra.
K=1+3.322 Log N

7
INTRODUCCIÓN A LAS TABLAS DE
FRECUENCIAS
¿Qué es una tabla de frecuencias?
Las tablas de distribución de frecuencias se utilizan cuando se recolectan datos,
con ellas se pueden representar los datos de manera que es más fácil analizarlos.
Se pueden elaborar tablas de distribución de frecuencias para datos no agrupados
y para datos agrupados.

¿Cómo se hacen las tablas de frecuencias?


Primero se agrupan los datos, y dependiendo de la cantidad de los mismo, será la
cantidad de columnas en la tabla. Siempre se agrega una columna extra al inicio,
pues será el título.

La primera columna es conocida como X (de los datos), en donde se agrupan el


total de los datos recolectados.
La siguiente columna, la columna de la frecuencia absoluta (conocida como f), y
es el número de veces que se repite un dato de la tabla.

Si sumamos el número las frecuencias absolutas, nos dará como resultado el


número de datos.

Una vez obtenido el número de datos total, conocido con el símbolo de sigma (una
M acostada) sigue la columna de la frecuencia absoluta acumulada (F). Que se
basa en acumular las frecuencias de la columna anterior.

La siguiente columna es la fr, frecuencia relativa. Esta se enumera dependiendo


de la frecuencia absoluta sobre la que se trabaje (fr).
Se obtiene dividiendo los datos de la frecuencia absoluta por el número de datos,
y colocando el número decimal. Una vez obteniendo los datos, se colocan
sumados al final de la columna.
La última columna, la columna de los porcentajes. Y para realizar esta columna, se
deben de tomar los números de la columna de frecuencias relativas y
multiplicarlos por 100.

Al llevar esto a cabo, nos dará el porcentaje respectivo de los


datos utilizados, y al sumarlos para añadir a la fila extra de porcentaje, nos deberá
de dar un resultado de 99-100%.
Si da como resultado el numero antes mencionado, es muy probable que haya
sido correcto.

8
DISTRIBUCIÓN DE FRECUENCIA CON DATOS
AGRUPADOS
Tablas de Frecuencia: Las tablas de frecuencia se pueden utilizar en las tiendas
de la esquina, supermercados, empresas nacionales y trasnacionales; así como la
economía
mundial
Conceptos básicos

CLASES

Rango: Definimos el rango como la diferencia entre el mayor de los datos y el


menor de todos los datos.
Intervalo: Es el espacio comprendido entre dos limites (superior e inferior)
Frecuencia: Se define como el número de datos que caen dentro de casa intervalo
clase.

CONCEPTOS DERIVADOS

Limite real: los intervalos de clase son mutuamente excluyentes se obtiene como
el punto entre el límite, superior de una clase y el límite inferior de la
Otra.

Marca de clase: la marca de clase es el punto medio del intervalo de clase y se


obtiene sumado los limites inferiores y superiores de la clase y dividiendo por 2.

Frecuencia relativa: es la frecuencia de la clase dividida por el total de frecuencias


de todas las clases y se expresa generalmente como porcentaje.

Frecuencia acumulada: la frecuencia total de todos los valores menos que el límite
real superior de clase de un intervalo de clase dado.

9
DATOS NO AGRUPADOS
¿QUÉ SON LOS DATOS NO AGRUPADOS?

Los datos no agrupados constituyen del conjunto de datos que no han sido
clasificados y que son presentados en una tabla de datos en forma individual, es
decir que no forman parte de un conjunto.
Son aquellos que no han recibido ningún tratamiento o clasificación luego de ser
recolectados.

Estos se miden con las medidas de tendencia central, las cuales son la media,
mediana y moda.
• LA MEDIA (x): Está determinada por el valor
en promedio de una serie de conjunto de datos numéricos. Se calcula sumando
todos los valores y dividiéndolos entre el valor de n que es el número total de
datos.
• LA MEDIANA(Me): Es el valor encontrado en el centro del conjunto de los datos
luego de haber sido ordenados.
• LA MODA(Mo): es el dato que más se repite o cuya frecuencia es mayor. Para
calcular la moda se deben escribir los números del conjunto y luego escribir el
número o los números que se repiten mayor cantidad de veces.

LA TABLA DE FRECUENCIAS: Es una tabla que muestra la distribución de los


datos mediante sus frecuencias. Se utiliza para variables cuantitativas o
cualitativas ordinales.
La tabla de frecuencia es una herramienta que permite ordenar los datos de
manera que se presentan numéricamente las características de la distribución de
un conjunto de datos o muestra.

CONSTRUCCIÓN DE LA TABLA DE FRECUENCIAS CABE DISTINGUIR


ENTRE:

Tabla de frecuencias con datos no agrupados.


• En la primera columna se ordenan de menor a mayor
los diferentes valores que tiene la variable de los datos.
• En las siguientes columnas (segunda y tercera) se ponen las frecuencias
absolutas y las frecuencias absolutas acumuladas.
• Las columnas cuarta y quinta contienen las frecuencias relativas y las
frecuencias relativas acumuladas.
• Adicionalmente (opcional) se pueden incluir dos columnas (sexta y séptima),
representando la frecuencia relativa y la frecuencia relativa acumulada. Estos
porcentajes se obtienen multiplicando las dos frecuencias por cien.

Construcción de una tabla de frecuencias con datos agrupados

10
• Se emplea cuando hay un número alto de datos. Estos se agrupan en intervalos
o clases para facilitar su tabulación y análisis. Está indicado para representarlos
en un histograma. Como en el caso anterior, se utiliza tanto para variables
cuantitativas como en variables cualitativas ordinales. Los pasos iniciales para
formar una tabla de frecuencias con datos agrupados están encaminados a
determinar el número de intervalos y definirlos (siempre que no se conozcan de
antemano).

11
HISTOGRAMA
¿QUÉ ES UN HISTOGRAMA?
Un histograma muestra la forma de los valores, o la distribución, de una variable
continua. ya que se miden sobre una escala con muchos valores posibles. Algunos
ejemplos de datos continuos son:
• Edad
• Presión sanguínea
• Peso
• Temperatura
• Velocidad

¿PARA QUÉ SE USAN LOS HISTOGRAMAS?


Los histogramas ayudan a ver el centro, la extensión y la forma de un conjunto de
datos. También se pueden usar como herramienta visual para comprobar la
normalidad. Los histogramas son una de las siete herramientas básicas de control
de calidad estadístico.
Ofrecen una buena forma de evaluar los datos. Se pueden usar para comprobar
valores extremos o atípicos y ayudar a comprender la distribución de sus datos. Es
importante comprender la distribución de una variable a la hora de escoger
herramientas de análisis estadístico adecuadas.
ESTRUCTURA
• En el eje vertical encontramos las frecuencias, es decir, las veces que se repiten
los valores.
• En el eje horizontal encontramos los valores concretos de la variable de estudio,
en el caso de que estemos ante una variable discreta. Para el caso de una
variable continua, estos valores serán intervalos.

WILLIAM PLAYFAIR
➢ El ingeniero y economista escocés William Playfair (1759– 1823) es
considerado el padre de los gráficos estadísticos. Fue pionero en el uso del
gráfico de líneas para representar series temporales y fue el creador del
gráfico de barras y del gráfico circular.
➢ En la parte final de su vida, comienza a escribir. Fruto de esta actividad es
The Commercial and Political Atlas (1786) considerado la primera obra de
representación gráfica de datos. Este atlas estadístico utiliza 43 gráficos de
líneas y un gráfico barras. Con posterioridad publicaría The Statistical
Breviary (1801) donde aparecerían por primera vez los gráficos circulares y
los gráficos de tarta.
➢ Más allá de diseñar los gráficos básicos usados hoy en día en cualquier
trabajo estadístico, este ingeniero escocés sentó las bases de la
visualización de datos.

12
SEGUNDO PARCIAL

PERMUTACIÓN CON REPETICIÓN Y SIN


REPETICIÓN
PERMUTACIONES
Una permutación es un arreglo ordenado de objetos de un grupo, sin repeticiones.
Por ejemplo, existen seis maneras de ordenar las letras abc sin repetir una letra.
Las seis permutaciones son abc, acb, bac, bca, cab, cba.

PERMUTACIONES CON REPETICIÓN


La permutación con repetición se usa cuando en un total de “n” elementos, el
primero se repite “a” veces, el segundo “b” veces, el tercero “c” veces...
La fórmula para calcular el número de permutaciones u ordenamientos es la
siguiente: Donde:
n = a+b+c
P^n a;b;c;…=n!/a!b!c!

PERMUTACIONES CON REPETICIÓN


Hay tres condiciones en la permutación con repetición:
• Importa el orden.
• Hay elementos repetidos.
• Participan todos los elementos en los ordenamientos.

PERMUTACIÓN SIN REPETICIÓN


¿Qué son? Permutaciones sin repetición o permutaciones ordinarias de n
elementos (de orden n) son los distintos grupos de n elementos distintos que se
pueden hacer, de forma que dos grupos se diferencian únicamente en el orden de
colocación. Se representa por Pn.

PERMUTACIÓN SIN REPETICIÓN


¿Cómo se forman? Para construir las permutaciones sin repetición de un conjunto
de n elementos, tenemos que construir grupos de n elementos sin que se puedan
repetir. Se trata entonces de hacer lo mismo que se ha hecho con las variaciones
sin repetición de orden n a partir de un conjunto de n elementos.

• De un elemento. A = {1}. Únicamente existe una permutación: 1.


• De dos elementos. A = {1,2}. V2,2 = 2. Las dos permutaciones son: 12 y 21.
• De tres elementos. A = {1,2,3}. V3,3 = 6. Las seis permutaciones son: 123,
132, 213, 231, 312 y 321.

Y así podemos seguir construyendo permutaciones de cualquier número de


elementos.

13
COMBINACION CON Y SIN REPETICION
COMBINACIÓN CON REPETICION
La combinatoria con repetición son los diferentes conjuntos que se pueden formar
con «n» elementos, seleccionados de x en x, permitiendo que estos se puedan
repetir. Cada conjunto se debe diferenciar del anterior en al menos uno de sus
elementos (el orden no importa).
EJEMPLO: Imaginemos que estamos en una bodega que dispone de 7 variedades
de vino. Queremos escoger 3 de sus variedades pudiendo elegir entre tinto,
rosado, blanco, tinto especial, rosado especial, blanco especial y afrutado. Dado
que los sucesos no son mutuamente excluyentes, en nuestra selección podemos
repetir cualquiera de los elementos. Siendo así y poniendo algunos ejemplos
podemos elegir tinto, tinto y rosado especial o rosado, rosado y tinto o blanco,
blanco y rosado.
Por lo tanto, la combinatoria con repetición nos dice cómo formar o agrupar una
cantidad de datos/observaciones finitas, en grupos de una cantidad determinada,
pudiéndose repetir alguno de sus elementos. Esta es la principal diferencia entre
la combinatoria con repetición (se pueden repetir los elementos en cada selección)
y la combinatoria sin repetición (no se puede repetir ningún elemento en cada
selección)

FORMULA DE COMBINACION CON REPETICION

N= numero de observaciones X= número de elementos seleccionados


EJEMPLO APLICANDO FORMULA: Imaginemos que estamos en una pastelería
con una selección de 10 pasteles distintos. Queremos realizar una selección de 6
pasteles, ¿Cuántas combinaciones con repetición distintas podríamos formar? En
primer lugar, identificamos los elementos totales que en este caso son 10 pasteles.
Por tanto, ya tenemos nuestra n (n = 10). Como queremos seleccionar 6 pasteles
de los 10 posibles, nuestra x va a ser 6 (x =6). Sabiendo esto, no tenemos más
que aplicar la formula.

14
Para calcular el numerador tendríamos que calcular la factorial de 15, el cual sería
15*14*13...1 y en el denominador tendríamos la factorial de 6 (6*5*4...*1)
multiplicado por la factorial de 9 (9*8*7...1).
Nuestro resultado sería: 1.307.674.368.000,00/720*362.880 = 5.005
Podemos ver que, aunque las variedades entre las que podemos elegir no son
muy elevadas, al poder repetir los elementos, las combinaciones que se pueden
dar son enormes.

COMBINACIÓN SIN REPETICION


Se entiende por combinatoria sin repetición, a los diferentes conjuntos que se
pueden formar con «n» elementos, seleccionados de x en x. Cada conjunto se
debe diferenciar del anterior en al menos uno de sus elementos (el orden no
importa) y estos no se pueden repetir.
EJEMPLO: Un alumno que tiene un examen de 4 preguntas. De las 4 preguntas
ha de elegir tres ¿Cuántas combinaciones distintas podría realizar el alumno? Si
razonamos un poco veríamos (sin llegar a aplicar la fórmula) que el alumno podría
elegir cómo contestar a las 3 preguntas de cuatro formas distintas.
• Conjunto/opción 1: Contestar las preguntas 1,2,3.
• Conjunto/opción 2: Contestar las preguntas 1,2,4.
• Conjunto/opción 3: Contestar las preguntas 1,3,4.
• Conjunto/opción 4: Contestar las preguntas 2,3,4.
El alumno puede formar 4 conjuntos (n) de 3 elementos (x). Por lo tanto, la
combinatoria sin repetición nos dice cómo formar o agrupar una cantidad de
datos/observaciones finitas, en grupos de una cantidad determinada sin que
ninguno de los elementos pueda repetirse en cada grupo. Esta es la principal
diferencia entre la combinatoria con repetición (se pueden repetir los elementos en
cada grupo) y la combinatoria sin repetición (no se puede repetir ningún elemento
en cada grupo)
En el caso anterior, dado que el número total de elementos es pequeño y la
cantidad del conjunto es elevada, la cantidad de opciones es pequeña y se puede
deducir de manera sencilla sin aplicar la formula. En el caso de aplicar la formula
directamente, el numerador sería 24 (4*3*2*1) y el denominador sería 6 (3*2*1*1)
con lo que llegaríamos al cálculo de igual manera sin pensar en cómo podríamos
agrupar esas cuatro preguntas en conjuntos de tres.

15
INTRODUCCIÓN A LA TEORIA DE LA
PROBABILIDAD
Introducción: Los primeros estudios de probabilidad fueron motivados por la
posibilidad de acierto o fracaso en los juegos de azar. La probabilidad es un
mecanismo por medio del cual pueden estudiarse sucesos aleatorios, es decir,
operaciones cuyo resultado no puede ser predicho de antemano con seguridad.
Por ejemplo, el lanzamiento de una moneda.
La probabilidad puede ser definida como la ocurrencia del evento deseado o casos
exitosos sobre todos los resultados posibles, en un determinado espacio muestral.
La probabilidad mide la mayor o menor posibilidad de que se dé un determinado
resultado (suceso o evento) cuando se realiza un experimento aleatorio (Que
depende del azar o de la suerte), la probabilidad se define como un número o
valor que expresa la frecuencia con que se espera que se repita un evento o
fenómeno en el futuro
¿Qué es un experimento aleatorio? Son aquellos experimentos en los que no se
puede predecir su resultado.
¿Qué es un espacio muestral? El espacio muestral o espacio de muestreo es un
conjunto de todos los resultados posibles individuales de un experimento aleatorio,
esta nos sirve para calcular la frecuencia con que se obtiene los resultados de una
experiencia aleatoria.
¿Qué es un evento o suceso? Uno o varios de los posibles resultados.

Teoría de conjuntos
Es una rama de las matemáticas que estudia las propiedades y relaciones de los
conjuntos, colecciones abstractas de objetos, consideradas como objetos en sí
mismas.
Los conjuntos y sus operaciones más elementales son una herramienta básica en
la formulación de cualquier teoría matemática.
La palabra conjunto denota una colección de elementos relacionados claramente
entre sí, que guardan alguna característica en común. Ya sean números,
personas, figuras, ideas y conceptos.
¿Qué es un conjunto? Un conjunto es la agrupación, clase, o colección de objetos
o en su defecto de elementos que pertenecen y responden a la misma categoría o
grupo de cosas, por eso se los puede agrupar en el mismo conjunto. Entre los
objetos o elementos susceptibles de integrar o conformar un conjunto se cuentan

16
por supuesto cosas físicas, como pueden ser las mesas, sillas y libros, pero
también por entes abstractos como números o letras.
Clases de conjuntos
Conjunto Finito: Es el conjunto al que se le puede determinar su cardinalidad (El
cardinal indica el número o cantidad de elementos de un conjunto, sea esta
cantidad finita o infinita) o puede llegar a contar su último elemento. Ejemplo:
M= ("/x es divisor de 24)
M= (1, 2, 3, 4, 6, 8, 12,24)
Conjunto Infinito: Es el conjunto que, por tener muchísimos elementos, no se le
puede llegar a contar su último elemento. Ejemplo: A= ("/x sea grano de sal)
Conjunto Vacío. Es el conjunto cuya cardinalidad es cero ya que carece de
elementos. El símbolo del conjunto vacío O (). Ejemplo: C= ("/x sea habitantes del
sol)
Conjunto Unitario: Es el conjunto que solo tiene un elemento. Su cardinalidad es
uno (1). Ejemplo: D= {*/x sea vocal de la palabra "pez")

Algebra de conjuntos
Existen unas operaciones básicas que permiten manipular los conjuntos y sus
elementos, similares a las operaciones aritméticas, constituyendo el álgebra de
conjuntos
Unión: La unión de dos conjuntos A y B es el conjunto de todos los elementos que
pertenecen al conjunto A, al conjunto B o a ambos; A U B
Intersección: La intersección de dos conjuntos A y B es el conjunto cuyos
elementos U pertenecen simultáneamente a A y B. Es decir, A B que contiene
todos los elementos comunes de A y B
Diferencia: La diferencia entre dos conjuntos A y B es el conjunto A / B que
contiene todos los elementos de A que no pertenecen a B.
Complemento: Se llama A complemento al conjunto formado por todos los
elementos del universo menos los elementos del conjunto A.

17
Probabilidad clásica.
Probabilidad.
Rama de las matemáticas que estudia los resultados posibles de los fenómenos
aleatorios. Por ejemplo: el lanzamiento de una moneda, el lanzamiento de un
dado, extracción de una carta de un mazo de naipes. Etc. Hay muchas formas de
calcular la probabilidad de un hecho.

SUCESO: Es cada uno de los resultados posibles de una experiencia aleatoria.


ESPACIO MUESTRAL: Conjunto de todos los posibles resultados de una
experiencia aleatoria Q
SUCESO ALEATORIO: Cualquier subconjunto del espacio muestral.

Probabilidad clásica.
La probabilidad clásica de un evento es la razón entre el número de casos
(suceso) favorables, y el número total de casos (sucesos) posibles, siempre que
nada obligue a creer que algunos de estos sucesos deben tener preferencia a los
demás, lo que hace que sean igualmente posibles.
Una de las características de un experimento aleatorio es que no se sabe qué
resultado particular se obtendrá al realizarlo. Es decir, si A es un suceso asociado
con un experimento aleatorio, no podemos indicar con certeza si A ocurrirá o no en
una prueba en particular. Por lo tanto, puede ser importante tratar de asociar un
número al suceso A que mida la probabilidad de que el Suceso ocurra. Este
número es el que llamaremos P(A).
La probabilidad de un evento A: P (A), es un NÚMERO, que mide el grado de
certeza en el que un evento A ocurre, y se obtiene con la fórmula conocida como
REGLA DE LAPLACE:
Si un suceso puede ocurrir de N maneras mutuamente excluyentes e igualmente
probables. y m de ellas poseen una característica A.

18
PROBABILIDAD COMPUESTA
La probabilidad compuesta (o regla de multiplicación de probabilidades) se deriva
de la probabilidad condicionada:
La probabilidad de que se den simultáneamente dos sucesos (suceso intersección
de A y B) es igual a la probabilidad a priori del suceso A multiplicada por la
probabilidad del suceso B condicionada al cumplimiento del suceso A.
La fórmula para calcular esta probabilidad compuesta es:

¿Qué es? es el cálculo de la probabilidad cuando un experimento de probabilidad


simple se repite varias veces o se relaciona un experimento con otro.

SUCESOS INDEPENDIENTES
Cuando un suceso previo NO afecta al siguiente suceso
Fórmula: P(AMB)=P(A)x (B)

SUCESOS DEPENDIENTES
Cuando un suceso previo afecta al siguiente suceso
• Imaginemos que en el anterior ejemplo NO volvemos a meter la bola al
Formula: P(ANB)=P(A)x(B/A)

19
RELACIONES ENTRE EVENTOS
RELACIONES ENTRE EVENTOS O SUCESOS
Entre los eventos compuestos se pueden establecer distintas relaciones:

UN EVENTO PUEDE ESTAR CONTENIDO EN OTRO: Entonces la probabilidad


del primer evento será menor que la del evento que lo contiene.

DOS EVENTOS PUEDEN SER IGUALES: En este caso, las probabilidades de


ambos sucesos son las mismas.

INTERSECCIÓN DE SUCESOS O EVENTOS: Es aquel suceso compuesto por


los elementos comunes de los dos o más sucesos que se intersecan. La
probabilidad será igual a la probabilidad de los elementos comunes.

UNIÓN DE DOS O MÁS SUCESOS O EVENTOS: La probabilidad de la unión de


dos sucesos es igual a la suma de las probabilidades individuales de los dos
sucesos que se unen, menos la probabilidad del suceso intersección

SUCESOS INCOMPATIBLES: La probabilidad de la unión de dos sucesos


incompatibles será igual a la suma de las probabilidades de cada uno de los
sucesos (ya que su intersección es el conjunto vació y por lo tanto no hay que
restarle nada).

EVENTOS O SUCESOS COMPLEMENTARIOS: La probabilidad de un suceso


complementario a un suceso (A) es igual a P(B) = 1 – P(A)

UNIÓN DE SUCESOS COMPLEMENTARIOS: La probabilidad de la unión de dos


sucesos complementarios es igual a 1.

20
PROBABILIDAD CONDICIONAL
A la probabilidad de que un suceso A ocurra cuando se sabe que el suceso B
ocurrió.

¿CÓMO SE CALCULA?

EJEMPLO
La siguiente tabla representa a estudiantes del último año de una escuela donde
figura el sexo y si trabaja o no.

Se requiere la probabilidad de que, si se escoge un alumno varón al azar, este


trabaje.

21
TERCER PARCIAL
DISTRIBUCIÓN NORMAL
• Es una distribución de probabilidad continua.
• También nombrada distribución de Gauss.
• Modelo probabilístico más importante.
• Sus parámetros son la media y la desviación típica o.

CARACTERÍSTICAS
• Media, moda y mediana coinciden en el máximo de la curva
• El área encerrada bajo la campana y el eje x es igual a la unidad.
• Los puntos de inflexión son los puntos u t o y u- o

DISTRIBUCIÓN NORMAL REDUCIDA (TIPIFICADA)


• Puntaje Z a partir de la variable X que sigue una distribución Normal.
Z= Z=X-x x=u+o.Z S
• El área bajo la curva es la probabilidad de P(Z ≤ Z.) • Parámetros > Distribución
Normal Estandarizada
• Media M=0.
• Desviación típica o = .I
• Puntos de inflexión en Z = ‡l.
• Conclusiones a partir de la fórmula
• Cuando x ≤ u, el valor de Z es negativo.
• Cuando × > u, el valor de Z es positivo. Cuando x = u, el valor de Z = 0.

TEOREMA DE LÍMITE CENTRAL


• Es fundamental de probabilidad y estadística.
• Describe la distribución de la media de una muestra aleatoria proveniente de una
población con varianza finita.

22
• Muestra suficientemente grande, la distribución de las medias sigue
aproximadamente una distribución normal.
• El tamaño de la muestra depende de la forma de la distribución original.
• Distribución simétrica -> tamaño pequeño podría producir una aproximación
adecuada.
= Distribución considerablemente asimétrica >- Tamaño de muestra más grande.
• Se aplica independientemente de la forma de la distribución de la población.
Muestras de tamaño n de una población
• No importa la forma de la distribución original de la población, la distribución de
promedios seguirá una distribución normal.
• Útil para probar hipótesis
• Puede demostrar que la muestra representa a una población distinta de la
conocida.
• La comprobación se hace directamente aplicando este teorema
Si la probabilidad de observar que el promedio en estudio es mayor (o menor) es
lo suficientemente baja, entonces se puede rechazar la afirmación (hipótesis nula)
de que la muestra es como las otras.

23
DISTRIBUCIÓN CONTINUA
¿Qué es una distribución continua?
● Una distribución continua describe las probabilidades de los posibles valores de
una variable aleatoria continua. Una variable aleatoria continua es una variable
aleatoria con un conjunto de valores posibles (conocido como el rango) que es
infinito y no se puede contar.
● Las probabilidades de las variables aleatorias continuas (X) se definen como el
área por debajo de la curva de su PDF. Por lo tanto, solo los rangos de valores
pueden tener una probabilidad diferente de cero. La probabilidad de que una
variable aleatoria continua equivalga a algún valor siempre es cero.
Funcion de distribución continúa
Para calcular las probabilidades cuando tenemos una variable aleatoria continua,
utilizamos lo que se llama la función de densidad. Para que una función f(x)sea
una función de densidad de una variable aleatoria continua sobre la recta real,
debe cumplir:
● f(x)≥0, para todo x en un rango [a,b].
● El área bajo la curva y por encima del eje de abscisas es igual a 1.
● El rango [a,b] delimita los valores que la variable puede tomar.
Debido a esto, la probabilidad de que el valor de una variable continua aleatoria X
esté dentro de un intervalo [a,b] es el área bajo la curva dentro de este intervalo:

Esto implica que la probabilidad de que una variable aleatoria tome un valor
concreto es nulo, puesto que, por definición:

Ahora, si queremos calcular la probabilidad acumulada hasta el valor X=x,


utilizamos la función de distribución de la variable X:

Por tanto, se verifica que la función de densidad sea la derivada de la función de


distribución: f(x)= F´(x)

24
DISTRIBUCIÓN BERNOULLI
La distribución de Bernoulli es un modelo probabilístico discreto que describe la
probabilidad de obtener un resultado binario (éxito o fracaso) en un solo ensayo o
experimento. Es decir, para cualquier evento aleatorio con dos resultados posibles,
la distribución de Bernoulli describe la probabilidad de que ocurra uno de esos
resultados.

La distribución de Bernoulli está caracterizada por un solo parámetro, p, que


representa la probabilidad de éxito en cada ensayo independiente. La distribución
de probabilidad de Bernoulli se puede expresar de la siguiente manera:
P(X = x) = p^x(1-p)^(1-x), donde x puede ser 0 o 1, y p es la probabilidad de éxito.
La media de la distribución de Bernoulli es igual a p, y su varianza es p(1-p). La
distribución de Bernoulli es un caso especial de la distribución binomial, que
describe el número de éxitos en un número fijo de ensayos independientes.
X es la variable aleatoria que representa el resultado del experimento Bernoulli
(puede tomar los valores 0 o 1).
x es el valor observado de la variable aleatoria X (es decir, x = 0 si el resultado fue
fracaso y x = 1 si el resultado fue éxito).
p es la probabilidad de éxito del experimento Bernoulli.
La fórmula en sí misma representa la probabilidad de que la variable aleatoria X
tome el valor x, dado el valor de p.

La fórmula se desglosa en dos partes:

La primera parte, p^x, representa la probabilidad de obtener un éxito (valor x=1) en


un solo ensayo independiente. Es decir, la probabilidad de que el evento que
estamos modelando suceda en una sola ocasión. La segunda parte, (1-p)^(1-x),
representa la probabilidad de obtener un fracaso (valor x=0) en un solo ensayo
independiente. Es decir, la probabilidad de que el evento que estamos modelando
25
no suceda en una sola ocasión. Juntas, estas dos partes representan todas las
posibilidades de éxito o fracaso en un solo ensayo, y la fórmula completa calcula
la probabilidad de una de ellas.
En resumen, la fórmula de la distribución de Bernoulli se utiliza para calcular la
probabilidad de obtener un resultado binario (éxito o fracaso) en un solo
experimento independiente, y es caracterizada por un solo parámetro p, que es la
probabilidad de éxito en cada ensayo.

La distribución de Bernoulli se utiliza en una amplia variedad de contextos donde


se modela un evento aleatorio con dos posibles resultados, éxitos o fracasos.
Algunos ejemplos de casos aplicables de la distribución de Bernoulli son:
Lanzamiento de una moneda: la distribución de Bernoulli puede ser utilizada para
modelar la probabilidad de obtener cara o cruz en un solo lanzamiento de una
moneda justa.
Prueba de éxito/falla: la distribución de Bernoulli se puede aplicar para modelar
la probabilidad de que una prueba o ensayo tenga éxito o fracase. Por ejemplo, si
se realiza una prueba de embarazo, la distribución de Bernoulli puede ser utilizada
para modelar la probabilidad de que el resultado sea positivo o negativo.
Estudios clínicos: la distribución de Bernoulli se utiliza comúnmente en ensayos
clínicos para modelar la probabilidad de que un paciente tenga éxito o fracase en
la respuesta a un tratamiento médico.
En marketing: la distribución de Bernoulli se puede utilizar para modelar la
probabilidad de que un cliente realice una compra o no, en respuesta a una
campaña de marketing.
En ingeniería: la distribución de Bernoulli se utiliza para modelar la probabilidad
de que un sistema binario (encendido/apagado) tenga éxito o fracaso en una
prueba de calidad o mantenimiento.
En general, cualquier situación en la que se tenga un evento aleatorio con solo
dos posibles resultados, puede ser modelada mediante la distribución de Bernoulli.

La distribución de Bernoulli toma su nombre del matemático suizo Jacob Bernoulli


(1655-1705), quien la describió por primera vez en su obra "Ars Conjectandi"
publicada en 1713, aunque su trabajo originalmente fue desarrollado en la década
de 1680.
Bernoulli utilizó la distribución para modelar la probabilidad de éxito en una serie
de experimentos independientes, en los que un objeto se mueve hacia arriba o
hacia abajo según una serie de reglas preestablecidas. En su libro, Bernoulli

26
describió la distribución de probabilidad para un solo ensayo, que más tarde sería
conocida como la distribución de Bernoulli.
Sin embargo, la distribución de Bernoulli se popularizó y se convirtió en una
herramienta fundamental en la teoría de la probabilidad y la estadística gracias al
trabajo de otros matemáticos posteriores, como Pierre-Simon Laplace y Adolphe
Quetelet, quienes utilizaron la distribución para modelar eventos binarios en una
amplia variedad de disciplinas, desde la física hasta la biología y la economía.
Hoy en día, la distribución de Bernoulli es una de las distribuciones de probabilidad
más fundamentales y ampliamente utilizadas en la estadística y la investigación de
operaciones, y ha sido la base para el desarrollo de otras distribuciones de
probabilidad, como la distribución binomial, la distribución geométrica y la
distribución de Poisson.

27
DISTRIBUCIÓN GEOMÉTRICA
La distribución geométrica tiene un gran parecido con la distribución binomial ya
que también consiste en una serie de ensayos donde pueden ocurrir éxitos o
fracasos. Además, cada ensayo es idéntico e independiente del otro, sin embargo,
no hay un número fijo n de ensayos, sino que el experimento se repite hasta que
se consiga el éxito.
Todo esto explicado quiere decir que:

Efectuando esto, sucesivamente:

Tipos de Formulas para la distribución geométrica:

28
DISTRIBUCIÓN HIPERGEOMETRICA
Es una distribución de probabilidad discreta relacionada con muestreos aleatorios
y sin reemplazo. Suponga que se tiene una población de N elementos de los
cuales, K pertenecen a la categoría A y N - K pertenecen a la categoría B. La
distribución hipergeométrica mide la probabilidad de obtener x (0 ≤ x ≤ K)
elementos de la categoría A en una muestra sin reemplazo de n elementos de la
población original.

Es especialmente útil en todos aquellos casos en los que se extraigan muestras o


se realicen experiencias repetidas sin devolución del elemento extraído o sin
retornar a la situación experimental inicial.
Es una distribución fundamental en el estudio de muestras pequeñas de
poblaciones pequeñas y en el cálculo de probabilidades de juegos de azar. Tiene
grandes aplicaciones en el control de calidad para procesos experimentales en
los que no es posible retornar a la situación de partida.

Las consideraciones a tener en cuenta en una distribución hipergeométrica:


•El proceso consta de "n" pruebas, separadas o separables de entre un conjunto
de "N" pruebas posibles.
•Cada una de las pruebas puede dar únicamente dos resultados mutuamente
excluyentes.
•El número de individuos que presentan la característica A (éxito) es "k".

29
TERMINOLOGIA DE MUESTREO
Muestreo
El proceso de seleccionar a los participantes de la investigación de una población
objetivo que tienen las características de esa población . En la investigación
cuantitativa, los investigadores están interesados en sacar conclusiones sobre una
población que tiene características comunes que les interesan

Tipos de muestreo
Existen dos tipos de muestreo que son el muestreo aleatorio o probabilístico y el
muestreo no aleatorio o no probabilístico, todos útiles para la selección de
muestras, sin embargo, se escogerán dependiendo con los recursos con que se
cuente y el tipo de investigación a realizar.

Muestra y muestreo
Se denomina muestreo al proceso por el que generamos las muestras. Una
muestra es una parte (un subconjunto) de la población, y se desea que la muestra
sea lo más representativa posible de la población de la que procede.

30
DISTRIBUCIÓN DE MUESTREO
Una distribución de muestral es una distribución de probabilidad de una estadística
obtenida de un mayor número de muestras extraídas de una población específica.
La distribución muestral de una población dada es la distribución de frecuencias
de un rango de resultados diferentes que posiblemente podrían ocurrir para una
estadística de una población.
En estadística, una población es el conjunto completo del que se extrae una
muestra estadística. Una población puede referirse a un grupo completo de
personas, objetos, eventos, visitas al hospital o mediciones.

Una muestra es un subconjunto de una población.


Cada muestra tiene su propia media muestral y la distribución de las medias
muestrales se conoce como distribución muestral. Otras estadísticas, como la
desviación estándar, la varianza, la proporción y el rango se pueden calcular a
partir de datos de muestra. La desviación estándar y la varianza miden la
variabilidad de la distribución muestral.
El número de observaciones en una población, el número de observaciones en
una muestra y el procedimiento utilizado para extraer los conjuntos de muestras
determinan la variabilidad de una distribución muestral.

Saber cuán separada está la media de cada uno de los conjuntos de muestras
entre sí y de la media de la población dará una indicación de qué tan cerca está la
media de la muestra de la media de la población. El error estándar de la
distribución muestral disminuye a medida que aumenta el tamaño de la muestra.
En palabras más simples, supongamos que de una determinada población tomas
todas las muestras posibles de tamaño n y calculas una estadística (por ejemplo,
media) de todas las muestras. Si luego preparas una distribución de probabilidad
de esta estadística, obtendrás una distribución de muestreo.

Distribución de muestreo de la media y la desviación estándar


•La distribución de muestreo de la media se obtiene tomando la estadística bajo
estudio de la muestra como la media. Calcular esto significa tomar todas las
muestras posibles de tamaño n de la población de tamaño N y luego trazar la
distribución de probabilidad. Se puede demostrar que la media de la distribución
de muestreo es, de hecho, la media de la población.
•Sin embargo, la desviación estándar es diferente para la distribución de muestreo
en comparación con la población. Si la población es lo suficientemente grande,
esto está dado por:

31
•Donde σ es la desviación estándar de la distribución de la población y σx̄ es la
media de población.

32
ERROR MUESTRAL
En estadística, error muestral o error de estimación es el error que surge a causa
de observar una muestra de la población completa. La estimación de valor de
interés, como la media o el porcentaje, estará generalmente sujeta a una variación
entre una muestra y otra.
Tipos de errores muestrales más comunes: Este tipo de errores no se deben
al hecho de inferir el todo de una parte (como sí ocurre con el error muestral), sino
que se deben a otras causas, ocurridas en el propio diseño o la realización del
trabajo, ya sea en la definición del colectivo a investigar, en la forma de
seleccionar a las personas entrevistadas, en la mala praxis de los entrevistadores,
en la ausencia de control de calidad, etc.
Algunos de estos errores y problemas son:
• Falta de respuesta: Efecto de los rechazos y las ausencias de personas en
el hogar. La muestra final puede estar compuesta por un perfil de persona
muy diferente a la que buscamos si la tasa de rechazo o ausencia es muy
alta.
• Problemas de calidad/veracidad de la información: Tanto por mala praxis
de los entrevistadores como de los entrevistados, que proporcionan
información incorrecta por diferentes motivos (por error, con intencionalidad
maliciosa, por deseabilidad social...).
• Problemas en el procesamiento/tratamiento de la información: Errores
de codificación u otros errores de procesamiento cometidos en el proceso de
trabajo.
• Error de definición del colectivo objeto de estudio: Este inconveniente se
produce cuando el investigador no sabe bien a quién debe preguntar.
Imagínese un producto de alimentación sobre el que deseamos conocer
diversas cuestiones, ¿debemos entrevistar a la persona que hace la compra
o a la persona que la consume dentro del hogar? En función de nuestras
necesidades y objetivos deberíamos optar por una u otra. Si nos
equivocamos, no obtendremos la información precisa.
• Error de marco muestral: Este fallo se comente cuando el investigador, a la
hora de elegir la muestra, apunta a la subpoblación equivocada. Por ejemplo,
seleccionar la muestra a partir de números de móvil sin tener en cuenta que
existen ciertas personas sin teléfono móvil (personas mayores y/o con
problemas de aprendizaje).
• Error de selección: Cuando son los propios entrevistados los que eligen
participar o no en la encuesta; por lo tanto, solo responderán aquellos a los
que les interese el tema tratado.

33
MUESTREO JUICIO Y ALEATORIO
El método de muestreo discrecional (o muestreo por juicio) es un método de
muestreo no probabilístico. Los sujetos se seleccionan a base del conocimiento y
juicio del investigador.
El investigador selecciona a los individuos a través de su criterio profesional.
Puede basarse en la experiencia de otros estudios anteriores o en su
conocimiento sobre la población y el comportamiento de ésta frente a las
características que se estudian.

Ejemplos
• Supongamos que el investigador va a realizar un estudio sobre el nivel de
satisfacción del profesorado de cierta universidad. El estudio se suele realizar
cada dos años, por lo que el responsible del estudio, gracias a su experiencia y
sus antecedentes, sabe perfectamente cual puede ser la mejor muestra para el
estudio.
• A un jefe de estudios le encomiendan un estudio del nivel de satisfacción de los
alumnos con un determinado profesor. El investigador, que conoce a todos los
alumnos de esa clase, decide utilizar el muestreo discrecional seleccionando a los
alumnos que cree que serán los más representativos.

¿Cuándo utilizarlo?
• Este método de muestreo es aconsejable cuando el responsible del estudio
conoce estudios anteriores similares o idénticos y sabe con precisión que la
muestra que utilizaron fue útil para el estudio.
• Si la población es muy reducida y conocida por el investigador.

El muestreo aleatorio es un proceso que permite obtener una muestra sobre una
población, basada en una determinada probabilidad de elección de los individuos
que la conforman.
Con el muestreo aleatorio, por tanto, lo que hacemos es plantear un método de
elección. Un método que tiene en cuenta diferentes probabilidades. Esto lo
diferencia de los métodos no aleatorios en que es la subjetividad del investigador
la que decide la selección de la muestra.

¿Por qué utilizar el muestreo aleatorio?


Este tipo de muestreo es uno de los más utilizados en el método científico. Las
razones son varias, pero las más relevantes serían las siguientes:
En primer lugar, es el único que permite hacer análisis confirmatorios e inferencia
estadística. De hecho, la segunda se realiza también en muestreos no aleatorios,
pero no podremos confirmar los resultados. En este caso, la investigación es de
tipo exploratorio.
Por otro lado, relacionado con el apartado anterior, este método reduce el sesgo.
Es decir, al tener cierta probabilidad (conocida) de escoger un determinado
individuo de la población, evitamos la subjetividad inherente en la selección no
aleatoria.

34
Por último, permite utilizar muestras de pequeño tamaño en poblaciones grandes.
Eso sí, hay fórmulas para calcular esas muestras mínimas con poblaciones
conocidas o desconocidas.

¿Cómo llevarlo a cabo?


Como toda técnica utilizada en la ciencia, esta también se lleva a cabo siguiendo
un proceso. Este permite replicar el experimento y reduce el sesgo y la
subjetividad.
El primer paso, y muy determinante, es la selección de la población. De hecho,
tenemos que obtener toda la información que podamos. Sobre todo, nos interesa
su composición por ciertas variables sociodemográficas como el sexo, la edad o la
ocupación.
Después, hay que elegir un muestreo aleatorio concreto. En el siguiente apartado
veremos los más relevantes. La decisión dependerá de las características de la
población.
Una vez escogido el método, hay que calcular la muestra mínima. Para hacerlo,
debemos tener en cuenta si conocemos, o no, el tamaño poblacional. Como
hemos comentado, hay fórmulas para calcular este tamaño muestral.
Por último, procedemos a obtener la muestra y a realizar en ella los análisis
estadísticos pertinentes. Una vez hechos, podremos llevar a cabo un contraste de
hipótesis u otros métodos de inferencia. El objetivo es extrapolar los resultados a
la población.

Tipos de muestreo aleatorio


• Existen varios tipos de muestreo aleatorio en función de las características
poblacionales. Veamos los más relevantes:
• Muestreo aleatorio simple.
• Muestreo estratificado.
• Muestreo por conglomerados.
• Muestreo sistemático

35
TERMINOLOGÍA DE REGRESIÓN Y
CORRELACIÓN

La terminología utilizada en regresión y correlación se refiere a los conceptos y


medidas asociadas con el análisis de la relación entre variables.

VARIABLE DEPENDIENTE: También conocida como variable de respuesta o


variable a predecir, es la variable que se está estudiando o modelando en función
de las variables independientes. Ejemplo: En un estudio de regresión sobre el
rendimiento académico, la variable dependiente podría ser la calificación en un
examen.
VARIABLE INDEPENDIENTE: También conocida como variable predictora o
variable explicativa, es la variable que se utiliza para predecir o explicar la variable
dependiente. Ejemplo: En el mismo estudio de regresión sobre el rendimiento
académico, las variables independientes podrían ser el número de horas de
estudio y la asistencia a clases.
REGRESIÓN: Es un análisis estadístico que busca modelar la relación entre una
variable dependiente y una o más variables independientes. Ejemplo: La regresión
lineal es un tipo común de regresión que utiliza una línea recta para modelar la
relación entre las variables.
COEFICIENTE DE REGRESIÓN: También conocido como coeficiente de
regresión o coeficiente de pendiente, es un valor que indica cómo cambia la
variable dependiente por cada unidad de cambio en la variable independiente.
Ejemplo: En un modelo de regresión lineal, el coeficiente de regresión representa
la pendiente de la línea de regresión.
CORRELACIÓN: Es una medida estadística que indica la relación entre dos
variables y la dirección (positiva o negativa) de esa relación. Ejemplo: Si hay una
correlación positiva entre el tiempo de estudio y el rendimiento académico,
significa que a medida que aumenta el tiempo de estudio, generalmente también
aumenta el rendimiento académico.
COEFICIENTE DE CORRELACIÓN: Es una medida numérica que cuantifica la
fuerza y la dirección de la relación entre dos variables continuas. Ejemplo: El
coeficiente de correlación de Pearson es una medida común que varía entre -1 y
1, donde -1 indica una correlación negativa perfecta, 1 indica una correlación
positiva perfecta y 0 indica ausencia de correlación.

36
REGRESIÓN LINEAL Y CORRELACIÓN
¿Qué es la regresión lineal?
La regresión lineal es una técnica de análisis de datos que predice el valor de
datos desconocidos mediante el uso de otro valor de datos relacionado y
conocido. Modela matemáticamente la variable desconocida o dependiente y la
variable conocida o independiente como una ecuación lineal.

¿Por qué es importante?


Las empresas lo utilizan para convertir datos sin procesar de manera confiable y
predecible en inteligencia empresarial y conocimiento práctico. Los científicos de
muchos campos, incluidas la biología y las ciencias del comportamiento,
ambientales y sociales, utilizan la regresión lineal para realizar análisis de datos
preliminares y predecir tendencias futuras.

Fórmula

Correlación
▪ Medida estadística que expresa hasta qué punto dos variables están
relacionadas linealmente (esto es, cambian conjuntamente a una tasa constante).
Es una herramienta común para describir relaciones simples sin hacer
afirmaciones sobre causa y efecto.

Tipos de correlación
Según cómo sea la relación que hay entre dos variables aleatorias, se distinguen
los siguientes tipos de correlación lineal:
▪ Correlación directa (o correlación positiva): una variable aumenta cuando la otra
también aumenta.
▪ Correlación inversa (o correlación negativa): cuando una variable aumenta la otra
disminuye, y al revés, si una variable disminuye la otra aumenta.
▪ Correlación nula (sin correlación): no existe ninguna relación entre las dos
variables.

Fórmula

37

También podría gustarte