Está en la página 1de 43

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN


UNIVERSITARIA
INSTITUTO UNIVERSITARIO DE TECNOLOGÍA
PARA LA INFORMÁTICA
I.U.T.E.P.I
VALENCIA EDO-CARABOBO
PN22-4

TRABAJO DE INVESTIGACION
ESTADÍSTICA II

Profesor: Estudiante:
Yoser Saa Robetsy Araujo
CD. 215096
CI. 30826840

Valencia, Enero 2023

ii
ÍNDICE GENERAL

Pág.
INTRODUCCIÓN ……………… 1
ESTIMACION DE PARAMETROS
Definición de Muestreo ……………… 2
Tipos de Muestreo ……………… 2
Definición de Estimador ……………… 6
Definición de Parámetro ……………… 6
Definición de Estimación de Parámetro ……………… 7
Tipos de Estimadores ……………… 7
Métodos de los Mínimos Cuadrados ……………… 10
Ejercicios ……………… 12
PRUEBA DE HIPOTESIS
Definición de Hipótesis ……………… 15
Tipos de Hipótesis ……………… 16
Prueba de Hipótesis ……………… 18
Hipótesis para la Muestra ……………… 19
Hipótesis para la Varianza ……………… 20
Docimasia de Hipótesis ……………… 22
Potencia de Test ……………… 22
Ejercicios ……………… 23

PRUEBA DE PROPORCIONES
Definición ……………… 24

Explicación de Proporción ……………… 25


Ejercicio ……………… 26

ii
DISTRIBUCION CHI-CUADRADO
Definición ……………… 28
Formula de calculo ……………… 28
Nivel de Significancia ……………… 29
Grados de Libertad ……………… 30
Tabla e Distribución ……………… 31
Regla de Decisión ……………… 32
Aplicaciones de Bondad de Ajustes ……………… 32
Prueba de Independencia ……………… 33
Tabla de Contingencia ……………… 34
Prueba de Homogeneidad ……………… 34
DISTRIBUCIÓN T-STUDENT
Definición ……………… 35
Formula de calculo ……………… 35
Ejercicio ……………… 36

iii
INTRODUCCION

Hoy en dia, la estadística es el estudio de los modos de recolectar y


analizar datos con el fin de establecer conclusiones acerca del medio del
cual se han obtenido los datos. a es la ciencia que trata sobre la toma,
organización recopilación, presentación y análisis de datos para deducir
conclusiones sobre ellos y para tomar decisiones que estén de acuerdo con
los análisis efectuados.
Uno de los problemas principales en un curso introductorio de
estadística a nivel universitario es hacer la transición del análisis de datos a
la inferencia (Moore, 1998a). Los dos tipos más corrientes de inferencia
estadística son los intervalos de confianza, utilizados para estimar el valor de
un parámetro poblacional y los test o pruebas de hipótesis, que valoran la
evidencia a favor de una determinada afirmación sobre una población. Los
dos tipos de inferencia establecen las probabilidades de lo que ocurriría si se
utiliza el método de inferencia muchas veces. Esta investigación trata del
estudio de las pruebas de hipótesis.
Es importante destacar que el presente trabajo de investigacion ayuda a
comprender el estudio desde las estimaciones de parámetros, prueba de
hipótesis en todas sus categorías, prueba de proporciones, así como
también, está contenido de estudios prácticos de la distribución de chi-
cuadrado y distribución de T-Student, temas de gran relevancia que ayuda a
los estudiantes saber más allá de la estadística como materia de estudio que
se deben poner en práctica.

1
ESTIMACIÓN DE PARÁMETROS

Muestreo

Es un proceso o conjunto de métodos para obtener una muestra finita


de una población finita o infinita, con el fin de estimar valores de parámetros
o corroborar hipótesis sobre la forma de una distribución de probabilidades o
sobre el valor de un parámetro de una o más poblaciones. Es por lo tanto una
herramienta de la investigación científica, cuya función básica es determinar
que parte de una población debe examinarse, con la finalidad de hacer
inferencias sobre dicha población.

Tipos de Muestreo

Muestreo Probabilístico

Los métodos de muestreo probabilísticos son aquellos que se basan en


el principio de equiprobabilidad. Es decir, aquellos en los que todos los
individuos tienen la misma probabilidad de ser elegidos para formar parte de
una muestra y, consiguientemente, todas las posibles muestras de tamaño n
tienen la misma probabilidad de ser seleccionadas. Sólo estos métodos de
muestreo probabilísticos nos aseguran la representatividad de la muestra
extraída y son, por tanto, los más recomendables. Dentro de los métodos de
muestreo probabilísticos encontramos los siguientes tipos:

1.- Muestreo Aleatorio Simple:

El procedimiento empleado es el siguiente: 1) se asigna un número a


cada individuo de la población y 2) a través de algún medio mecánico (bolas
dentro de una bolsa, tablas de números aleatorios, números aleatorios
generados con una calculadora u ordenador, etc.) se eligen tantos sujetos
como sea necesario para completar el tamaño de muestra requerido. Este

2
procedimiento, atractivo por su simpleza, tiene poca o nula utilidad práctica
cuando la población que estamos manejando es muy grande.

2.- Muestreo Aleatorio Sistemático:

Este procedimiento exige, como el anterior, numerar todos los


elementos de la población, pero en lugar de extraer n números aleatorios
sólo se extrae uno. Se parte de ese número aleatorio i, que es un número
elegido al azar, y los elementos que integran la muestra son los que ocupa
los lugares i, i+k, i+2k, i+3k,...,i+(n-1)k, es decir se toman los individuos de k
en k, siendo k el resultado de dividir el tamaño de la población entre el
tamaño de la muestra: k= N/n. El número i que empleamos como punto de
partida será un número al azar entre 1 y k.
El riesgo este tipo de muestreo está en los casos en que se dan
periodicidades en la población ya que al elegir a los miembros de la muestra
con una periodicidad constante (k) podemos introducir una homogeneidad
que no se da en la población. Imaginemos que estamos seleccionando una
muestra sobre listas de 10 individuos en los que los 5 primeros son varones y
los 5 últimos mujeres, si empleamos un muestreo aleatorio sistemático con
k=10 siempre seleccionaríamos o sólo hombres o sólo mujeres, no podría
haber una representación de los dos sexos.

3.- Muestreo Aleatorio Estratificado:

Trata de obviar las dificultades que presentan los anteriores ya que


simplifican los procesos y suelen reducir el error muestral para un tamaño
dado de la muestra. Consiste en considerar categorías típicas diferentes
entre sí (estratos) que poseen gran homogeneidad respecto a alguna
característica (se puede estratificar, por ejemplo, según la profesión, el
municipio de residencia, el sexo, el estado civil, etc.). Lo que se pretende con
este tipo de muestreo es asegurarse de que todos los estratos de interés

3
estarán representados adecuadamente en la muestra. Cada estrato funciona
independientemente, pudiendo aplicarse dentro de ellos el muestreo
aleatorio simple o el estratificado para elegir los elementos concretos que
formarán parte de la muestra. En ocasiones las dificultades que plantean son
demasiado grandes, pues exige un conocimiento detallado de la población.
(Tamaño geográfico, sexos, edades,...)

4.- Muestreo Aleatorio por Conglomerados:

Los métodos presentados hasta ahora están pensados para seleccionar


directamente los elementos de la población, es decir, que las unidades
muéstrales son los elementos de la población. En el muestreo por
conglomerados la unidad muestral es un grupo de elementos de la población
que forman una unidad, a la que llamamos conglomerado. Las unidades
hospitalarias, los departamentos universitarios, una caja de determinado
producto, etc., son conglomerados naturales. En otras ocasiones se pueden
utilizar conglomerados no naturales como, por ejemplo, las urnas electorales.
Cuando los conglomerados son áreas geográficas suele hablarse de
"muestreo por áreas".
En este sentido, el muestreo por conglomerados consiste en
seleccionar aleatoriamente un cierto número de conglomerados (el necesario
para alcanzar el tamaño muestral establecido) y en investigar después todos
los elementos pertenecientes a los conglomerados elegidos.

Métodos de Muestreo No Probabilísticos

A veces, para estudios exploratorios, el muestreo probabilístico resulta


excesivamente costoso y se acude a métodos no probabilísticos, aun siendo
conscientes de que no sirven para realizar generalizaciones (estimaciones
inferenciales sobre la población), pues no se tiene certeza de que la muestra

4
extraída sea representativa, ya que no todos los sujetos de la población
tienen la misma probabilidad de ser elegidos.

En general se seleccionan a los sujetos siguiendo determinados


criterios procurando, en la medida de lo posible, que la muestra sea
representativa. En algunas circunstancias los métodos estadísticos y
epidemiológicos permiten resolver los problemas de representatividad aun en
situaciones de muestreo no probabilístico, por ejemplo los estudios de caso-
control, donde los casos no son seleccionados aleatoriamente de la
población. Entre los métodos de muestreo no probabilísticos más utilizados
en investigación encontramos:

1.- Muestreo por Cuotas:

También denominado en ocasiones "accidental". Se asienta


generalmente sobre la base de un buen conocimiento de los estratos de la
población y/o de los individuos más "representativos" o "adecuados" para los
fines de la investigación. Mantiene, por tanto, semejanzas con el muestreo
aleatorio estratificado, pero no tiene el carácter de aleatoriedad de aquél.
En este tipo de muestreo se fijan unas "cuotas" que consisten en un
número de individuos que reúnen unas determinadas condiciones, por
ejemplo: 20 individuos de 25 a 40 años, de sexo femenino y residentes en
Gijón. Una vez determinada la cuota se eligen los primeros que se
encuentren que cumplan esas características. Este método se utiliza mucho
en las encuestas de opinión.

2.- Muestreo Intencional o de Conveniencia:

Este tipo de muestreo se caracteriza por un esfuerzo deliberado de


obtener muestras "representativas" mediante la inclusión en la muestra de
grupos supuestamente típicos. Es muy frecuente su utilización en sondeos
preelectorales de zonas que en anteriores votaciones han marcado
5
tendencias de voto. También puede ser que el investigador seleccione
directa e intencionadamente los individuos de la población. El caso más
frecuente de este procedimiento el utilizar como muestra los individuos a los
que se tiene fácil acceso (los profesores de universidad emplean con mucha
frecuencia a sus propios alumnos).

3.- Bola de Nieve:

Se localiza a algunos individuos, los cuales conducen a otros, y estos a


otros, y así hasta conseguir una muestra suficiente. Este tipo se emplea muy
frecuentemente cuando se hacen estudios con poblaciones "marginales",
delincuentes, sectas, determinados tipos de enfermos, etc.

4.- Muestreo Discrecional · A criterio del investigador los elementos


son elegidos sobre lo que él cree que pueden aportar al estudio.

Definición de Estimador

Un estimador es una función de las variables muéstrales que se utiliza


para hacernos una idea sobre el valor del parámetro objeto de estudio. Es
completamente lógico que sea una función de las variables muéstrales
porque actúa como “representante” del conjunto de estas. Al resultado que
se obtiene del estimador cuando se le introduce la información muestral se le
denomina estimación del parámetro θ.

Definición de Parámetro

En Mendenhall y Sincich (2007: 39) se da formalmente la definición: "Un


parámetro es una medida descriptiva numérica de una población". La
definición es la siguiente a la de ‘una estadística’, por lo que da la impresión
que se desea mostrar una similaridad entre ambas: "Una estadística es una

6
medida descriptiva numérica calculada a partir de datos de muestra"
(Mendenhall y Sincich, 2007: 39).
En estadística descriptiva se busca realizar análisis de conjuntos de
datos, que por lo general están basados en muestras obtenidas a partir de
cierta población. Las medidas características que se calculan a partir de los
datos pasan a ser descripciones de los mismos. De hecho, si se está
tratando con muestras, corresponden a estimaciones de las medidas
características poblacionales, las que pueden ser sus parámetros o
funciones de ellos.

Definición de Estimación de Parámetro

La estimación de parámetros es el procedimiento utilizado para conocer


las características de un parámetro poblacional, a partir del conocimiento de
la muestra. Cabe destacar que todo el trabajo realizado en la etapa de
muestreo y el cálculo de los estadísticos en la muestra, sirve para realizar un
proceso de inferencia o estimación de los indicadores de la población a los
cuales le llamamos parámetros. Se ha considerado que la finalidad del
trabajo es de conocer el comportamiento de la población la cual viene
determinada por sus parámetros. De manera que, si éstos no son conocidos,
deben ser estimados utilizando las herramientas de la teoría de la estimación
de parámetros.
Por lo tanto, la estimación de un determinado parámetro puede ser
realizada de dos maneras: tratando de estimar su valor a partir del valor de
un estadístico o tratando de encontrar el valor del parámetro afirmando que
éste se encuentra en un determinado intervalo.

Tipos de Estimadores

Podemos tomar una muestra, calcular en ella un estadístico (promedio


o porcentaje, por ejemplo) y luego hacer afirmaciones respecto del

7
correspondiente parámetro. Esto se conoce con el nombre de estimación de
parámetros, y se puede hacer de dos formas:

Estimación Puntual: consiste en asumir que el parámetro tiene el


mismo valor que el estadístico en la muestra.

Estimación por intervalos: se asigna al parámetro un conjunto de


posibles valores que están comprendidos en un intervalo asociado a una
cierta probabilidad de ocurrencia. También se llaman “intervalos de
confianza” debido a que la probabilidad asociada a ellos es la confianza de
los mismos. Así, diremos que un intervalo de 99% de confianza es más
confiable que uno de 95%. También se define la confianza de la estimación
como la probabilidad de acertar con el intervalo.

Propiedades de los Estimadores

Insesgadez: un estimador es insesgado o centrado cuando verifica que


E( ) = . (Obsérvese que deberíamos usar (x) y no , pues hablamos de
estimadores y no de estimaciones pero como no cabe la confusión, para
simplificar, aquí, y en lo sucesivo usaremos). En caso contrario se dice que
el estimador es sesgado. Se llama sesgo a B ( ) = - E () [se designa con B
de BIAS, sesgo en inglés].

Consistencia. Un estimador es consistente si converge en probabilidad


al parámetro a estimar. Esto es: si:              

Linealidad. Un estimador es lineal si se obtiene por combinación lineal


de los elementos de la muestra; así tendríamos  que un estimador lineal
sería :
8
                                              

Eficiencia. Un estimador es eficiente u óptimo cuando posee varianza


mínima o bien en términos relativos cuando presenta menor varianza que
otro. Quedando claro que el hecho puede plantearse también en términos
más coherentes de Error Cuadrático Medio (ECM). Tendríamos que:

ECM(  ) =

Suficiencia: Un estimador es suficiente cuando     

        no depende del parámetro a estimar .

Estimación por Intervalos

La estimación por intervalos consiste en establecer el intervalo de


valores donde es más probable se encuentre el parámetro. La obtención del
intervalo se basa en las siguientes consideraciones:

a) Si conocemos la distribución muestral del estimador podemos obtener las


probabilidades de ocurrencia de los estadísticos muéstrales.
b) Si conociéramos el valor del parámetro poblacional, podríamos establecer
la probabilidad de que el estimador se halle dentro de los intervalos de la
distribución muestral.
c) El problema es que el parámetro poblacional es desconocido, y por ello el
intervalo se establece alrededor del estimador. Si repetimos el muestreo un
gran número de veces y definimos un intervalo alrededor de cada valor del
estadístico muestral, el parámetro se sitúa dentro de cada intervalo en un

9
porcentaje conocido de ocasiones. Este intervalo es denominado "intervalo
de confianza".
Por lo tanto, si se seleccionan 100 muestras de una población y se
calcula la media de las muestras para intervalos de confianza del 95% para
cada muestra; se observa que aproximadamente 95 de los 100 intervalos de
confianza contienen la media poblacional. El nivel de confianza es la
probabilidad de que el parámetro poblacional se encuentre dentro del
intervalo; los niveles de confianza más ampliamente usados son 0.95 y 0.99,
sin embargo puede usarse cualquier probabilidad cercana a 1.
Estimación por intervalos con muestras pequeñas (n ≤ 30).Como se ha
indicado anteriormente, para poder utilizar la distribución normal es necesario
que las muestras sean grandes (n > 30) y conocer la desviación estándar. Si
no se conoce σ se utiliza s, pero si además la muestra es pequeña, los
resultados no serán satisfactorios. En estos casos se utiliza la distribución T
de Student, cuyas características son que es una distribución continua, tiene
forma de campana y es simétrica, es una familia de curvas todas con la
misma media de cero, pero sus desviaciones estándar difieren de acuerdo al
tamaño de la muestra, y que es más baja y dispersa que la distribución
normal. Cuando el tamaño de la muestra se incrementa, la distribución t se
aproxima a la normal.

Métodos de Mínimos Cuadrados para la Obtención de la


Estimación de Parámetros

Es un procedimiento de análisis numérico en la que, dados un conjunto


de datos (pares ordenados y familia de funciones), se intenta determinar la
función continua que mejor se aproxime a los datos (línea de regresión o la
línea de mejor ajuste), proporcionando una demostración visual de la relación
entre los puntos de los mismos. En su forma más simple, busca minimizar la

10
suma de cuadrados de las diferencias ordenadas (llamadas residuos) entre
los puntos generados por la función y los correspondientes datos.
Su expresión general se basa en la ecuación de una recta y = mx + b.
Donde m es la pendiente y b el punto de corte, y vienen expresadas de la
siguiente manera:

Σ es el símbolo sumatoria de todos los términos, mientas (x, y) son los


datos en estudio y n la cantidad de datos que existen. El método de mínimos
cuadrados calcula a partir de los N pares de datos experimentales (x, y), los
valores m y b que mejor ajustan los datos a una recta. Se entiende por el
mejor ajuste aquella recta que hace mínimas las distancias d de los puntos
medidos a la recta. Teniendo una serie de datos (x, y), mostrados en un
gráfico o gráfica, si al conectar punto a punto no se describe una recta,
debemos aplicar el método de mínimos cuadrados, basándonos en su
expresión general:

Cuando se haga uso del método de mínimos cuadrados se debe buscar


una línea de mejor ajuste que explique la posible relación entre una variable

11
independiente y una variable dependiente. En el análisis de regresión, las
variables dependientes se designan en el eje y vertical y las variables
independientes se designan en el eje x horizontal. Estas designaciones
formarán la ecuación para la línea de mejor ajuste, que se determina a partir
del método de mínimos cuadrados.

Ejemplos:

Para entender con claridad la aplicación del método veamos un


ejemplo: Encontrar la recta que mejor se ajusta a los siguientes datos:

Veamos el gráfico:

12
Necesitamos encontrar una recta y = mx + b. Debemos aplicar el
método de mínimos cuadrados. Como ya sabemos entonces, primero
centraremos el valor (x ∙ y):

Segundo por las expresiones de m y b debemos encontrar el valor x²:

13
Ahora podemos obtener los valores de las sumatorias de cada columna:
Sustituimos en cada una de las expresiones:

La recta obtenida con el método de los mínimos cuadrados es la siguiente:

Observemos el gráfico:

14
Vemos que la recta corta al eje y en 11,48 y en el eje x en 13,57. Por lo
tanto, si queremos saber dónde corta en el eje x igualamos la ecuación y = 0:

Despejamos x:

Prueba de Hipótesis

Hipótesis

Es una idea que puede no ser verdadera, basada en información previa.


Su valor reside en la capacidad para establecer más relaciones entre los
hechos y explicar por qué se producen. Normalmente se plantean primero las

15
razones claras por las que uno cree que algo es posible y finalmente se pone
en conclusión.
Según Izcara (2014), las hipótesis son explicaciones tentativas de un
fenómeno investigado, formuladas a manera de proposiciones. Una hipótesis
debe desarrollarse con una mente abierta y dispuesta a aprender, pues de lo
contrario se estaría tratando de imponer ideas, lo cual es completamente
erróneo.
Aun cuando una hipótesis es errónea, no por eso se debe decir que fue
una pérdida de tiempo haber planteado dicha hipótesis o que fue
completamente infructífera, pues es gracias a la prueba de las hipótesis que
se llega progresivamente a la verdad respecto a algún fenómeno. Al
confirmar que una hipótesis es falsa, se hace una contribución al
conocimiento y es un paso más que permite ir escalando en la búsqueda de
la verdad (San Martín, 2014).
Según Sabino (2014) plantea que se define la hipótesis como un intento
de explicación o una respuesta «provisional» a un fenómeno. Su función
consiste en delimitar el problema que se va a investigar según algunos
elementos, tales como: el tiempo, el lugar, las características de los sujetos.
Peiró y Bernal (2012).Sobre esta definición debe aclarase que el primer
punto a desarrollar en un trabajo de investigación no es la hipótesis, sino el
planteamiento del problema, ya que sin este no existirían elementos para
formularla. Una hipótesis puede usarse como una propuesta provisional que
no se pretende demostrar estrictamente, o puede ser una predicción que
debe ser verificada por el método científico.

Tipos de Hipótesis

La clasificación que se presenta en este trabajo es la que sugieren Juni


y Urbano (2014), en la que dan una descripción detallada para cada uno de
los tipos de hipótesis consideradas en su investigación. En sus palabras

16
introductorias, explican que una hipótesis es un enunciado que se propone
como base para describir y/o explicar por qué o cómo se produce un
fenómeno o conjunto de fenómenos relacionados; de acuerdo con este
criterio se pueden formular hipótesis descriptivas e hipótesis explicativas.
Explican que las primeras anticipan el tipo de variables que se espera
encontrar en el fenómeno investigado, los valores y las diferentes cualidades
que ellas presentan. Las segundas avanzan en la explicitación del por qué se
relacionan entre sí distintas variables.
Ambos tipos de hipótesis se pueden producir, utilizando procedimientos
deductivos o inductivos. Sobre estos dos procedimientos se precisa lo
siguiente:
- Las hipótesis inductivas se generan a partir de la observación de los
fenómenos. Del análisis de casos particulares, se van estableciendo
generalizaciones y formulando proposiciones. El proceso comienza con la
observación de casos, luego se elaboran hipótesis acerca de las
regularidades que se detectan en los casos observados, y finalmente se
relacionan diferentes proposiciones con lo que se configuran las teorías.
- Las hipótesis deductivas surgen por un proceso inverso. El
investigador parte de la teoría, de una premisa general considerada como
verdadera, de la cual va a deducir consecuencias observacionales. La
verdad de la premisa está avalada por la fortaleza de la teoría en la que se
apoya.
Después de hechas estas aclaraciones por Juni y Urbano, se pasa a
relacionar los tipos de hipótesis:
· Hipótesis correlacionales: son aquellas que establecen relaciones
entre dos o más variables. Permiten determinar si dos o más variables están
asociadas entre sí y su grado de asociación estadística. No permiten
establecer la dirección causal de la relación entre las variables (cuál es la
variable causal y cuál la variable efecto). Pueden existir diversas hipótesis

17
que vinculen a varias variables entre sí. No establecen en forma directa la
causa, sino que valoran el grado de relación de las variables.
Dentro de esta clase suelen incluirse las hipótesis de diferencias de
grupos. Si el investigador no tiene bases suficientes para presuponer a favor
de qué grupo será la diferencia en ciertas variables observadas, formula una
hipótesis simple. Cuando tiene la información empírica, establece la
magnitud de las diferencias entre los grupos y verifica si en ambos las
variables aparecen relacionadas. El análisis estadístico de este tipo de
hipótesis se apoya en las medidas de la estadística descriptiva y en el
análisis de correlaciones, del cual recibe su nombre.
· Hipótesis de causalidad: este tipo de hipótesis no solo establece
relaciones entre las variables, sino la naturaleza causal de las mismas.
Indican cuál de las variables puede ser considerada como causa, predictor a
o variable independiente, y cuál puede ser considerada efecto, variable
dependiente u observada.
La causalidad incluye los otros niveles: la descripción y correlación, a la
vez que se apoya en ellos. Si no hay correlación entre las variables no tiene
sentido plantear el estudio de la causalidad. Un rasgo propio de este tipo de
hipótesis es que establece una relación temporal entre los fenómenos. La
variable independiente (causal) precede temporalmente a la variable
dependiente (efecto). Las variables intervinientes son aquellas que se
presentan durante el proceso causal y cuya presencia puede transformar los
valores de cualquiera de ellas o de ambas.

Prueba de Hipótesis

La prueba de hipótesis es una regla que especifica cuando se puede


aceptar o rechazar una afirmación sobre una población dependiendo de la
evidencia proporcionada por una muestra de datos. Una prueba de hipótesis
examina dos hipótesis opuestas sobre una población: la hipótesis nula y la

18
hipótesis alternativa. La hipótesis nula es la afirmación que se está
comprobando. Normalmente la hipótesis nula es una afirmación de "sin
efecto" o "sin diferencia". La hipótesis alternativa es la afirmación que se
desea ser capaz de concluir que es verdadera basándose en la evidencia
proporcionada por los datos de la muestra.
Basándose en los datos de la muestra, la prueba determina cuando
rechazar la hipótesis nula. Se utiliza un p-valor, para realizar esa
determinación. Si el p-valor es menos que el nivel de significación (conocido
como α o alfa), entonces se puede rechazar la hipótesis nula. Un error
común suele ser que las pruebas de hipótesis estadísticas están diseñadas
para seleccionar la más probable de dos hipótesis.
Sin embargo, al diseñar una prueba de hipótesis, se configura la
hipótesis nula como la que se quiere rechazar. Dado que se fija que el nivel
de significación sea pequeño antes del análisis (normalmente, un valor de
0.05 funciona correctamente), Cuando se rechaza la hipótesis nula, se tiene
una prueba estadística de que la alternativa es cierta. Por el contrario, si no
se rechaza la hipótesis nula, no se tiene prueba estadística de que la
hipótesis nula sea cierta. Esto es debido a que no se ha fijado la probabilidad
de que se acepte falsamente que la hipótesis nula sea pequeña.

Hipótesis para la Muestra

Procedimiento sistemático para una prueba de hipótesis de una


muestra:
Paso 1: Plantear la hipótesis nula Ho y la hipótesis alternativa H1:
Cualquier investigación estadística implica la existencia de hipótesis o
afirmaciones acerca de las poblaciones que se estudian. La hipótesis nula
(Ho) se refiere siempre a un valor especificado del parámetro de población,
no a una estadística de muestra. La letra H significa hipótesis y el subíndice
cero no hay diferencia. Por lo general hay un "no" en la hipótesis nula que

19
indica que "no hay cambio" Podemos rechazar o aceptar Ho. La hipótesis
nula es una afirmación que no se rechaza a menos que los datos maestrales
proporcionen evidencia convincente de que es falsa. El planteamiento de la
hipótesis nula siempre contiene un signo de igualdad con respecto al valor
especificado del parámetro.
La hipótesis alternativa (H1) es cualquier hipótesis que difiera de la
hipótesis nula. Es una afirmación que se acepta si los datos maestrales
proporcionan evidencia suficiente de que la hipótesis nula es falsa. Se le
conoce también como la hipótesis de investigación. El planteamiento de la
hipótesis alternativa nunca contiene un signo de igualdad con respecto al
valor especificado del parámetro.
Paso 2: Seleccionar el nivel de significancia: Nivel de significancia:
Probabilidad de rechazar la hipótesis nula cuando es verdadera. Se le denota
mediante la letra griega α, también es denominada como nivel de riesgo, este
término es más adecuado ya que se corre el riesgo de rechazar la hipótesis
nula, cuando en realidad es verdadera. Este nivel está bajo el control de la
persona que realiza la prueba. Si suponemos que la hipótesis planteada es
verdadera, entonces, el nivel de significación indicará la probabilidad de no
aceptarla, es decir, estén fuera de área de aceptación. El nivel de confianza
(1-α), indica la probabilidad de aceptar la hipótesis planteada, cuando es
verdadera en la población.
Hipótesis para la Varianza

El análisis de la varianza permite contrastar la hipótesis nula de que las


medias de K poblaciones (K >2) son iguales, frente a la hipótesis alternativa
de que por lo menos una de las poblaciones difiere de las demás en cuanto a
su valor esperado. Este contraste es fundamental en el análisis de resultados
experimentales, en los que interesa comparar los resultados de K
'tratamientos' o 'factores' con respecto a la variable dependiente o de interés.

20
El Anova requiere el cumplimiento los siguientes supuestos:

 Las poblaciones (distribuciones de probabilidad de la variable


dependiente correspondiente a cada factor) son normales.
 Las K muestras sobre las que se aplican los tratamientos son
independientes.
 Las poblaciones tienen todas igual varianza (homoscedasticidad).

El ANOVA se basa en la descomposición de la variación total de los


datos con respecto a la media global (SCT), que bajo el supuesto de que H0

es cierta es una estimación de   obtenida a partir de toda la información


muestral, en dos partes:

 Variación dentro de las muestras (SCD) o Intra-grupos, cuantifica la


dispersión de los valores de cada muestra con respecto a sus
correspondientes medias.
 Variación entre muestras (SCE) o Inter-grupos, cuantifica la dispersión
de las medias de las muestras con respecto a la media global.

Las expresiones para el cálculo de los elementos que intervienen en el


Anova son las siguientes:

Media Global: 

Variación Total: 

Variación Intra-grupos: 

21
Variación Inter-grupos: 

Siendo xij el i-ésimo valor de la muestra j-ésima; nj el tamaño de dicha

muestra y  su media. Cuando la hipótesis nula es cierta SCE/K-1 y SCD/n-


K son dos estimadores insesgados de la varianza poblacional y el cociente
entre ambos se distribuye según una F de Snedecor con K-1 grados de
libertad en el numerador y N-K grados de libertad en el denominador. Por lo
tanto, si H0 es cierta es de esperar que el cociente entre ambas
estimaciones será aproximadamente igual a 1, de forma que se rechazará
H0 si dicho cociente difiere significativamente de 1.

Docimasia de hipótesis

Se refiere a la comparación de los resultados obtenidos en dos o más


grupos sometidos a tratamientos diferentes. Hipótesis estadística es una
afirmación respecto de una característica poblacional (la forma de ella o el
valor de sus parámetros); esta sentencia puede ser “docimada” (probada)
usando una muestra aleatoria extraída de esa población. Docimasia
Hipótesis Pasos para una prueba de hipótesis. Es una tentativa de
explicación, conjetura o suposición verisímil ocurre de un parámetro o
disminución de una variable destinada de ser probada por la comprobación
de hecho.

Potencia de un Test

La potencia de una prueba se define como la función que establece la


probabilidad de rechazar la hipótesis nula cuando es falsa. De acuerdo a la
definición anterior, la potencia de una prueba de hipótesis es igual a 1 - β, o
sea, uno menos la probabilidad de cometer un error de tipo II. La potencia de
una prueba de hipótesis en estadística se refiere a la probabilidad de
rechazar una hipótesis nula que es falsa; o dicho de otra forma, representa la
22
probabilidad de aceptar una hipótesis alternativa como verdadera cuando así
lo es.
Ejemplo:

Por ejemplo, personas que tienen un perro como animal de compañía


y personas que tienen un reptil como mascota (evito decir «animal de
compañía» por razones obvias). Queremos saber si el grado de bienestar de
uno y otro grupo difiere, para lo cual administramos las escalas
correspondientes y, tras una ardua tarea de codificación y análisis,
obtenemos los resultados. Ahora nuestra labor como investigadores es
rechazar la hipótesis nula (es decir, aquella que dice que los grupos son
iguales) y aceptar la hipótesis alternativa (que dice que su grado de bienestar
es diferente)… o al contrario, aceptar la primera y rechazar la segunda.
Ahora bien, se observa de nuevo a los datos y a la prueba de
comparación de medias que hemos realizado, y vemos que todo parece
indicar que los grupos difieren en su grado de bienestar (¡hemos obtenido un
p<0.05!)… entonces la conclusión parecería clara… rechazamos la hipótesis
nula y aceptamos que los amantes de los perros y los de los reptiles difieren
en sus niveles de bienestar. OK, pero no hay que olvidar que en estadística
las conclusiones no son en realidad tan «claras y distintas», y cualquier
afirmación se hace con un nivel de probabilidad asociado.
En este sentido, sería la probabilidad de que, si los dos grupos son
efectivamente diferentes, la prueba de comparación de sus niveles de
bienestar que hemos realizado–una prueba t para muestras independientes-
nos diga que no es lo mismo ser dueño de un caniche que de una cobra. En
este sentido, la potencia de la prueba refleja la “sensibilidad” de un contraste
de hipótesis, esto es, su capacidad para detectar diferencias significativas
existentes entre los grupos.
La potencia de una prueba de hipótesis depende de tres elementos: el
α (alpha) o nivel de significación: si se aumenta alpha, también aumenta el
23
valor de la potencia… eso sí, con un mayor riesgo de cometer “falsos
positivos”. Por convención, alpha se suele fijar en valores como 0.05 o 0.01,
por lo que no vamos a fijarnos ahora en ello, aunque también es un tema que
daría para hablar.
El “tamaño del efecto”, por ejemplo, la magnitud de las diferencias
entre grupos, la fuerza de una asociación entre variables, etc. Si
mantenemos fijo el nivel de significación y el tamaño de la muestra, a medida
que aumenta el tamaño del efecto aumenta también la potencia del
contraste. Es decir, que –dicho de forma llana y rápida- los efectos de gran
tamaño son más fáciles de detectar que los pequeños.
El tamaño de la muestra: si quedamos fijos los demás elementos
(nivel de significación y tamaño del efecto), al aumentar el tamaño de la
muestra aumenta también la potencia de la prueba. Esto es, con una
muestra grande es más probable detectar diferencias significativas entre los
grupos cuando realmente éstas existen.

Prueba de Proporciones

Las pruebas de proporciones son adecuadas cuando los datos que se


están analizando constan de cuentas o frecuencias de elementos de dos o
más clases. El objetivo de estas pruebas es evaluar las afirmaciones con
respecto a una proporción (o Porcentaje) de población. Las pruebas se
basan en la premisa de que una proporción muestral (es decir, x ocurrencias
en n observaciones, o x/n) será igual a la proporción verdadera de la
población si se toman márgenes o tolerancias para la variabilidad muestral.
Las pruebas suelen enfocarse en la diferencia entre un número esperado de
ocurrencias, suponiendo que una afirmación es verdadera, y el número
observado realmente. La diferencia se compara con la variabilidad prescrita
mediante una distribución de muestreo que tiene como base el supuesto de
que es realmente verdadera.

24
Prueba de Proporciones de una Muestra

Cuando el objetivo del muestreo es evaluar la validez de una afirmación


con respecto a la proporción de una población, es adecuado utilizar una
prueba de una muestra. La metodología de prueba depende de si el número
de observaciones de la muestra es grande o pequeño. Como se habrá
observado anteriormente, las pruebas de grandes muestras de medias y
proporciones son bastante semejantes. De este modo, los valores
estadísticos de prueba miden la desviación de un valor estadístico de
muestra a partir de un valor propuesto. Y ambas pruebas se basan en la
distribución normal estándar para valores críticos. Quizá la única diferencia
real entre las ambas radica en la forma corno se obtiene la desviación
estándar de la distribución de muestreo. Esta prueba comprende el cálculo
del valor estadístico de prueba Z

25
Posteriormente este valor es comparado con el valor de Z, obtenido a
partir de una tabla normal a un nivel de significación seleccionado. Como
ocurrió con la prueba de medias de una muestra, las pruebas de
proporciones pueden ser de una o dos colas.

La primera alternativa establece una prueba de cola derecha, la


segunda, izquierda y la tercera, una prueba de dos colas.

Ejemplo ilustrativo

En un estudio se afirma que 3 de 10 estudiantes universitarios trabajan.


Pruebe esta aseveración, a un nivel de significación de 0,025, respecto a la
alternativa de que la proporción real de los estudiantes universitarios trabajan
es mayor de lo que se afirma, si una muestra aleatoria de 600 estudiantes
universitarios revela que 200 de ellos trabajan. La muestra fue tomada de
10000 estudiantes. Los datos son:

26
Como en los datos aparece el tamaño de la población, se debe verificar
si el tamaño de la nuestra es mayor que el 5%. Se remplaza valores en la
siguiente fórmula:

Decisión:

27
Distribución Chi-Cuadrado

Esta prueba puede utilizarse incluso con datos medibles en una escala
nominal. La hipótesis nula de la prueba Chi-cuadrado postula una
distribución de probabilidad totalmente especificada como el modelo
matemático de la población que ha generado la muestra.
Para realizar este contraste se disponen los datos en una tabla de
frecuencias. Para cada valor o intervalo de valores se indica la frecuencia
absoluta observada o empírica (Oi). A continuación, y suponiendo que la
hipótesis nula es cierta, se calculan para cada valor o intervalo de valores la
frecuencia absoluta que cabría esperar o frecuencia esperada (Ei=n·pi ,
donde n es el tamaño de la muestra y pi la probabilidad del i-ésimo valor o
intervalo de valores según la hipótesis nula). El estadístico de prueba se
basa en las diferencias entre la Oi y Ei y se define como:

Este estadístico tiene una distribución Chi-cuadrado con k-1 grados de


libertad si n es suficientemente grande, es decir, si todas las frecuencias
esperadas son mayores que 5. En la práctica se tolera un máximo del 20%
de frecuencias inferiores a 5.
Si existe concordancia perfecta entre las frecuencias observadas y las
esperadas el estadístico tomará un valor igual a 0; por el contrario, si existe
unas grandes discrepancias entre estas frecuencias el estadístico tomará un
valor grande y, en consecuencia, se rechazará la hipótesis nula. Así pues, la
región crítica estará situada en el extremo superior de la distribución Chi-
cuadrado con k-1 grados de libertad.

28
En este sentido, se debe recordar que la prueba Chi-cuadrado (x2) o Ji-
cuadrado fue sugerida por Carl Pearson como una forma de valorar la
bondad del ajuste de unos datos a una distribución de probabilidad conocida,
y se ha establecido como el procedimiento de elección para el contraste de
hipótesis. Esta prueba estadística se emplea en el análisis de dos o más
grupos, y de dos o más variables. Desde entonces, se ha convertido en una
prueba muy aceptada y aplicable a múltiples usos, cuando se dispone de
datos independientes de tipo nominal. Ella ofrece un test general sobre la
existencia de diferencias entre las categorías que agrupan a los datos de la
variable dependiente.

Formula:

Para la distribución χ2, la media poblacional es μ = df y la desviación


típica poblacional es σ = 2 ( de ) σ = 2 ( de ) . La variable aleatoria se
muestra como χ2. La variable aleatoria para una distribución chi-cuadrado
con k grados de libertad es la suma de variables k normales cuadradas
independientes.

Nivel de Significancia

Por lo general, un nivel de significancia (denotado como α o alfa) de


0.05 funciona adecuadamente. Un nivel de significancia de 0.05 indica un
riesgo de 5% de concluir que existe una asociación entre las variables
cuando no hay una asociación real.
Ejemplo 1: problema para una tabla de 2 X 2Se desea saber si el
consumir alcohol influye sobre las recaídas en fumadores
Decisiones para seleccionar la prueba X2
• Es un problema de Comparación

29
• VI: consumo de alcohol 2 grupos independientes (no consumir y
consumir alcohol)• VD: recaída en el consumo de tabaco Nivel de medición
de la variable dependiente: nominal
• Ho: No hay diferencia en la proporción de fumadores que recayeron
en el consumo de tabaco entre bebedores y no bebedores (P1= P2)• Prueba
estadística: Prueba chi cuadrada• Regla de decisión: Si p ≤ 0.05 se rechaza
Ho
Nota: El nivel de significancia que se establece en ciencias sociales y
en psicología normalmente es 0.05, este puede variar en la regla de decisión
a 0.01 y 0.001 si se requiere mayor certeza en la prueba de hipótesis.

Grados de Libertad

Los grados de libertad definen la distribución chi-cuadrada que se utiliza


para evaluar la independencia de la prueba. La distribución chi-cuadrada
tiene asimetría positiva. A medida que aumentan los grados de libertad, se
aproxima a la curva normal. Para el caso, los grados de libertad es igual al
número de observaciones menos 1, es decir 5 – 1 = 4. La varianza muestral
será: Y la desviación estándar muestral será la raíz cuadrada de 2.2, es decir
1.48. Medias, y los nuevos grados de libertad son entonces (n -1) y (n -2).
La tabla de ji-cuadrado tiene en la primera columna los grados de
libertad y en la primera fila la probabilidad asociada a valores mayores a un
determinado valor del estadístico (véase gráfico de la tabla III).
Los grados de libertad dependen del número de celdas que tiene la tabla de
asociación donde están los datos del problema y su fórmula de cálculo es
muy sencilla: Grados de libertad (gl)=(nº de filas–1)x(nº de columnas–1) Así,
en nuestro ejemplo, en que hay 2 filas y 3 columnas, los grados de libertad
serán: gl=(2-1)x(3-1)=2

30
31
La regla de Decisión

Es el área de la distribución muestral que corresponde a los valores del


estadístico de contraste próximos a la afirmación establecida en H0. Es decir,
los valores del estadístico de contraste que nos conducen a decidir H0.

Prueba de Bondad de ajustes Chi- Cuadrado

La prueba Chi- cuadrado de bondad de ajuste es una prueba de


hipótesis estadística que se usa para averiguar si es probable que una
variable provenga o no de una distribución específica. Se emplea a menudo
para determinar si los datos de una muestra son representativos de la
población completa.
El procedimiento Prueba de chi-cuadrado de bondad de ajuste tabula
una variable en categorías y calcula un estadístico de chi-cuadrado. Esta
prueba de bondad de ajuste compara las frecuencias observadas y
esperadas en cada categoría para contrastar que todas las categorías
contengan la misma proporción de valores o que cada categoría contenga
una proporción de valores especificada por el usuario.

Ejemplos

La prueba de chi-cuadrado podría utilizarse para determinar si una bolsa


de caramelos contiene en igualdad de proporción caramelos de color azul,
marrón, verde, naranja, rojo y amarillo. También podría utilizarse para ver si
una bolsa de caramelos contiene un 5% de color azul, un 30% de color
marrón, un 10% de color verde, un 20% de color naranja, un 15% de color
rojo y un 15% de color amarillo.

32
Estadísticos

Media, desviación estándar, mínimo, máximo y cuartiles. Número y


porcentaje de casos perdidos y no perdidos; número de casos observados y
esperados de cada categoría; residuos y estadístico de chi-cuadrado.

Prueba de Independencia Chi- Cuadrado

La prueba de independencia de chi-cuadrado determina si dos campos


categóricos son independientes. Si los campos no son independientes, están
asociados. El procedimiento siguiente describe cómo se calcula el valor chi-
cuadrado:
1.- Determinar la frecuencia esperada con la suposición de que los
campos son independientes. La frecuencia esperada para cada combinación
de categorías es la probabilidad conjunta de que los dos campos se
multipliquen por el recuento total. La probabilidad conjunta de dos campos
independientes es el producto de las dos probabilidades para cada
combinación de categorías.
Por ejemplo, considere dos campos: el género y el color favorito. El
recuento total es 100. Hay 40 hombre, y 20 personas cuyo color favorito es el
gris. Suponiendo que la preferencia de género y color son independientes, la
frecuencia esperada de los hombres cuyo color favorito es el gris es (40/100)
* (20/100) * 100, que calcula a 8.
2.- Para cada combinación, reste la frecuencia esperada de la
frecuencia real (observada).
3.- Tome el cuadrado de cada uno de estos resultados y divida cada
cuadrado por la frecuencia esperada.
4.- Añada todos los resultados.

33
Tabla de Contingencia

Una tabla de contingencia es una herramienta utilizada en la rama de la


estadística, la cual consiste en crear al menos dos filas y dos columnas para
representar datos categóricos en términos de conteos de frecuencia. Esta
herramienta, que también se conoce como tabla cruzada o como tabla de
dos vías, tiene el objetivo de representar en un resumen, la relación entre
diferentes variables categóricas.

Asimismo, se considera que tabla de contingencia proporciona una


forma de representar los datos que puede facilitar el cálculo de
probabilidades. La tabla ayuda a determinar las probabilidades condicionales
con bastante facilidad. La tabla muestra los valores de la muestra en relación
con dos variables diferentes que pueden ser dependientes o contingentes
entre sí. Más adelante volveremos a utilizar las tablas de contingencia, pero
de otra manera.

Prueba de Homogeneidad

La prueba Chi-cuadrado se puede aplicar para determinar si dos o más


muestras aleatorias independientes se extraen de la misma población. Para
ello se clasifica a la población en términos de una variable cualitativa en k
grupos (categorías de la variable) o niveles de un factor, con el objeto de
evaluar si las proporciones poblacionales son homogéneas.
. La principal diferencia que hay que recordar entre ambas es que la
prueba de independencia busca una asociación entre dos variables
categóricas dentro de la misma población, mientras que la prueba de
homogeneidad determina si la distribución de una variable es la misma en
cada una de varias poblaciones (asignando así la propia población como
segunda variable categórica).

34
Distribución T – Student

La prueba "t" de Student es un tipo de estadística deductiva. Se utiliza


para determinar si hay una diferencia significativa entre las medias de dos
grupos. Con toda la estadística deductiva, asumimos que las variables
dependientes tienen una distribución normal. Especificamos el nivel de la
probabilidad (nivel de la alfa, nivel de la significación, p) que estamos
dispuestos a aceptar antes de que cerco datos (p < .05 es un valor común se
utiliza que).

La prueba estadística para t de Student es el valor t. Conceptualmente,


la t valor representa el número de unidades estándares que están separando
las medias de los dos grupos. Con una t-prueba, el investigador desea
indicar con un cierto grado de confianza que la diferencia obtenida entre los
medios de los grupos de la muestra sea demasiado grande ser un
acontecimiento chance. Si nuestra t prueba produce una t-valor que da lugar
a una probabilidad de .01, decimos que la probabilidad de conseguir la
diferencia que encontramos sería por casualidad 1 en 100 veces.

Formula:

La idea básica para calcular una prueba de Student es encontrar la


diferencia entre las medias de los dos grupos y dividirla por el error estándar
(de la diferencia), es decir la desviación de estándar de la distribución de las
diferencias.

Su expresión formal parte de dos variables X e Y tales que:

       e        de manera que                         

Siendo t una nueva distribución conocida como t de Student con n grados de


libertad. La distribución t de Student. Admite, también, una definición

35
alternativa, tomada como la distribución marginal de la primera variable de
una distribución "normal-gamma" ; en este sentido la expresión de su función
de densidad vendría dada por :

                                              

Siendo n los grados de libertad que actuan de parámetro    y      la función


gamma de Euler.
La distribución t de Student con n grados de libertad tiene siempre
como media el valor "0" , sea cuales fueren los grados de libertad ; es
simétrica ,asintóticamente tiende a  ,de forma campaniforme , al igual que
la distribución normal, teniendo como varianza el valor 

Ejemplo:

Caso clínico:
Determina si el peso levantado (2kg y 5kg) durante la abducción del
miembro superior registrada mediante un goniómetro electrónico tiene
influencia en el dolor de hombro que padecen los pacientes con contractura
del trapecio superior y que han recibido un tratamiento de fuerza. La
puntuación de dolor se ha registrado con una escala visual analógica (EVA).
1- Identifica las variables independientes y dependientes así como la
hipótesis nula y la alternativa
2- ¿Qué tipo de variable son según criterio estadístico/escala de medida?
3- Selecciona la prueba estadística a aplicar. Justifica brevemente la
respuesta.

36
Caso clínico resuelto

1- Identifica las variables independientes y dependientes así como la


hipótesis nula y la alternativa.
Variable independiente: Peso con 2 niveles (2 y 5 kg). Este es el factor
intrasujeto.
Variable dependiente: Dolor
H0: No existen diferencias estadísticamente significativas (ES) entre los dos
pesos levantados en el dolor de hombro de pacientes con contractura de
trapecio superior/ No existe influencia del peso levantado en el dolor.
H1: Sí existen diferencias estadísticamente significativas (ES) entre los dos
pesos levantados en el dolor de hombro de pacientes con contractura de
trapecio superior/ Existe influencia del peso levantado en el dolor.
2- ¿Qué tipo de variable son según criterio estadístico/escala de medida?
Independiente: Categórica/cualitativa ordinal. Tiene dos categorías que se
“ordenan” de menos a más peso.
Dependiente: Dolor cuantitativa de razón, es decir, puede tomar cualquier
valor dentro de la escala analógica visual.
3- Selecciona la prueba estadística a aplicar. Justifica brevemente la
respuesta.
Prueba T Student de muestras relacionadas puesto que el estudio
cuenta con una variable independiente categórica que sólo tiene 2 niveles o
categorías (si fuesen 3, se usaría el ANOVA). Además, la variable
independiente constituye un factor intrasujeto, es decir, se le está midiendo al
paciente el dolor durante la abducción en dos condiciones distintas.

37
Conclusión

Los conceptos antes mencionados han sido analizados e investigados


de tal manera de hacer más fácil su comprensión y entendimientos ya que la
estadística es la ciencia que trata de entender, organizar y tomar decisiones
que estén de acuerdo con los análisis efectuados. La estadística juega un
papel muy importante en nuestras vidas, ya que actualmente ésta se ha
convertido en un método muy efectivo para describir con mucha precisión los
valores de datos económicos, políticos, sociales, psicológicos, biológicos y
físicos, además, sirve como herramienta para relacionar y analizar dichos
datos.
Es de vital importancia para nuestra vida profesional venidera, que se
manejen estos conceptos con facilidad, así mismo el que se usen de la
manera apropiada, siempre en pro de buscar soluciones a los problemas que
se nos puedan presentar.

38
Referencias Bibliográficas

Izcara P, (2014). Manual de investigación cualitativa. Perú: Ediciones


Fontamara. Recuperado a partir de
https://www.porrua.mx/libro/GEN:846424/manual-de-investigacion-
cualitativa/simon-pedro-izcara-palacios/9786077360643 [ Links ]

Juni, J. A. & Urbano, C. A. (2014). Técnicas para Investigar Volumen 2.


Recursos metodológicos para la preparación de proyectos de
investigación. Argentina: Brujas. Recuperado a partir de
http://abacoenred.com/wp-content/uploads/2016/01/T%C3%A9cnicas-
para-investigar-2-Brujas-2014-pdf.pdf [ Links ]

Mendenhall W, Sincich T (2007) Statistics for Engineering and the Sciences.


5. ed. Prentice Hall. Upper Saddle River, NJ, EEUU. 1072 pp.

Moore, D.. (1998a). Estadística Aplicada Básica. Barcelona. Antoni Bosch


editor.

Peiró, S. & Bernal, E. (2012). «Variaciones en la práctica médica: apoyando


la hipótesis nula en tiempos revueltos». Revista Española de Salud
Pública, 86(3), 213-217. [Links]

Sabino, C.(2014). El proceso de investigación. Décima edición. Editorial


Episteme: Guatemala. Recuperado a partir de
https://metodoinvestigacion.files.wordpress.com/2008/02/el-proceso-de-
investigacion_carlos-sabino.pdf [Links]

San Martín, D. (2014). «Teoría fundamentada y Atlas.ti: recursos


metodológicos para la investigación educativa». Revista electrónica de
investigación educativa, 16(1), 104-122. [ Links ]

39
40

También podría gustarte