Está en la página 1de 7

CONJUNTO DE NUMEROS REALES

Números reales

Los números reales no son nuevos en la historia pues ya los egipcios utilizaban fracciones dando
pie al concepto de números reales. El conjunto de los números reales abarca a los números
racionales y a los números irracionales, pudiendo ser expresados por un número entero o un
número decimal. El descubrimiento de estos números se atribuye a Pitágoras, famoso matemático
griego.
Los números reales son parte de nuestro día a día y los usamos para realizar todo tipo de
cálculos cotidianos de manera inconsciente. Cuando se consulta la hora, se hace un
presupuesto, se realiza una compra o se mira un extracto bancario, se están utilizando números
reales.

Qué son los números reales


Cuando se definen los números reales se dice que son cualquier número que se encuentre o
corresponda con la recta real que incluye a los números racionales y números irracionales, Por lo
tanto, el dominio de los números reales se encuentra entre menos infinito y más infinito.
Las principales características de los números reales son:

 Orden. Todos los números reales siguen un orden, por ejemplo 1, 2, 3, 4 …


 Integral. La integridad de los números reales marca que no hay espacios vacíos, es decir, cada
conjunto que dispone de un límite superior tiene un límite más pequeño.
 Infinitos. Los números reales no tienen final, ni por el lado positivo ni por el lado negativo. Por
eso su dominio está entre menos infinito y más infinito.
 Decimal. Los números reales pueden ser expresados como una expansión decimal infinita.

Clasificación de los números reales


La clasificación de los números reales incluye los siguientes números.

 Números naturales. Son los números iguales o mayores que uno no decimales. El conjunto de
los números naturales no tiene en cuenta el cero.
 Números enteros. Son los números positivos y negativos no decimales, incluyendo el cero. Es
decir, los números naturales incluyendo los números negativos y el cero.
 Números racionales. Los que se pueden representar como el cociente de dos enteros con
denominador diferente a cero. Son las fracciones que pueden crearse utilizando números
naturales y enteros.
 Números irracionales. Aquellos que no pueden ser expresados como una fracción de números
enteros con denominador distinto a cero. Se trata de números decimales que no pueden
expresarse ni de manera exacta, ni de manera periódica, siendo el número pi un ejemplo de este
tipo de números.
Operaciones con números complejos
Para sumar dos números complejos , sume la parte real a la parte real y la parte
imaginaria a la parte imaginaria.

Ejemplo:
(2 + 7 i ) + (3 – 4 i ) = (2 + 3) + (7 + (–4)) i

=5+3i
Para restar dos números complejos, reste la parte real de la parte real y la parte
imaginaria de la parte imaginaria.

Ejemplo:
(9 + 5 i ) – (4 + 7 i ) = (9 – 4) + (5 – 7) i

=5–2i

Para multiplicar dos números complejos, use el método FOIL y combine los
términos semejantes .

Ejemplo:
(3 + 2 i )(5 + 6 i ) = 15 + 18 i + 10 i + 12 i 2

= 15 + 28 i – 12

= 3 + 28 i
Para dividir dos números complejos, multiplique el numerador y el denominador
por el conjugado complejo, desarrolle y simplifique. Luego, escriba la respuesta
final en la forma estándar.

Ejemplo:

ESTADISTICA

La estadística (la forma femenina del término alemán statistik, derivado a su vez
del italiano statista, «hombre de Estado»)1 es la disciplina que estudia la variabilidad,
recolección, organización, análisis, interpretación y presentación de los datos, así como el
proceso aleatorio que los genera siguiendo las leyes de la probabilidad.2

La estadística es una ciencia formal, con un conocimiento propio, dinámico y en continuo


desarrollo obtenido a través del método científico formal. En ocasiones, las ciencias
fácticas necesitan utilizar técnicas estadísticas durante su proceso de investigación factual,
con el fin de obtener nuevos conocimientos basados en la experimentación y en la
observación. En estos casos, la aplicación de la estadística permite el análisis de datos
provenientes de una muestra representativa, que busca explicar las correlaciones y
dependencias de un fenómeno físico o natural, de ocurrencia en forma aleatoria o condicional.
La estadística es útil para una amplia variedad de ciencias fácticas, desde la física hasta
las ciencias sociales, desde las ciencias de la salud hasta el control de calidad. Además, se
usa en áreas de negocios o instituciones gubernamentales con el objetivo de describir el
conjunto de datos obtenidos para la toma de decisiones, o bien para realizar generalizaciones
sobre las características observadas.
En la actualidad, la estadística aplicada a las ciencias fácticas permite estudiar una
determinada población a partir de la recopilación de información, el análisis de datos y
la interpretación de resultados. Del mismo modo, también es una ciencia esencial para el
estudio cuantitativo de los fenómenos de masa o colectivos.
La estadística se divide en dos grandes áreas:

 Estadística descriptiva: Se dedica a la descripción, visualización y resumen de datos


originados a partir de los fenómenos de estudio. Los datos pueden ser
resumidos numérica o gráficamente. Su objetivo es organizar y describir las
características sobre un conjunto de datos con el propósito de facilitar su aplicación,
generalmente con el apoyo de gráficas, tablas o medidas numéricas.
o Ejemplos básicos de parámetros estadísticos son: la media y la desviación estándar.
o Ejemplos gráficos son: histograma, pirámide poblacional, gráfico circular, entre otros.
 Estadística inferencial: Se dedica a la generación de los modelos, inferencias y
predicciones asociadas a los fenómenos en cuestión teniendo en cuenta
la aleatoriedad de las observaciones. Se usa para modelar patrones en los datos y extraer
inferencias acerca de la población bajo estudio. Estas inferencias pueden tomar la forma
de respuestas a preguntas sí/no (prueba de hipótesis), estimaciones de unas
características numéricas (estimación), pronósticos de futuras observaciones,
descripciones de asociación (correlación) o modelamiento de relaciones
entre variables (análisis de regresión). Otras técnicas de modelamiento incluyen análisis
de varianza, series de tiempo y minería de datos. Su objetivo es obtener conclusiones
útiles para lograr hacer deducciones acerca de la totalidad de todas las observaciones
hechas, basándose en la información numérica.
Ambas ramas (descriptiva e inferencial) se utilizan en la estadística aplicada. La estadística
inferencial, por su parte, se divide en estadística paramétrica y estadística no paramétrica.
Existe también una disciplina llamada estadística matemática que establece las bases teóricas
de las técnicas estadísticas. La palabra «estadísticas» se refiere al resumen de resultados
estadísticos, habitualmente descriptivos, como en estadísticas económicas, estadísticas
criminales, etcétera.

MEDIDAS DE DISPERSION

En estadística, las medidas de dispersión (también


llamadas variabilidad, dispersión o propagación) es el grado en que una distribución se
estira o se comprime.1 Ejemplos comunes de medidas de dispersión estadística son
la varianza, la desviación estándar y el rango intercuartil.
Las medidas de dispersión se contrastan con la ubicación o la tendencia central, y juntas son
las propiedades más utilizadas de las distribuciones.

Medidas[editar]
Una medida de dispersión estadística es un número real no negativo que es cero si todos los
datos son iguales y aumenta a medida que los datos se vuelven más diversos.
La mayoría de las medidas de dispersión tienen las mismas unidades que la cantidad que se
mide. En otras palabras, si las medidas están en metros o segundos, también lo es la medida
de dispersión. Los ejemplos de medidas de dispersión incluyen:

 Desviación Estándar
 Rango intercuartil (IQR)
 Rango
 Diferencia absoluta media (también conocida como diferencia absoluta media de Gini)
 Mediana desviación absoluta (MDA)
 Desviación media absoluta (o simplemente llamada desviación media)
 Desviación estándar de distancia
Estos se usan con frecuencia (junto con factores de escala) como estimadores de parámetros
de escala, en cuya capacidad se denominan estimaciones de escala. Las medidas de escala
robustas no se ven afectadas por un pequeño número de valores atípicos, e incluyen el IQR y
el MAD.
Todas las medidas anteriores de dispersión estadística tienen la propiedad útil de que son
invariantes de ubicación y de escala lineal. Esto significa que si una variable aleatoria X tiene
una dispersión de SX, entonces una transformación lineal Y = aX + b para real a y b debería
tener una dispersión SY = | a | SX, donde | a | es el valor absoluto de a, es decir, ignora un
signo negativo anterior -.
Otras medidas de dispersión son adimensionales. En otras palabras, no tienen unidades,
incluso si la variable en sí tiene unidades. Éstos incluyen:

 Coeficiente de variación
 Coeficiente de dispersión cuartil
 Diferencia media relativa, igual al doble del Coeficiente de Gini
 Entropía: mientras que la entropía de una variable discreta es invariante de ubicación e
independiente de la escala, y por lo tanto no es una medida de dispersión en el sentido
anterior, la entropía de una variable continua es invariante de ubicación y escala aditiva: si
Hz es la entropía de variable continua z e y = ax + b, luego Hy = Hx + log (a).
Existen otras medidas de dispersión:

 Varianza (el cuadrado de la desviación estándar): invariante de ubicación pero no lineal en


escala.
 Relación de varianza a media: se utiliza principalmente para los datos de conteo cuando
se usa el término coeficiente de dispersión y cuando esta relación no tiene dimensiones,
ya que los datos de conteo son adimensionales, de lo contrario.
Algunas medidas de dispersión tienen fines especializados, entre ellos la varianza de Allan y
la varianza de Hadamard.
Para las variables categóricas, es menos común medir la dispersión por un solo número; ver
variación cualitativa. Una medida que lo hace es la entropía discreta.

Fuentes[editar]
En las ciencias físicas, dicha variabilidad puede ser el resultado de errores de medición
aleatorios: las mediciones de instrumentos a menudo no son perfectamente precisas, es decir,
reproducibles, y existe una variabilidad adicional entre los evaluadores al interpretar e informar
los resultados medidos. Se puede suponer que la cantidad que se está midiendo es estable y
que la variación entre las mediciones se debe a un error de observación. Un sistema de un
gran número de partículas se caracteriza por los valores medios de un número relativamente
pequeño de cantidades macroscópicas, como la temperatura, la energía y la densidad. La
desviación estándar es una medida importante en la teoría de la fluctuación, que explica
muchos fenómenos físicos, incluido por qué el cielo es azul.2
En las ciencias biológicas, la cantidad que se mide rara vez es inmutable y estable, y la
variación observada también puede ser intrínseca al fenómeno: puede deberse a la
variabilidad interindividual, es decir, miembros distintos de una población que difieren entre sí.
Además, puede deberse a la variabilidad intraindividual, es decir, un mismo sujeto que
difiere en las pruebas tomadas en diferentes momentos o en otras condiciones diferentes.
Tales tipos de variabilidad también se ven en el campo de los productos manufacturados;
incluso allí, el científico meticuloso encuentra variación.
En economía, finanzas y otras disciplinas, el análisis de regresión intenta explicar la dispersión
de una variable dependiente, generalmente medida por su varianza, utilizando una o más
variables independientes, cada una de las cuales tiene dispersión positiva. La fracción de
varianza explicada se llama coeficiente de determinación.

Un orden parcial de dispersión[editar]


Una extensión de preservación de la media (MPS) es un cambio de una distribución de
probabilidad A a otra distribución de probabilidad B, donde B se forma al extender una o más
porciones de la función de densidad de probabilidad de A mientras se deja la media (el valor
esperado) sin cambios.3 El concepto de una distribución de preservación de la media
proporciona un ordenamiento parcial de las distribuciones de probabilidad de acuerdo con sus
dispersiones: de dos distribuciones de probabilidad, una puede clasificarse como que tiene
más dispersión que la otra, o alternativamente ninguna puede clasificarse como que tiene más
dispersión.

¿Qué es la probabilidad?
El término probabilidad proviene de lo probable, o sea, de aquello que es más
posible que ocurra, y se entiende como el mayor o menor grado de posibilidad
de que un evento aleatorio ocurra, expresado en una cifra entre 1 (posibilidad
total) y 0 (imposibilidad absoluta), o bien en porcentajes entre el 100% o el 0%,
respectivamente.

Para obtener la probabilidad de un suceso, generalmente se determina


la frecuencia con la que ocurre (en experimentos aleatorios bajo condiciones
estables), y se procede a realizar cálculos teóricos.

Para ello se sigue lo establecido por la Teoría de la probabilidad, una rama de


las matemáticas dedicada al estudio de la probabilidad. Esta disciplina es
largamente empleada por otras ciencias
naturales y sociales como disciplina auxiliar, ya que les permite manejar
escenarios posibles en base a generalizaciones.

El origen de la probabilidad reside en la necesidad del ser humano de


anticiparse a los hechos, y de predecir en cierta medida el futuro. Así, en su
empeño por percibir patrones y conexiones en la realidad, se enfrentó
constantemente al azar, o sea, a lo que carece de orden.

Las primeras consideraciones formales sobre esta materia provienen del siglo
XVII, específicamente de la correspondencia entre Pierre de Fermat y Blaise
Pascal en 1654, o de los estudios de Christiaan Huygens en 1657 y de
la Kybeia de Juan Caramuel en 1649, texto hoy en día perdido.
Aplicaciones de la probabilidad
El cálculo de la probabilidad tiene numerosas aplicaciones en la vida cotidiana,
como son:

 El análisis de riesgo empresarial. Según el cual se estiman las posibilidades de


caída de precio de las acciones bursátiles, y se intenta predecir la conveniencia o no
de la inversión en una u otra empresa.
 El análisis estadístico de la conducta. De importancia para la sociología, emplea la
probabilidad para evaluar la posible conducta de la población, y así predecir
tendencias de pensamiento o de opinión. Es común verlo en las campañas
electorales.
 La determinación de garantías y seguros. Procesos en los que se evalúa la
probabilidad de avería de los productos o la fiabilidad de un servicio (o de un
asegurado, por ejemplo), para así saber cuánto tiempo de garantía conviene ofrecer, o
a quiénes conviene asegurar y por cuánto.
 En la ubicación de partículas subatómicas. Según el Principio de Incertidumbre de
Heisenberg, el cual establece que no podemos saber dónde está una partícula
subatómica en un momento determinado y al mismo tiempo a qué velocidad se
mueve, de modo que los cálculos en la materia se realizan normalmente en términos
probabilísticos: existe X por ciento de probabilidades de que la partícula esté allí.
 En la investigación biomédica. Se calculan porcentajes de éxito y de fracaso de las
drogas médicas o de las vacunas, para así saber si son fiables o no, y si conviene o
no producirlas en masa, o a qué porcentaje de la población podrán causarle
determinados efectos secundarios.

También podría gustarte