Está en la página 1de 9

INDICE

Los Números.....................................................................................................................................2
 Números Naturales (ℕ) :........................................................................................................2
 Números Enteros (ℤ):............................................................................................................3
 Números Racionales (ℚ)......................................................................................................5
 Números Reales (ℝ)..............................................................................................................6
Los Números
Los números son una parte fundamental de las matemáticas y la ciencia. Nos permiten
contar, medir y cuantificar el mundo que nos rodea. Existen diferentes tipos de números,
cada uno con sus propias propiedades y usos

Números Naturales (ℕ) :


en matemáticas, un número natural es cualquiera de los números que se usan
para contar los elementos de ciertos conjuntos.122 Los números naturales se
representan con la ℕ = {1, 2, 3, 4, …}.3 De dos números vecinos, el que se
encuentra a la derecha se llama siguiente o sucesivo,4 por lo que el conjunto de
los números naturales es ordenado e infinito.

El conjunto de todos los números naturales iguales o menores que cierto número
natural , es decir, el conjunto , se llama segmento de una sucesión natural y se
denota o bien .4

Convenios de notación
Puesto que los números naturales se utilizan para contar elementos —6 niños en
fila—, o numerarlos —el niño 6 de la fila—, el cero no es un número natural. Sin
embargo, se hizo necesario considerar el número que corresponde a la ausencia
de los mismos. Así, dependiendo del área de la ciencia, el conjunto de los
números naturales puede presentarse entonces de dos maneras distintas:

 Definición sin el cero:


N = {1, 2, 3, 4,... }

 Definición con el cero:


N = {0, 1, 2, 3, 4,... }
Históricamente, el uso del cero como numeral fue introducido en Europa en el
siglo XII. Esto no quiere decir que antes no se utilizara el número cero como
numeral, ya que con la invención del sistema de numeración Hindi, se incluyó el
número cero como numeral, que también se usaba en la numeración maya. Con el
tiempo, el sistema de numeración Hindi también fue usado por los árabes; de este
hecho viene que pasara de llamarse sistema de numeración Hindi a
denominarse sistema de numeración arábigo-índico. Con la conquista musulmana
de la península ibérica en el siglo XII, el sistema de numeración arábigo-índico
empezó a usarse en Europa y pasó a llamarse sistema de numeración arábigo-
índico occidental o sistema de numeración decimal, el cual incluye el cero como
numeral, pero aun así no se consideraba a este como un número natural.
Sin embargo, con el desarrollo de la teoría de conjuntos en el siglo XIX, el cero se
incluyó en las definiciones conjuntistas de los números naturales. Esta convención
prevalece en dicha disciplina,5 y en otras, como la teoría de la computación.6 En
particular, el estándar DIN 5473 adopta esta definición.6 Sin embargo, en la
actualidad ambos convenios conviven.7

Para distinguir ambas definiciones a veces se introducen símbolos distintos. Por


ejemplo, si no se incluye el cero en los naturales, al conjunto de los números
naturales sin el cero se les llama conjunto de los enteros positivos y se lo denota
como , , o .8

Por el contrario, cuando el 0 se considera un número natural (cosa que es


conveniente, por ejemplo, en divisibilidad y teoría de números), al conjunto de los
naturales con el cero se lo llama conjunto de los números cardinales y se lo
denota .

Números Enteros (ℤ):

Un número entero es un elemento del conjunto numérico que contiene


los números naturales; que son o ; dependiendo de cómo se definan, sus
opuestos, y en la segunda definición, además el cero. Los enteros negativos,
como −1 o −13 (se leen «menos uno», «menos trece», etc.), son menores que
cero y también son menores que todos los enteros positivos. Para resaltar la
diferencia entre positivos y negativos, se puede escribir un signo «menos» delante
de los negativos: -1, -5, etc. Y si no se escribe signo al número se asume que es
positivo.

El conjunto de todos los números enteros se representa por la letra letra inicial del
vocablo alemán Zahlen («números», pronunciado [ˈtsaːlən]).

En la recta numérica los números negativos se encuentran a la izquierda del cero


y los positivos a su derecha.

Los números enteros pueden sumarse, restarse, multiplicarse y dividirse,


siguiendo el modelo de los números naturales añadiendo unas normas para el uso
del signo.

Los números enteros extienden la utilidad de los números naturales para contar
cosas. Pueden utilizarse para contabilizar pérdidas: si en un colegio entran 80
alumnos nuevos de primer curso un cierto año, pero hay 100 alumnos de último
curso que pasaron a educación secundaria, en total habrá 100 − 80 = 20 alumnos
menos; pero también puede decirse que dicho número ha aumentado en 80 − 100
= −20 alumnos.
Ciertas magnitudes, como la temperatura o la altura, usan valores por debajo del
cero. La altura del Everest es 8848 metros por encima del nivel del mar, y por el
contrario, la orilla del mar Muerto está 423 metros por debajo del nivel del mar; es
decir, su altura se puede expresar como −423 m.

Historia
La palabra entero procede del latín integer que significa "entero" o (literalmente)
"intacto", de in ("no") más tangere ("tocar"). "Entire" deriva del mismo origen a
través de la palabra French entier, que significa tanto entero como entero.
Históricamente el término se utilizaba para un número que era múltiplo de 1, o a
la parte entera de un número mixto. Sólo se consideraban enteros positivos, lo que
convertía el término en sinónimo de número naturals. La definición de número
entero se amplió con el tiempo para incluir número negativos a medida que se
reconoció su utilidad. Por ejemplo Leonhard Euler en su 1765 Elementos de
Álgebra definió los números enteros para incluir tanto los números positivos como
los negativos. Sin embargo, los matemáticos europeos, en su mayor parte, se
resistieron al concepto de números negativos hasta mediados del siglo XIX.

El uso de la letra Z para denotar el conjunto de los números enteros proviene de la


palabra alemán Zahlen ("números") y se ha atribuido a David Hilbert. El uso más
antiguo conocido de la notación en un libro de texto se produce en Algébre escrito
por el colectivo Nicolas Bourbaki, que data de 1947. La notación no se adoptó
inmediatamente, por ejemplo otro libro de texto utilizaba la letra J y en un artículo
de 1960 se utilizó Z para designar los enteros no negativos. Pero en 1961, Z se
utilizaba generalmente en los textos modernos de álgebra para designar los
enteros positivos y negativos.

El símbolo es a menudo anotado para denotar varios conjuntos, con uso variable
entre diferentes autores: , o para los enteros positivos, o para los enteros no
negativos, y para los enteros distintos de cero. Algunos autores usan para
enteros no nulos, mientras que otros lo usan para enteros no negativos, o para -1,
1 (el grupo de unidades de ). Además, se utiliza para denotar ya sea el conjunto
de integros de módulo p (es decir, el conjunto de clases de congruencia de
enteros), o el conjunto de p-ádicos.1718

Los números enteros fueron sinónimos de los enteros hasta principios de la


década de 1950.192021 A finales de la década de 1950, como parte del
movimiento Matemática moderna,22 Los profesores de primaria estadounidenses
empezaron a enseñar que los "números enteros" se referían a los números
naturaless, excluyendo los números negativos, mientras que los "enteros" incluían
los números negativos.2324"Número entero" sigue siendo ambiguo en la
actualidad.25
Números Racionales (ℚ)
Los números racionales son todos los números que pueden representarse
como el cociente de dos números enteros o, más exactamente, un entero y
un natural positivo;1 es decir, una fracción común con numerador y
denominador distinto de cero. El término «racional» alude a una fracción o
parte de un todo. El conjunto de los números racionales se denota por Q (o
bien , en negrita de pizarra) que deriva de «cociente» (del latín Quotiens2
adaptado como 'cociente' a varios idiomas europeos). Este conjunto de
números incluye a los números enteros () y a los números fraccionarios y es
un subconjunto de los números reales ().
La escritura decimal de un número racional es, o bien un número
decimal finito, o bien semiperiódico. Esto es cierto no solo para números
escritos en base 10 (sistema decimal); también lo es en
base binaria, hexadecimal o cualquier otra base entera. Recíprocamente,
todo número que admite una expansión finita o periódica (en cualquier base
entera) es un número racional.
Un número real que no es racional se llama número irracional; la expresión
decimal de los números irracionales, a diferencia de los racionales, es
infinita aperiódica.3
En sentido estricto, número racional es el conjunto de todas las fracciones
equivalentes a una dada; de todas ellas, se toma como representante
canónico de dicho número racional a la fracción irreducible. Las fracciones
equivalentes entre sí –número racional– son una clase de equivalencia,
resultado de la aplicación de una relación de equivalencia sobre .

Historia
Los egipcios calculaban la resolución de problemas prácticos
utilizando fracciones cuyos denominadores son enteros positivos; son los
primeros números racionales utilizados para representar las «partes de un
entero», por medio del concepto de recíproco de un número entero.4
Los matemáticos de la antigua Grecia consideraban que dos magnitudes
eran conmensurables si era posible encontrar una tercera tal que las dos
primeras fueran múltiplos de la última, es decir, era posible encontrar
una unidad común para la que las dos magnitudes tuvieran una medida
entera. El principio pitagórico de que todo número es un cociente de
enteros, expresaba en esta forma que cualesquiera dos magnitudes deben
ser conmensurables, luego números racionales.5
Etimológicamente, el hecho de que estos números se llamen racionales
corresponde a que son la razón de dos números enteros, palabra cuya raíz
proviene del latín ratio,67 y esta a su vez del griego λόγος (razón), que es
como llamaban los matemáticos de la antigua Grecia a estos números.8 La
notación empleada para nombrar el conjunto de los números racionales
proviene de la palabra italiana quoziente, derivada del trabajo de Giuseppe
Peano en 1895.9
Aritmética de los números racionales

Véase también: Fracción § Aritmética con fracciones


Relaciones de equivalencia y orden[editar]
Inmersión de enteros[editar]
Cualquier entero n se puede expresar como el número racional n/1 debido a
eso se escribe frecuentemente (técnicamente, se dice que los racionales
contienen un subanillo isomorfo al anillo de los números enteros).

Números Reales (ℝ)


En matemáticas, el conjunto de los números reales (denotado por R o por
ℝ) incluye tanto los números racionales (positivos, negativos y el cero)
como los números irracionales;1 y en otro enfoque, a los trascendentes y a
los algebraicos. Los irracionales y los trascendentes2 no se pueden
expresar mediante una fracción de dos enteros con denominador no nulo;
tienen infinitas cifras decimales aperiódicas, tales como , π, o el número
real , cuya trascendencia fue enunciada por Euler en el siglo XVIII.2
Los números reales pueden ser descritos y construidos de varias formas,
algunas simples, aunque carentes del rigor necesario para los propósitos
formales de las matemáticas, y otras más complejas, pero con el rigor
necesario para el trabajo matemático formal.
Durante los siglos XVI y XVII, el cálculo avanzó mucho aunque carecía de
una base rigurosa, puesto que en aquel momento prescindían del rigor y
fundamento lógico, tan exigente en los enfoques teóricos de la actualidad, y
se usaban expresiones como «pequeño», «límite», «se acerca» sin una
definición precisa. Esto llevó a una serie de paradojas y problemas lógicos
que hicieron evidente la necesidad de crear una base rigurosa para la
matemática, que consistió en definiciones formales y rigurosas (aunque
ciertamente técnicas) del concepto de número real.3 En una sección
posterior se describirán dos de las definiciones precisas más usuales
actualmente: clases de equivalencia de sucesiones de Cauchy de números
racionales y cortes de Dedekind.
Historia
Los egipcios dieron origen por primera vez a las fracciones
comunes alrededor del año 1000 a. C.; alrededor del 500 a. C. un grupo de
matemáticos griegos liderados por Pitágoras se dio cuenta de la necesidad
de los números irracionales. Los números negativos fueron ideados por
matemáticos indios cerca del 600, posiblemente reinventados
en China poco después, pero no se utilizaron en Europa hasta el siglo XII, si
bien a finales del XVIII Leonhard Euler descartó las soluciones negativas de
las ecuaciones porque las consideraba irreales. En ese siglo, en
el cálculo se utilizaban números reales sin una definición precisa, cosa que
finalmente sucedió con la definición rigurosa hecha por Georg Cantor en
1871.
En realidad, el estudio riguroso de la construcción total de los números
reales exige tener amplios antecedentes de teoría de conjuntos y lógica
matemática. Fue lograda la construcción y sistematización de los números
reales en el siglo XIX por dos grandes matemáticos europeos utilizando vías
distintas: la teoría de conjuntos de Georg Cantor (encajamientos sucesivos,
cardinales finitos e infinitos), por un lado, y el análisis matemático
de Richard Dedekind (vecindades, entornos y cortaduras de Dedekind).
Ambos matemáticos lograron la sistematización de los números reales en la
historia, no de manera espontánea, sino utilizando todos los avances
previos en la materia: desde la antigua Grecia y pasando por matemáticos
como Descartes, Newton, Leibniz, Euler, Lagrange, Gauss, Riemann, Cauc
hy y Weierstrass.
Evolución del concepto de número
Se sabe que los egipcios y babilónicos hacían uso de fracciones (números
racionales) en la resolución de problemas prácticos. Sin embargo, fue con
el desarrollo de la matemática griega cuando se consideró el aspecto
filosófico de número. Los pitagóricos descubrieron que las relaciones
armónicas entre las notas musicales correspondían a cocientes de números
enteros,5 lo que les inspiró a buscar proporciones numéricas en todas las
demás cosas, y lo expresaron con la máxima «todo es número».
En la matemática griega, dos magnitudes son conmensurables si es posible
encontrar una tercera tal que las primeras dos sean múltiplos de la última,
es decir, es posible encontrar una unidad común para que las dos
magnitudes tengan una medida entera. El principio pitagórico de que todo
número es un cociente de enteros, expresaba en esta forma que
cualesquiera dos magnitudes deben ser conmensurables.
Sin embargo, el ambicioso proyecto pitagórico se tambaleó ante el
problema de medir la diagonal de un cuadrado o la hipotenusa de
un triángulo rectángulo, pues no es conmensurable respecto de los catetos.
En notación moderna, un triángulo rectángulo cuyos catetos miden 1, tiene
una hipotenusa que mide raíz cuadrada de dos, :
Si por hipótesis es un número racional y está reducido, entonces de
donde .
Si se supone que o tienen un dos en su descomposición entonces estaría
al cuadrado y por tanto sería una cantidad par en un lado de la igualdad
cuando al otro lado es impar.
Por tanto, la suposición que es un número racional debe ser falsa.
Surgió entonces una contradicción: de acuerdo con el principio pitagórico
todo número es racional, pero la hipotenusa de un triángulo rectángulo
isósceles no es conmensurable con los catetos. Ello implicó que en
adelante las magnitudes geométricas y las cantidades numéricas tendrían
que tratarse por separado, lo que tuvo consecuencias en el desarrollo de la
matemática durante los dos milenios siguientes.6
Los griegos desarrollaron una geometría basada en comparaciones
(proporciones) de segmentos sin hacer referencia a valores numéricos,
usando diversas teorías para manejar el caso de medidas
inconmensurables, como la teoría de proporciones de Eudoxo. Así, los
números irracionales permanecieron a partir de entonces excluidos de la
aritmética puesto que solo podían ser tratados mediante el método de
infinitas aproximaciones. Por ejemplo, los pitagóricos encontraron (en
notación moderna) que si a⁄b es una aproximación a √2 entonces p = a +
2b y q = a + b son tales que p⁄q es una aproximación más precisa.
Repitiendo el proceso nuevamente se obtienen mayores números que dan
una mejor aproximación.7Dado que las longitudes que expresan los
números irracionales podían ser obtenidas mediante procesos geométricos
sencillos pero, aritméticamente, solo mediante procesos de infinitas
aproximaciones, originó que durante 2000 años la teoría de los números
reales fuese esencialmente geométrica, identificando los números reales
con los puntos de una línea recta.
Nuevos avances en el concepto de número real esperaron hasta los siglos
XVI y XVII , con el desarrollo de la notación algebraica, lo que permitió la
manipulación y operación de cantidades sin hacer referencia a segmentos y
longitudes. Por ejemplo, se encontraron fórmulas para
resolver ecuaciones de segundo y tercer grado de forma mecánica
mediante algoritmos, los cuales incluían raíces e incluso, en ocasiones,
«números no reales» (lo que ahora conocemos como números complejos).
Sin embargo, no existía aún un concepto formal de número y se seguía
dando primacía a la geometría como fundamento de toda la matemática.
Incluso con el desarrollo de la geometría analítica este punto de vista se
mantenía vigente, pues Descartes rechazaba la idea que la geometría
pudiera fundamentarse en números, puesto que para él la nueva área era
simplemente una herramienta para resolver problemas geométricos.
Posteriormente, la invención del cálculo abrió un período de grandes
avances matemáticos, con nuevos y poderosos métodos que permitieron
por vez primera atacar los problemas relacionados con lo infinito mediante
el concepto de límite. Así, un número irracional pudo ser entendido como el
límite de una suma infinita de números racionales (por ejemplo, su
expansión decimal). Como muestra, el número π puede estudiarse de
forma algebraica (sin apelar a la intuición geométrica) mediante la serie:

También podría gustarte