Está en la página 1de 5

HISTORIA DE LA ESTADÍSTICA

Se puede afirmar que la Historia de la estadística comienza alrededor de 1750, aunque con el tiempo, ha habido
cambios en la interpretación de la palabra "estadística". En un principio, el significado estaba restringido a la
información acerca de los estados. Este fue extendido posteriormente para incluir toda colección de información de
cualquier tipo, y más tarde fue extendido para incluir el análisis e interpretación de los datos. En términos modernos,
"estadística" significa tanto conjuntos de información recopilada, por ejemplo registros de temperatura, contabilidad
nacional, como trabajo analítico que requiera inferencia estadística.

Introducción

En el siglo XVIII, el término "estadística" designaba la colección sistemática de datos demográficos y económicos por los
estados. A principios del siglo XIX, el significado de "estadística" fue ampliado para incluir la disciplina ocupada de
recolectar, resumir y analizar los datos. Hoy la estadística es ampliamente usada en el gobierno, los negocios y todas las
ciencias. Las computadoras electrónicas han acelerado la estadística computacional y ha permitido a los estadísticos el
desarrollo de métodos que usan recursos informáticos intensivamente.
El término "estadística matemática" designa las teorías matemáticas de la probabilidad e inferencia estadística, las
cuales son usadas en la estadística aplicada. La relación entre estadística y probabilidades se fue desarrollando con el
tiempo. En el siglo XIX, las estadísticas usaron de forma gradual la teoría de probabilidades, cuyos resultados iniciales
fueron encontrados en los siglos XVII y XVIII, particularmente en el análisis de los juegos de azar (apuestas). Para 1800, la
astronomía usaba modelos probabilísticos y teorías estadísticas, particularmente el método de los mínimos cuadrados,
el cual fue inventado por Legendre y Gauss. La incipiente teoría de las probabilidades y estadísticas fue sistematizada y
extendida por Laplace; después de este, las probabilidades y estadísticas han experimentado un continuo desarrollo. En
el siglo XIX, el razonamiento estadístico y los modelos probabilísticos fueron usados por las ciencias sociales para el
avance las nuevas ciencias de psicología experimental y sociología, y por las ciencias físicas en termodinámica y
mecánica estadística. El desarrollo del razonamiento estadístico estuvo fuertemente relacionado con el desarrollo de la
lógica inductiva y el método científico.
La estadística puede ser considerada no como una rama de las matemáticas, sino como una ciencia matemática
autónoma, como las ciencias de la computación y la investigación de operaciones. A diferencia de las matemáticas, la
estadística tuvo sus orígenes en la administración pública. Fue usada en la demografía y la economía. Con el énfasis en el
aprendizaje de los datos y en la elaboración de las predicciones más acertadas, la estadística se ha solapado con la teoría
de la decisión y la microeconomía. Con el enfoque de los datos, la estadística se ha solapado con la ciencia de la
información y las ciencias de la computación.
Etimología
El término «estadística», en última instancia, deriva la palabra del neolatín statisticum collegium (consejo de estado) y la
palabra italiana statista (‘hombre de estado’ o político). La palabra alemana statistik, introducida primeramente por
Godofredo Achenwall (1749), originalmente designaba el análisis de datos acerca del estado, significando la ‘ciencia del
estado’ (llamado posteriormente «aritmética política» en idioma inglés). A principios del siglo XIX, adquirió el significado
de colección y clasificación de datos. El término fue introducido en Inglaterra en 1792 por sir John Sinclair cuando
publicó el primero de los 21 volúmenes titulados Statistical account of Scotland.1
De esta forma, el propósito original principal de la statistik eran los datos usados por el gobierno y los cuerpos
administrativos (a menudo centralizados). La colección de datos acerca de estados y localidades continúa, en mayor
parte a través de servicios estadísticos nacionales e internacionales. En particular, los censos proveen frecuentemente
información actualizada acerca de la población.
El primer libro en tener ‘estadísticas’ en su título fue “Contributions to Vital Statistics” por Francis GP Neison, registrado
a la Medical Invalid and General Life Office (1 era edición 1845, 2nda ed. 1846, 3.ª ed. 1857).[cita requerida]
Orígenes en probabilidades
El uso de los métodos estadísticos se remonta al menos al siglo V a. C. El historiador Tucídides en su Historia de la Guerra
del Peloponeso2 describe como los atenienses calculaban la altura de la muralla de Platea, contando el número de
ladrillos de una sección expuesta de la muralla que estuviera lo suficientemente cerca como para contarlos. El conteo
era repetido varias veces por diferentes soldados. El valor más frecuente (la moda en términos más modernos) era
tomado como el valor del número de ladrillos más probable. Multiplicando este valor por la altura de los ladrillos usados
en la muralla les permitía a los atenienses determinar la altura de las escaleras necesarias para trepar las murallas.
En el poema épico indio Majabhárata (libro 3: la historia del rey Nala), el rey Ritupama estimaba el número de frutas y
hojas (2095 frutas y 50,00,000 hojas (5 crores)) en dos grandes hojas de un árbol Vibhitaka contándolos en un solo
vástago. Este número era luego multiplicado por el número de vástagos en las ramas. Este estimado fue posteriormente
verificado y se halló que estaba muy cerca del número verdadero. Con el conocimiento de este método Nala pudo
subsecuentemente reconquistar su reino.
El primer escrito de estadística fue encontrado en un libro del siglo IX titulado Manuscrito sobre el descifrado de
mensajes criptográficos, escrito por Al-Kindi (801-873). En su libro, Al-Kindi da una descripción detallada sobre el uso de
las estadísticas y análisis de frecuencias en el descifrado de mensajes, este fue el nacimiento tanto de la estadística
como del criptoanálisis.34
La Prueba del Pyx es una prueba de pureza de la moneda del Royal Mint, que ha sido llevada a cabo regularmente desde
el siglo XII. La prueba en sí misma está basada en métodos de muestreo estadístico. Después de acuñar una serie de
monedas ―originalmente de 10 libras de plata― una moneda singular era colocada en el Pyx (una caja en la Abadía de
Westminster). Después de un tiempo ―ahora una vez al año― las monedas son retiradas y pesadas. Luego, una muestra
de monedas retiradas de la caja es probada por pureza.
La Nuova Crónica, una historia de Florencia del siglo XIV escrita por el banquero florentino y oficial Giovanni Villani,
incluye mucha información estadística.sobre la población, ordenanzas, comercio, educación y edificaciones religiosas, y
ha sido descrito como la primera introducción de la estadística como elemento positivo en la historia,5 aunque ni el
término ni el concepto de la estadística como campo específico existía aún. Esto se demostró que era incorrecto después
del hallazgo del libro de Al-Kindi sobre análisis de frecuencias.34
Aunque era un concepto conocido por los griegos, la media aritmética no fue generalizada a más de dos valores hasta el
siglo 16. La invención del sistema decimal por Simon Stevin en 1585 parece haber facilitado estos cálculos. Este método
fue adoptado por primera vez en astronomía por Tycho Brahe, el que intentaba reducir errores en sus estimados de las
localizaciones de varios cuerpos celestiales.
La idea de la mediana se originó en el libro de navegación de Edward Wright (Certaine errors in navigation) en 1599 en
una sección concerniente a la determinación de una localización con un compás. Wright sintió que este valor era el que
más probablemente estuviera correcto en una serie de observaciones.
John Graunt en su libro Natural and Political Observations Made upon the Bills of Mortality, estimó la población de
Londres en 1662 a través de registros parroquiales. Él sabía que había cerca de 13,000 funerales al año en Londres y que
de cada once familias tres personas morían por año. El estimo de los registros parroquiales que el tamaño promedio de
las familias era 8 y calculó que la población de Londres era de cerca de 384,000. Laplace en 1802 estimó la población de
Francia con un método similar.
Los métodos matemáticos de la estadística surgieron de la teoría de probabilidades, la cual tiene sus raíces en la
correspondencia entre Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) proveyó el primer tratamiento
científico sobre el tema que se conozca hasta la fecha. El libro Ars Conjectandi de Jakob Bernoulli (póstumo 1713) y La
doctrina de las probabilidades (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. En su
libro, Bernoulli introdujo la idea de representar certeza completa como el número 1 y la probabilidad como un número
entre cero y uno.
Galileo luchó contra el problema de errores en las observaciones y había formulado ambiguamente el principio de que
los valores más probables de cantidades desconocidas serían aquellos que hicieran los errores en las ecuaciones
razonablemente pequeños. El estudio formal en teoría de errores puede ser originado en el libro de Roger Cotes (Opera
Miscellanea, póstumo 1750). Tobias Mayer, en su estudio de los movimientos de la Luna (Kosmographische Nachrichten,
Núremberg, 1750), inventó el primer método formal para estimar cantidades desconocidas generalizando el promedio
de las observaciones bajo circunstancias idénticas al promedio de los grupos de ecuaciones similares.
Un primer ejemplo de lo que posteriormente fue conocido como la curva normal fue estudiado por Abraham de Moivre,
quien trazó esta curva en noviembre 12, 1733.6 De Moivre estaba estudiando el número de caras que ocurrían cuando
una moneda “justa” era lanzada.
En sus memorias ―Un intento por mostrar la emergente ventaja de tomar la media de un número de observaciones en
astronomía práctica― preparada por Thomas Simpson en 1755 (impreso en 1756) aplicaba por primera vez la teoría a la
discusión de errores en observaciones. La reimpresión (1757) de sus memorias sostiene el axioma que errores positivos
y negativos son igualmente probables, y que hay ciertos valores límites dentro de los cuales todos los errores se
encuentran; los errores continuos son discutidos y se provee una curva de probabilidad. Simpson discutió varias posibles
distribuciones de error. Primero consideró la distribución uniforme y después la distribución triangular discreta
simétrica, seguida por la distribución triangular continua simétrica.
En 1802 Laplace estimó la población en Francia a 28,328,612.11 Él calculó este número usando la cantidad de
nacimientos del año anterior y el dato del censo de tres comunidades. Los datos de los censos de estas comunidades
mostraron que tenían 2,037,615 personas y que el número de nacimientos era de 71,866. Asumiendo que estas
muestras eran representativas de Francia, Laplace produjo un estimado para la población entera.

El método de los mínimos cuadrados, el cual era usado para minimizar errores en la medición de datos, fue publicado
independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich Gauss (1809).Gauss había
usado el método en s famosa predicción en 1801 de la localización del planeta enano Ceres. Las observaciones en las
que Gauss basó sus cálculos fueron hechas por el monje italiano Piazzi. Posteriormente se dieron demostraciones por
Laplace (1810, 1812), Gauss (1823), Ivory (1825, 1826), Hagen (1837), Bessel (1838), Donkin (1844, 1856), Herschel
(1850), Crofton (1870), y Thiele (1880, 1889).

Las primeras pruebas de la distribución normal fueron inventadas por el estadístico alemán Wilhelm Lexis en 1870. El
único conjunto de datos disponible para él, en que le era posible mostrar que estaba normalmente distribuido, era la
frecuencia de nacimientos.

Francis Galton estudió una variedad de características humanas ―altura, edad, peso, tamaño de las pestañas, entre
otras― y encontró que michos de estos factores podían ser ajustados a una distribución normal.15
Francis Galton en 1907 entregó un artículo a la revista Nature acerca de la utilidad de la mediana.16 El examinó la
precisión de 787 intentos de adivinar el peso de un buey en una feria de campo. El peso real era de 1208: la mediana de
todas las conjeturas fue 1198 libras. Las conjeturas fuern marcadamente no normales en su distribución.
El noruego Anders Nicolai Kiær introdujo el concepto de muestreo estratificado en 1895.17 Arthur Lyon Bowley
introdujo el muestreo aleatorio en 1906. [20] Jerzy Neyman en 1934 hizo evidente que el muestreo aleatorio
estratificado era en general un mejor método de estimación que el muestreo intencional (por cuota).18
El nivel de significación del 5 % parece ser introducido por Fisher en 1925.19 Fisher expresó que las desviaciones que
excedían dos veces la desviación estándar eran consideradas significativas. Previamente a esto las desviaciones que
excedían tres veces el error probable eran consideradas significativas. Para una distribución simétrica el error probable
la mitad del rango intercuantil. El cuantil superior de la distribución normal estándar está entre 0.66 y 0.67, su error
probable es aproximadamente 2/3 de la desviación estándar. Parece que el criterio de Fisher del 5% tenía sus raíces en
la práctica previa.

¿QUÉ ES LA ESTADÍSTICA DESCRIPTIVA?


La estadística emplea métodos descriptivos y de inferencia estadística. Los primeros se ocupan de la recolección,
organización, tabulación, presentación y reducción de la información.
En el caso de la estadística descriptiva se sustituye o reduce el conjunto de datos obtenidos por un pequeño número de
valores descriptivos, como pueden ser: el promedio, la mediana, la media geométrica, la varianza, la desviación típica,
etc. Estas medidas descriptivas pueden ayudar a brindar las principales propiedades de los datos observados, así como
las características clave de los fenómenos bajo investigación.
Por lo general, la información proporcionada por la estadística descriptiva puede ser trasmitida con facilidad y eficacia
mediante una variedad de herramientas gráficas, como pueden ser:
Gráficos de tendencia: es un trazo de una característica de interés sobre un periodo, para observar su comportamiento
en el tiempo.
Gráfico de dispersión: ayuda al análisis de la relación entre dos variables, representado gráficamente sobre el eje x y el
correspondiente valor de la otra sobre el eje y.
Histograma: describe la distribución de los valores de una característica de interés.
Estos métodos gráficos son de mucha utilidad para entender con claridad un fenómeno analizado. La evolución de la
inflación, el tipo de cambio, del PBI u otros indicadores macro pueden ser analizados, por ejemplo, con gráficos de
tendencia.
Así, la estadística descriptiva constituye un modo relativamente sencillo y eficiente para resumir y caracterizar datos.
También ofrece una manera conveniente de presentar la información recopilada.
Este método es potencialmente aplicable a todas las situaciones que involucran el uso de datos. Además de ayudar en el
análisis e interpretación de los datos, constituye una valiosa ayuda en el proceso de toma de decisiones.
Aplicaciones de la estadística descriptiva
La estadística descriptiva es aplicable en casi todas las áreas donde se recopilan datos cuantitativos. Puede brindar
información acerca de productos, procesos o diversos aspectos del sistema de gestión de la calidad, como también en el
ámbito de la dirección y organización de personas, la logística, etc. Algunos ejemplos de dichas aplicaciones son los
siguientes:
Resumen de las mediciones principales de las características de un producto.
Describir el comportamiento de algún parámetro del proceso, como puede ser la temperatura de un horno.
Caracterizar el tiempo de entrega o el tiempo de respuesta en el sector de los servicios.
Procesar datos relacionados con muestras a clientes, tales como la satisfacción o insatisfacción del cliente.
Ilustrar la medición de los datos, tales como los datos de calibración del equipo.
Visualizar el resultado del desempeño de un producto en un periodo mediante un gráfico de tendencia.
5.RELACIÓN DE LA ESTADÍSTICA CON OTRAS CIENCIAS.

5. RELACIÓN DE LA ESTADÍSTICA CON OTRAS CIENCIAS.


Como bien es sabido, ninguna ciencia en particular es ajena a cada una de las demás ramas del conocimiento científico.
La estadística, por tanto forma parte de ese todo y a la vez se relaciona, apoyándose y/o aportando avances de y para
otras ciencias particulares. Sus vínculos más sobresalientes pueden apreciarse con mayor intensidad con:
Las matemáticas: porque utiliza la aritmética, el álgebra y la geometría como medios de expresión, ya sea para
sumarizar, calcular y relacionar datos, con el fin de extraer resultados numéricos que luego presenta a través de cuadros
y gráficas.
La lógica: porque el estadístico o investigador que utiliza la estadística necesita razonar (abstraer, comparar, analizar,
deducir, inferir, correlacionar, etc.) los datos y resultados sobre los fenómenos estudiados, para interpretar y sacar
conclusiones que generaliza a través de los razonamientos realizados.
La sociología: siendo que la mayoría de los fenómenos estudiados científicamente tienen necesariamente una
vinculación con el ser humano y estos a su vez en su mayoría conviven y se vinculan socialmente; la estadística no puede
dejar de considerar el fenómeno social como parte esencial del análisis de sus relaciones.
La psicología: si bien el estudio del ser humano obedece a una relación social, tampoco puede alcanzar un conocimiento
colectivo o tendencia individual.
La economía: como ciencia social, la economía es un campo fértil para aplicar la estadística a todos y cada uno de los
fenómenos que tienen que ver con la producción (costos, materias primas, capital, tecnología, trabajos, salarios,
métodos y sistemas), la distribución (medios o canales, localización, empaque y embalaje, transporte, ubicación
geográfica, capacidad, etc.) y el consumo, (hábitos y motivos de compra y consumo, promoción, publicidad, marketing,
medidas de satisfacción, etc.)
La administración: es necesaria para planificar, programar, integrar, dirigir, coordinar, ejecutar, controlar, evaluar y
retroalimentar o reorientar los procesos y proyectos estadísticos, con el fin de pronosticar eventos y resultados futuros,
con eficacia y eficiencia. La administración interviene en la planificación de los estudios, en la programación de las
actividades a realizar (actividad, lugar, tiempo y personal), en la integración y organización (de los recursos: personas o
cosas, capital, tecnología, métodos y sistemas), en la dirección y coordinación de los mismos; y, en el control,
evaluación, retroalimentación u orientación.
La educación: es obvio que la educación aprovecha la estadística para mejorar sus métodos de enseñanza en todos los
campos del conocimiento; y a la vez, provee de herramientas útiles que permiten avanzar en el desarrollo y
mejoramiento de la ciencia estadística.
La informática (computación): si bien aun se discute sobre si esta especialidad es aún una técnica o una ciencia, es
importante señalar que esta provee la tecnología, programas y procesos muy avanzados, lógicos y útiles que permiten
lograr eficiencia y eficacia en el uso, manipulación y administración de altos volúmenes de información y datos.
SIMBOLO ESTADISTICA
Generalmente al observar operaciones o procesos estadísticos podría dar la impresión de que nos encontramos leyendo
el alfabeto griego, y en realidad muchos de los símbolos estadísticos son, en efecto griegos. Cada símbolo (letra) significa
un proceso en particular y es por esto que se deben conocer para poder efectuar un análisis de datos eficiente.
Las letras griegas generalmente se usan para denotar parámetros desconocidos, un parámetro estimado generalmente
se denota al colocar un cursor sobre el símbolo correspondiente, lo que se conoce como “theta sombrero”. Algunos
símbolos estadísticos básicos utilizados comúnmente son:
• : La media muestral, que se refiere a la muestra media o media empírica así como a la covarianza de la muestra con las
estadísticas que se calculan con base en una colección de datos en una o más variables de tipo aleatorio. Se refiere a
cada uno de los valores que se observan en las variables.
• S2: Se refiere a la varianza simple.
• r: Simboliza la simple correlación de coeficientes.
• kr: Simboliza el cúmulo de las muestras.
Los símbolos utilizados con mayor frecuencia para referirse a los parámetros de población son:
• μ: Se refiere a la población como tal.
• σ2: Simboliza la varianza de la población.
• ρ: Simboliza la correlación de la población
• κr: Simboliza los cúmulos de población.
• n: Simboliza el número de elementos en una distribución de la muestra.
• α: La letra griega alpha simboliza la intercepción o un error de tipo I.
• β: La letra griega beta simboliza vertiente o un error de tipo II.
• σ: La letra griega sigma simboliza la desviación estándar de la población.
• s: La letra s significa la desviación estándar de la muestra.
• s2: La letra s al cuadrado simboliza la varianza de la muestra.
Otro conjunto de símbolos estadísticos usados con mayor frecuencia son:
• C: Simboliza la distribución, y también es conocida como la distribución para una variable independiente:
• U: Se refiere a la distribución que no es lo mismo que y también es conocida como variable dependiente.
• SC: Simboliza todos los elementos (generalmente números) en una distribución.
• N: Simboliza el número de elementos una distribución poblacional.
LA FRECUENCIA
Es una magnitud que mide el número de repeticiones por unidad de tiempo de cualquier fenómeno o suceso periódico.
Para calcular la frecuencia de un suceso, se contabilizan un número de ocurrencias de éste, teniendo en cuenta un
intervalo temporal, y luego estas repeticiones se dividen por el tiempo transcurrido. Según el Sistema Internacional (SI),
la frecuencia se mide en hercios (Hz), en honor a Heinrich Rudolf Hertz. Un hercio es la frecuencia de un suceso o
fenómeno repetido por segundo. Así, un fenómeno con una frecuencia de dos hercios se repite dos veces por segundo.
Esta unidad se llamó originalmente «ciclo por segundo» (cps).
Otras unidades para indicar frecuencias son revoluciones por minuto (rpm o r/min según la notación del SI); las
pulsaciones del corazón se miden en latidos por minuto (lat/min) y el tempo musical se mide en «pulsos por minuto»
(bpm, del inglés “beats per minute”).

DEFINICIÓN DE
INTERVALO
Intervalo procede del latín intervallum y menciona la distancia o el espacio que hay de un lugar a otro o de un tiempo a
otro. Por ejemplo: “Entre ambas reuniones, tengo un intervalo de dos horas que puedo aprovechar para ir a visitar al tío
Ramón”, “Voy a ver la agenda del doctor a ver si tiene algún intervalo para atenderte”, “En esta ruta hay una estación de
servicio en un intervalo de cada cincuenta kilómetros”, “Los animales suelen aparecer en intervalos de pocos metros
En el ámbito de la música, intervalo es la diferencia de altura entre los sonidos de dos notas. El intervalo musical puede
medirse en grados o en tonos y expresarse en una proporción aritmética simple.
Existen diversos tipos de intervalos musicales: tonales, modales, aumentados, disminuidos, simples, compuestos,
armónicos, melódicos o complementarios, entre otros. Cada tipo depende de características propias de los sonidos en
cuestión.
Por un lado se encuentran los intervalos tonales, los cuales pueden tener sólo un valor justo: primera (también conocido
con el nombre de unísono), cuarta, quinta y octava. Los modales, en cambio, pueden ser mayores o menores, y son los
restantes: segunda, tercera, sexta y séptima. En ambos casos, los intervalos se pueden aumentar y disminuir (por
ejemplo: tomando la cuarta de DO natural a FA natural, al aumentarla llegaría a FA sostenido).
Otra clasificación separa los intervalos en simples (aquellos que no se extienden por más de una octava) y compuestos
(los que sí la superan). Cabe mencionar que los intervalos compuestos presentan las mismas propiedades que los
simples correspondientes si se les resta una octava; por ejemplo, dado que una décima es una tercera a la octava, se
considera tonal y puede ser mayor o menor, mientras que una duodécima supera la octava por una quinta, por lo cual
debe tratarse como un intervalo tonal.
Con respecto a la interpretación de un intervalo, a su ejecución en un instrumento, se considera melódico cuando las
notas que lo componen se tocan por separado, en forma sucesiva, y armónico si deben sonar al mismo tiempo. El primer
tipo se aprecia claramente en un arpegio y el segundo, en un acorde en el cual todos los sonidos se producen
simultáneamente.
Por último, se conoce como intervalos complementarios a aquéllos que forman una octava al combinarse, como ocurre
con una tercera y una sexta; es importante resaltar que a simple vista la suma da nueve, porque el primer grado de la
sexta es el último de la tercera, lo cual nos da una nota “duplicada” (una tercera de DO a MI más una sexta de MI a DO).
Un intervalo también puede ser un conjunto de valores adoptados por una magnitud entre dos límites. En este sentido,
puede hablarse de intervalo de frecuencias o intervalo de temperaturas.
En el teatro, intervalo es un periodo de tiempo muerto en medio del desarrollo de una obra. Estos lapsos suelen
aparecer en las obras de duración muy extensa, para que los espectadores puedan aprovechar el descanso e ir al baño,
comprar alguna golosina, etc.: “Espero que el intervalo llegue pronto: tengo mucha sed y quiero comprar un refresco”,
“La intensidad de la obra cae tras el intervalo”, “Me aburrí durante el intervalo, que se extendió por más de media
hora”.
Los intervalos de una obra teatral también sirven para asimilar la historia, para reflexionar acerca de las experiencias
vividas en el o los últimos actos e intentar anticiparse a lo que vendrá. Para muchas personas, estas pausas benefician el
impacto de las funciones, ya que las renuevan al comienzo de cada acto, generando en el público una serie de
sensaciones que los mantienen inmersos en la ficción.