Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La Estadística Es Una Ciencia Que Estudia La Recolección
La Estadística Es Una Ciencia Que Estudia La Recolección
Profesora: Integrantes:
Definición
La estadística es una ciencia que estudia la recolección, análisis e interpretación de datos,
ya sea para ayudar en la toma de decisiones o para explicar condiciones regulares o
irregulares de algún fenómeno o estudio aplicado, de ocurrencia en forma aleatoria o
condicional. Sin embargo estadística es más que eso, en otras palabras es el vehículo que
permite llevar a cabo el proceso relacionado con la investigación científica.
Es transversal a una amplia variedad de disciplinas, desde la física hasta las ciencias
sociales, desde las ciencias de la salud hasta el control de calidad. Se usa para la toma de
decisiones en áreas de negocios o instituciones gubernamentales.
Las técnicas iníciales del análisis de varianza fueron desarrolladas por el estadístico
y genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces conocido como
"análisis de varianza de Fisher", debido al uso de la distribución F de Fisher como
parte del contraste de hipótesis.
Origen
El término alemán statistik, que fue primeramente introducido por Gottfried Achenwall
(1749), designaba originalmente el análisis de datos del Estado, es decir, la "ciencia del
Estado" (también llamada aritmética política de su traducción directa del inglés). No fue
hasta el siglo XIX cuando el término estadística adquirió el significado de recolectar y
clasificar datos. Este concepto fue introducido por el inglés John Sinclair.
En su origen, por tanto, la Estadística estuvo asociada a los Estados, para ser utilizados por
el gobierno y cuerpos administrativos (a menudo centralizados). La colección de datos
acerca de estados y localidades continúa ampliamente a través de los servicios de
estadísticas nacionales e internacionales. En particular, los censos suministran información
regular acerca de la población.
Orígenes en probabilidad
Los métodos estadístico-matemáticos emergieron desde la teoría de probabilidad, la cual
data desde la correspondencia entre Pascal y Pierre de Fermat (1654). Christian Huygens
(1657) da el primer tratamiento científico que se conoce a la materia. El Ars coniectandi
(póstumo, 1713) de Jakob Bernoulli y la Doctrina de posibilidades (1718) de Abraham de
Moivre estudiaron la materia como una rama de las matemáticas.1 En la era moderna, el
trabajo de Kolmogórov ha sido un pilar en la formulación del modelo fundamental de la
Teoría de Probabilidades, el cual es usado a través de la estadística.
Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la
combinación de observaciones desde los principios de la teoría de probabilidades. Laplace
representó la ley de probabilidades de errores mediante una curva y dedujo una fórmula
para la media de tres observaciones. También, en 1871, obtiene la fórmula para la ley de
facilidad del error (término introducido por Lagrange, 1744) pero con ecuaciones
inmanejables. Daniel Bernoulli (1778) introduce el principio del máximo producto de las
probabilidades de un sistema de errores concurrentes.
El método de mínimos cuadrados, el cual fue usado para minimizar los errores en
mediciones, fue publicado independientemente por Adrien-Marie Legendre (1805),
Robert Adrain (1808), y Carl Friedrich Gauss (1809). Gauss había usado el método en su
famosa predicción de la localización del planeta enano Ceres en 1801. Pruebas adicionales
fueron escritas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen
(1837), Friedrich Bessel (1838), W.F. Donkin (1844, 1856), John Herschel (1850) y Morgan
Crofton (1870). Otros contribuidores fueron Ellis (1844), Augustus De Morgan (1864),
Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters para r, el probable
error de una observación simple es bien conocido.
El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard
Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion y Karl Pearson.
Augustus De Morgan y George Boole mejoraron la presentación de la teoría. Adolphe
Quetelet (1796-1874), fue otro importante fundador de la estadística y quien introdujo la
noción del «hombre promedio» (l’homme moyen) como un medio de entender los
fenómenos sociales complejos tales como tasas de criminalidad, tasas de matrimonio o
tasas de suicidios.
Durante el siglo XX, la creación de instrumentos precisos para asuntos de salud pública
(epidemiología, bioestadística, etc.) y propósitos económicos y sociales (tasa de
desempleo, econometría, etc.) necesitó de avances sustanciales en las prácticas
estadísticas.
Hoy el uso de la estadística se ha extendido más allá de sus orígenes como un servicio al
Estado o al gobierno. Personas y organizaciones usan la estadística para entender datos y
tomar decisiones en ciencias naturales y sociales, medicina, negocios y otras áreas. La
estadística es entendida generalmente no como un sub-área de las matemáticas sino
como una ciencia diferente «aliada». Muchas universidades tienen departamentos
académicos de matemáticas y estadística separadamente. La estadística se enseña en
departamentos tan diversos como psicología, educación y salud pública.
Estado Actual.
Al aplicar la estadística a un problema científico, industrial o social, se comienza con un
proceso o población a ser estudiado. Esta puede ser la población de un país, de granos
cristalizados en una roca o de bienes manufacturados por una fábrica en particular
durante un periodo dado. También podría ser un proceso observado en varios instantes y
los datos recogidos de esta manera constituyen una serie de tiempo.
Por razones prácticas, en lugar de compilar datos de una población entera, usualmente se
estudia un subconjunto seleccionado de la población, llamado muestra. Datos acerca de la
muestra son recogidos de manera observacional o experimental. Los datos son entonces
analizados estadísticamente lo cual sigue dos propósitos: descripción e inferencia.
El uso de cualquier método estadístico es válido solo cuando el sistema o población bajo
consideración satisface los supuestos matemáticos del método. El mal uso de la
estadística puede producir serios errores en la descripción e interpretación, afectando las
políticas sociales, la práctica médica y la calidad de estructuras tales como puentes y
plantas de reacción nuclear.
Estadísticas de cómputo.
Es la interfaz entre las estadísticas y la informática Es el área de ciencias de la
computación (o computación científica) específicos de la ciencia matemática de las
estadísticas. "estadística computacional" Los términos y la "computación estadística» se
usan indistintamente, aunque Carlo Lauro (ex presidente de la Asociación Internacional de
Estadística e informática), propuso hacer una distinción, la definición de "cálculo
estadístico", como "la aplicación de la informática a las estadísticas ", y" las estadísticas de
cómputo "como" el objetivo en el diseño del algoritmo para la aplicación de métodos
estadísticos en los equipos, incluyendo los imposibles antes de la era de la informática
(por ejemplo, de arranque, la simulación), así como para hacer frente a los problemas
analíticamente intratables ".
Estos laboratorios demostraron ser los sitios más importantes para el avance de la
metodología estadística. Ellos ayudaron a que las ideas de Galton y de Pearson en las
herramientas de correlación prácticas que podrían ser utilizados para la investigación
científica. Se alentó a los investigadores a pensar en términos de grandes problemas con
conjuntos extensos de datos. Sin ellos, la metodología estadística moderna podría
fácilmente haber languidecido como una teoría interesante, útil para los problemas
pequeños, pero imposible de otra manera.
Los nombres asociados a estos primeros laboratorios son familiares a muy pocos - James
Glover, Davis HT, Brandt AE, Howard Tolley. Ellos publicaron muy poco e hicieron
pequeñas contribuciones a la teoría de las estadísticas o el desarrollo de las
computadoras. Sin embargo, estos investigadores Tuvieron una fe profunda que la
combinación de la tecnología informática y la estadística matemática cambiaría
radicalmente la ciencia. Estas herramientas siguen vigentes hoy en día, pero durante los
años 1920 y 1930, la combinación no sólo ayudó a establecer el campo de las estadísticas
en el continente americano, sino que también promueve la informática como una
herramienta importante para la investigación científica.
Computación Estadística
El análisis estadístico tiene dos objetivos, que son directamente conflictivos. El primero es
encontrar patrones en estática: dada la infinidad de variables que se pueden observar,
cómo se puede descubrir las relaciones y patrones que tienen sentido humano? El
segundo objetivo es la lucha contra apofenia, la tendencia humana a inventar patrones al
azar estática. Dado de que alguien ha encontrado un patrón en relación con un puñado de
variables, ¿cómo se puede comprobar que no es sólo el producto de un sorteo o una
imaginación hiperactiva?
Antes de las computadoras eran comunes, lo mejor que podía hacer era el análisis de los
métodos de varianza (ANOVA), que atribuye la variación a una causa potencial de algunos.
El primer hito de cómputo, en torno a la década de 1970, llegó cuando los equipos civiles
tenían el poder para invertir fácilmente las matrices, un proceso que es necesario para la
mayoría de los modelos lineales. Los modelos lineales como los mínimos cuadrados
ordinarios se convirtieron en dominante.
El segundo hito, hacia mediados de 1990, llegó al poder de cómputo de escritorio fue
suficiente para obtener fácilmente la información suficiente como locales de definir el
óptimo global de un complejo tal vez miles o millones de función de las evaluaciones de la
función. Las funciones que estos métodos pueden manejar son mucho más general que
los modelos lineales: ahora se puede escribir y optimizar modelos con millones de
interactuar agentes o funciones que consiste en la suma de un millar de sub-
distribuciones.
El resultado irónico de esta potencia de cálculo es que nos permite volver a los modelos
simples, como la distribución binomial. Pero en lugar de especificar un n fijo y p para toda
la población, cada observación podría tener un valor de n que es una función de la edad
del individuo, la raza, etcétera, y un valor de p que es una función distinta de la edad, raza,
etc.
Las computadoras de hoy son capaces de hacer cálculos cien veces más rápido que hace
una década, pero los conjuntos de datos que tienen procesar son mil veces más grande.
Como Huber (2000, p. 619) explica: "Grandes problemas de la vida real siempre requieren
una combinación de gestión de base de datos y análisis de datos. . . . Ni los sistemas de
gestión de bases de datos tradicionales, ni los paquetes estadísticos están a la altura. " La
solución es construir una tubería, que incluye tanto la gestión de bases de datos y las
secciones de análisis estadístico. La gran parte de la manipulación de datos está en saber
dónde lo largo de la tubería para colocar la operación de filtrado. La base de datos es el
lugar adecuado para filtrar los datos erróneos, se unen los datos de múltiples fuentes, y se
agregan datos en medios del grupo y los sumas.
Lenguajes de Programación para Realizar Análisis Estadísticos.
C es un lenguaje súper simple. Su sintaxis no tiene trucos especiales para los operadores
polimórficos, clases abstractas, herencia virtual, ámbito léxico, las expresiones lambda, o
arcanos como otros, lo que significa que tienen menos que aprender.
Estas características son ciertamente útiles en su lugar, pero sin ellos C ya demostrado ser
suficientes para escribir algunos programas impresionantes, al igual que en el S.O de Mac
y el S.O Linux y la mayoría de los paquetes de estadísticas mencionados anteriormente.
La simplicidad que permite a C que es uno de los idiomas más antiguos de programación
en de uso común hoy en día y la estabilidad trae sus propios beneficios. En primer lugar,
este razonablemente seguro de que usted será capaz de verificar y modificar el trabajo de
cinco o incluso diez años a partir de ahora. Desde que C fue escrito en 1972, los paquetes
tienen un sin número de cambios que han ido y venido, mientras que otros todavía están
ahí, pero han hecho tantos cambios en sintaxis que son efectivamente nuevos lenguajes.
De cualquier manera, aquellos que tratan de seguir las tendencias tienen en sus disco
duro decenas de scripts que no pueden correr más.
En segundo lugar, la gente ha tenido pocas décadas para escribir buenas bibliotecas y
librerías en que basarse. No es la sintaxis de un lenguaje que le permite fácilmente
manejar estructuras complejas y tareas, pero el vocabulario, que en el caso de C es
continuamente ampliado por las bibliotecas de nuevas funciones.
Alternativamente, si usted necesita más precisión, puede utilizar C de bajo nivel de bits
haciendo girar para derivar los elementos individuales de datos. No hay nada más
embarazoso que un presentador que responde a una pregunta sobre una anomalía en los
datos o análisis con "Stata no tenía una función para corregir eso." [Sí, he oído esto de la
vida real presentación a cargo de un investigador de verdad.] Pero ya que las mayores
librerías del lenguaje C y nivel inferior son igualmente accesibles, se puede trabajar a nivel
de la pereza o la precisión se pide en cualquier situación.
Estadística computacional en Venezuela.
CeCalCULA nació como un proyecto ULA – FONACIT y fue desarrollado por el Parque
Tecnológico de Mérida (CPTM). Su estructura permite la afiliación de institutos, centros,
grupos de I&D e investigadores independientes de Venezuela.
SAS.
SAS una vez estuvo de "sistema de análisis estadístico", y comenzó en la Universidad
Estatal de Carolina del Norte como un proyecto para analizar la investigación agrícola.
Como la demanda de software creció, SAS fue fundada en 1976 para ayudar a todo tipo de
clientes - desde las compañías farmacéuticas y los bancos a las entidades académicas y
gubernamentales.
Desarrollo de software, fue de vital importancia para los miembros de la Universidad del
Sur Estaciones de Estadísticos del experimento, un consorcio de ocho universidades de
concesión de tierras que recibieron la mayoría de sus fondos de investigación del USDA.
Las escuelas se unieron bajo una beca de los Institutos Nacionales de Salud (NIH) para
desarrollar un paquete de software estadístico de propósito general para analizar todos
los datos agrícolas que estaban generando.
En 1976 los equipos llenos de habitaciones del tamaño de casas pequeñas, y los
programas y los datos se almacenan en tarjetas perforadas. Base SAS, compuesta por
cerca de 300.000 líneas de código, se producen alrededor de 150 cajas de cartas - una pila
de más de 40 metros de altura. Poner fin a fin, las cajas de las tarjetas se extendería más
de 180 pies.
El crecimiento de SAS en la próxima década fue fenomenal: la revista Inc. llamado SAS una
de las compañías de más rápido crecimiento en Estados Unidos durante cinco años
consecutivos.
SAS también amplió sus límites geográficos, la apertura de nuevas oficinas en cuatro
continentes y sus primeras oficinas en EE.UU. de ventas regionales. A finales de la década,
SAS había cerca de 1.500 empleados en todo el mundo.
Durante la década de 1990, SAS crecer su fuerza de trabajo a más de 7.000 personas en
todo el mundo, con los empleados en todos los continentes, en todas las ciudades
importantes de EE.UU. y en las capitales del comercio internacional en todo el planeta.
SPSS.
IBM SPSS ofrece grandes capacidades de análisis, flexibilidad y facilidad de uso que no
están disponibles en software estadístico tradicional. Con décadas de experiencia
incorporada y la innovación, IBM SPSS es el número uno mundial de elección para el
análisis estadístico fiable. Beneficios para el analista de negocios o analítica profesionales.
Que ofrecemos
Recopilación de datos
No se conforme con lo que usted piensa que usted sabe acerca de las actitudes de
las personas, las preferencias y opiniones.
Estadísticas
Descubre lo que más de 250.000 clientes saben: con nuestra familia estadísticas,
como IBM SPSS Statistics, usted puede confiar en los resultados y decisiones.
Modelador
PASW Modeler le permite descubrir relaciones ocultas en tanto estructurados
como no estructurados (texto) de datos - y anticipar los resultados de las
interacciones futuras.
Implementación
Orientar las decisiones todos los días con el análisis predictivo es la clave del éxito.
Integrar el poder de análisis en el ADN de su negocio con la familia de PASW
implementación.
Mathematica:
Prácticamente toda corriente de trabajo implica el cómputo de resultados y eso es lo que
hace Mathematica —desde construir un sitio de transacciones para un fondo de cobertura
o publicar manuales de texto de ingeniería interactivos a desarrollar algoritmos de
reconocimiento de imágenes insertadas en otra o enseñar cálculo.
Mathematica es reconocido como la mejor aplicación para computación del mundo. Pero
es mucho más: es la única plataforma de desarrollo que integra cómputos plenamente en
corrientes de trabajo completas, haciendo que usted pase directamente de ideas iniciales
a implementación de soluciones individuales o a nivel de empresa.