Está en la página 1de 18

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Educación Superior


IUT RC. Dr. Federico Rivero Palacio
3er Trayecto – I Trimestre
Estadistica
PNF en Informática
Turno: Nocturno

Aplicación de la Estadística en el Campo de la


Informática.

Profesora: Integrantes:

Edilia Roberto, Tortolero Sanz 16.590.854


Carranza

Caracas, mayo de 2011

Definición
La estadística es una ciencia que estudia la recolección, análisis e interpretación de datos,
ya sea para ayudar en la toma de decisiones o para explicar condiciones regulares o
irregulares de algún fenómeno o estudio aplicado, de ocurrencia en forma aleatoria o
condicional. Sin embargo estadística es más que eso, en otras palabras es el vehículo que
permite llevar a cabo el proceso relacionado con la investigación científica.

Es transversal a una amplia variedad de disciplinas, desde la física hasta las ciencias
sociales, desde las ciencias de la salud hasta el control de calidad. Se usa para la toma de
decisiones en áreas de negocios o instituciones gubernamentales.

La estadística se divide en dos grandes áreas:

La estadística descriptiva, se dedica a los métodos de recolección, descripción,


visualización y resumen de datos originados a partir de los fenómenos de estudio. Los
datos pueden ser resumidos numérica o gráficamente. Ejemplos básicos de parámetros
estadísticos son: la media y la desviación estándar. Algunos ejemplos gráficos son:
histograma, pirámide poblacional, clústers, entre otros.

La estadística inferencial, se dedica a la generación de los modelos, inferencias y


predicciones asociadas a los fenómenos en cuestión teniendo en cuenta la aleatoriedad
de las observaciones. Se usa para modelar patrones en los datos y extraer inferencias
acerca de la población bajo estudio. Estas inferencias pueden tomar la forma de
respuestas a preguntas si/no (prueba de hipótesis), estimaciones de características
numéricas (estimación), pronósticos de futuras observaciones, descripciones de
asociación (correlación) o modelamiento de relaciones entre variables (análisis de
regresión). Otras técnicas de modelamiento incluyen:

 Análisis de la varianza: es una colección de modelos estadísticos y sus


procedimientos asociados, en el cual la varianza está particionada en ciertos
componentes debidos a diferentes variables explicativas.

Las técnicas iníciales del análisis de varianza fueron desarrolladas por el estadístico
y genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces conocido como
"análisis de varianza de Fisher", debido al uso de la distribución F de Fisher como
parte del contraste de hipótesis.

 Series de tiempo: es una secuencia de datos, observaciones o valores, medidos en


determinados momentos del tiempo, ordenados cronológicamente y,
normalmente, espaciados entre sí de manera uniforme. El análisis de series
temporales comprende métodos que ayudan a interpretar este tipo de datos,
extrayendo información representativa, tanto referente a los orígenes o relaciones
subyacentes como a la posibilidad de extrapolar y predecir su comportamiento
futuro.
De hecho uno de los usos más habituales de las series de datos temporales es su
análisis para predicción y pronóstico. Por ejemplo de los datos climáticos, de las
acciones de bolsa, o las series pluviométricas. Resulta difícil imaginar una rama de
las ciencias en la que no aparezcan datos que puedan ser considerados como
series temporales. Son estudiadas en estadística, procesamiento de señales,
econometría y muchas otras áreas.

 Minería de datos: consiste en la extracción no trivial de información que reside de


manera implícita en los datos. Dicha información era previamente desconocida y
podrá resultar útil para algún proceso. En otras palabras, la minería de datos
prepara, sondea y explora los datos para sacar la información oculta en ellos.
Bajo el nombre de minería de datos se engloba todo un conjunto de técnicas
encaminadas a la extracción de conocimiento procesable, implícito en las bases de
datos. Está fuertemente ligado con la supervisión de procesos industriales ya que
resulta muy útil para aprovechar los datos almacenados en las bases de datos.
Las bases de la minería de datos se encuentran en la inteligencia artificial y en el
análisis estadístico. Mediante los modelos extraídos utilizando técnicas de minería
de datos se aborda la solución a problemas de predicción, clasificación y
segmentación.
Ambas ramas (descriptiva e inferencial) comprenden la estadística aplicada. Hay
también una disciplina llamada estadística matemática, a la que se refiere a las
bases teóricas de la materia. La palabra «estadísticas» también se refiere al
resultado de aplicar un algoritmo estadístico a un conjunto de datos, como en
estadísticas económicas, estadísticas criminales, entre otros.

Origen
El término alemán statistik, que fue primeramente introducido por Gottfried Achenwall
(1749), designaba originalmente el análisis de datos del Estado, es decir, la "ciencia del
Estado" (también llamada aritmética política de su traducción directa del inglés). No fue
hasta el siglo XIX cuando el término estadística adquirió el significado de recolectar y
clasificar datos. Este concepto fue introducido por el inglés John Sinclair.

En su origen, por tanto, la Estadística estuvo asociada a los Estados, para ser utilizados por
el gobierno y cuerpos administrativos (a menudo centralizados). La colección de datos
acerca de estados y localidades continúa ampliamente a través de los servicios de
estadísticas nacionales e internacionales. En particular, los censos suministran información
regular acerca de la población.

Ya se utilizaban representaciones gráficas y otras medidas en pieles, rocas, palos de


madera y paredes de cuevas para controlar el número de personas, animales o ciertas
mercancías. Hacia el año 3000 a. C. los babilonios usaban ya pequeños envases moldeados
de arcilla para recopilar datos sobre la producción agrícola y de los géneros vendidos o
cambiados. Los egipcios analizaban los datos de la población y la renta del país mucho
antes de construir las pirámides en el siglo XI a. C. Los libros bíblicos de Números y
Crónicas incluyen en algunas partes trabajos de estadística. El primero contiene dos
censos de la población de Israel y el segundo describe el bienestar material de las diversas
tribus judías. En China existían registros numéricos similares con anterioridad al año 2000
a. C. Los antiguos griegos realizaban censos cuya información se utilizaba hacia el 594 a. C.
para cobrar impuestos.

Orígenes en probabilidad
Los métodos estadístico-matemáticos emergieron desde la teoría de probabilidad, la cual
data desde la correspondencia entre Pascal y Pierre de Fermat (1654). Christian Huygens
(1657) da el primer tratamiento científico que se conoce a la materia. El Ars coniectandi
(póstumo, 1713) de Jakob Bernoulli y la Doctrina de posibilidades (1718) de Abraham de
Moivre estudiaron la materia como una rama de las matemáticas.1 En la era moderna, el
trabajo de Kolmogórov ha sido un pilar en la formulación del modelo fundamental de la
Teoría de Probabilidades, el cual es usado a través de la estadística.

La teoría de errores se puede remontar a la Ópera miscelánea (póstuma, 1722) de Roger


Cotes y al trabajo preparado por Thomas Simpson en 1755 (impreso en 1756) el cual
aplica por primera vez la teoría de la discusión de errores de observación. La reimpresión
(1757) de este trabajo incluye el axioma de que errores positivos y negativos son
igualmente probables y que hay unos ciertos límites asignables dentro de los cuales se
encuentran todos los errores; se describen errores continuos y una curva de probabilidad.

Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la
combinación de observaciones desde los principios de la teoría de probabilidades. Laplace
representó la ley de probabilidades de errores mediante una curva y dedujo una fórmula
para la media de tres observaciones. También, en 1871, obtiene la fórmula para la ley de
facilidad del error (término introducido por Lagrange, 1744) pero con ecuaciones
inmanejables. Daniel Bernoulli (1778) introduce el principio del máximo producto de las
probabilidades de un sistema de errores concurrentes.

El método de mínimos cuadrados, el cual fue usado para minimizar los errores en
mediciones, fue publicado independientemente por Adrien-Marie Legendre (1805),
Robert Adrain (1808), y Carl Friedrich Gauss (1809). Gauss había usado el método en su
famosa predicción de la localización del planeta enano Ceres en 1801. Pruebas adicionales
fueron escritas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen
(1837), Friedrich Bessel (1838), W.F. Donkin (1844, 1856), John Herschel (1850) y Morgan
Crofton (1870). Otros contribuidores fueron Ellis (1844), Augustus De Morgan (1864),
Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters para r, el probable
error de una observación simple es bien conocido.

El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard
Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion y Karl Pearson.
Augustus De Morgan y George Boole mejoraron la presentación de la teoría. Adolphe
Quetelet (1796-1874), fue otro importante fundador de la estadística y quien introdujo la
noción del «hombre promedio» (l’homme moyen) como un medio de entender los
fenómenos sociales complejos tales como tasas de criminalidad, tasas de matrimonio o
tasas de suicidios.

Durante el siglo XX, la creación de instrumentos precisos para asuntos de salud pública
(epidemiología, bioestadística, etc.) y propósitos económicos y sociales (tasa de
desempleo, econometría, etc.) necesitó de avances sustanciales en las prácticas
estadísticas.

Hoy el uso de la estadística se ha extendido más allá de sus orígenes como un servicio al
Estado o al gobierno. Personas y organizaciones usan la estadística para entender datos y
tomar decisiones en ciencias naturales y sociales, medicina, negocios y otras áreas. La
estadística es entendida generalmente no como un sub-área de las matemáticas sino
como una ciencia diferente «aliada». Muchas universidades tienen departamentos
académicos de matemáticas y estadística separadamente. La estadística se enseña en
departamentos tan diversos como psicología, educación y salud pública.

Estado Actual.
Al aplicar la estadística a un problema científico, industrial o social, se comienza con un
proceso o población a ser estudiado. Esta puede ser la población de un país, de granos
cristalizados en una roca o de bienes manufacturados por una fábrica en particular
durante un periodo dado. También podría ser un proceso observado en varios instantes y
los datos recogidos de esta manera constituyen una serie de tiempo.

Por razones prácticas, en lugar de compilar datos de una población entera, usualmente se
estudia un subconjunto seleccionado de la población, llamado muestra. Datos acerca de la
muestra son recogidos de manera observacional o experimental. Los datos son entonces
analizados estadísticamente lo cual sigue dos propósitos: descripción e inferencia.

El concepto de correlación es particularmente valioso. Análisis estadísticos de un conjunto


de datos puede revelar que dos variables (esto es, dos propiedades de la población bajo
consideración) tienden a variar conjuntamente, como si hubiera una conexión entre ellas.
Por ejemplo, un estudio del ingreso anual y la edad de muerte podría resultar en que
personas pobres tienden a tener vidas más cortas que personas de mayor ingreso. Las dos
variables se dicen que están correlacionadas. Sin embargo, no se puede inferir
inmediatamente la existencia de una relación de causalidad entre las dos variables. El
fenómeno correlacionado podría ser la causa de una tercera, previamente no
considerada, llamada variable confusora.

Si la muestra es representativa de la población, inferencias y conclusiones hechas en la


muestra pueden ser extendidas a la población completa. Un problema mayor es el de
determinar que tan representativa es la muestra extraída. La estadística ofrece medidas
para estimar y corregir por aleatoriedad en la muestra y en el proceso de recolección de
los datos, así como métodos para diseñar experimentos robustos como primera medida,
ver diseño experimental.

El concepto matemático fundamental empleado para entender la aleatoriedad es el de


probabilidad. La estadística matemática (también llamada teoría estadística) es la rama de
las matemáticas aplicadas que usa la teoría de probabilidades y el análisis matemático
para examinar las bases teóricas de la estadística.

El uso de cualquier método estadístico es válido solo cuando el sistema o población bajo
consideración satisface los supuestos matemáticos del método. El mal uso de la
estadística puede producir serios errores en la descripción e interpretación, afectando las
políticas sociales, la práctica médica y la calidad de estructuras tales como puentes y
plantas de reacción nuclear.

Incluso cuando la estadística es correctamente aplicada, los resultados pueden ser


difícilmente interpretados por un inexperto. Por ejemplo, el significado estadístico de una
tendencia en los datos, que mide el grado al cual la tendencia puede ser causada por una
variación aleatoria en la muestra, puede no estar de acuerdo con el sentido intuitivo. El
conjunto de habilidades estadísticas básicas (y el escepticismo) que una persona necesita
para manejar información en el día a día se refiere como «cultura estadística».

Estadísticas de cómputo.
Es la interfaz entre las estadísticas y la informática Es el área de ciencias de la
computación (o computación científica) específicos de la ciencia matemática de las
estadísticas. "estadística computacional" Los términos y la "computación estadística» se
usan indistintamente, aunque Carlo Lauro (ex presidente de la Asociación Internacional de
Estadística e informática), propuso hacer una distinción, la definición de "cálculo
estadístico", como "la aplicación de la informática a las estadísticas ", y" las estadísticas de
cómputo "como" el objetivo en el diseño del algoritmo para la aplicación de métodos
estadísticos en los equipos, incluyendo los imposibles antes de la era de la informática
(por ejemplo, de arranque, la simulación), así como para hacer frente a los problemas
analíticamente intratables ".

El rápido y sostenido incremento en el poder de cálculo de la computación desde la


segunda mitad del siglo XX ha tenido un sustancial impacto en la práctica de la ciencia
estadística. Viejos modelos estadísticos fueron casi siempre de la clase de los modelos
lineales. Ahora, complejos computadores junto con apropiados algoritmos numéricos, han
causado un renacer del interés en modelos no lineales (especialmente redes neuronales y
árboles de decisión) y la creación de nuevos tipos tales como modelos lineales
generalizados y modelos multinivel.
El incremento en el poder computacional también ha llevado al crecimiento en
popularidad de métodos intensivos computacionalmente basados en remuestreo, tales
como test de permutación y de bootstrap, mientras técnicas como el muestreo de Gibbs
han hecho los métodos bayesianos más accesibles. La revolución en computadores tiene
implicaciones en el futuro de la estadística, con un nuevo énfasis en estadísticas
«experimentales» y «empíricas». Un gran número de paquetes estadísticos está ahora
disponible para los investigadores. Los sistemas dinámicos y teoría del caos, desde hace
una década, empezaron a interesar en la comunidad hispana, pues en la anglosajona de
Estados Unidos estaba ya establecida la «conducta caótica en sistemas dinámicos no
lineales» con 350 libros para 1997 y empezaban algunos trabajos en los campos de las
ciencias sociales y en aplicaciones de la física. También se estaba contemplando su uso en
analítica.

Los orígenes de la computación estadística


El interés en el cálculo estadístico no comenzó con la invención de la computadora
personal en la década de 1980 o incluso con el aumento de la computadora central grande
durante la década de 1960. De computación estadística se convirtió en un campo popular
para el estudio durante los años 1920 y 1930, como universidades y laboratorios de
investigación comenzó a adquirir los primeros tabuladores mecánicos de tarjetas
perforadas de IBM. Utilizaron estas máquinas no sólo para la tabulación y la informática
resumen estadístico, sino también para el montaje de modelos estadísticos más
complicados, tales como análisis de varianza y regresión lineal.

Estos laboratorios demostraron ser los sitios más importantes para el avance de la
metodología estadística. Ellos ayudaron a que las ideas de Galton y de Pearson en las
herramientas de correlación prácticas que podrían ser utilizados para la investigación
científica. Se alentó a los investigadores a pensar en términos de grandes problemas con
conjuntos extensos de datos. Sin ellos, la metodología estadística moderna podría
fácilmente haber languidecido como una teoría interesante, útil para los problemas
pequeños, pero imposible de otra manera.

Además de avanzar en los métodos estadísticos, estos laboratorios ayudaron a avanzar en


la informática científica en general. Muchos de estos laboratorios ofrecen sus servicios a
los físicos y astrónomos, así como a los biólogos y científicos sociales. Algunos crearon
tablas de funciones matemáticas superiores. Otros resolvieron complicadas ecuaciones
diferenciales. Algunos de estos laboratorios, sobre todo los de Iowa State University y la
Universidad de Columbia, se convirtió en bancos de prueba para los científicos los
primeros ordenadores, que experimentó con nuevas ideas para las máquinas de
computación y de algoritmos numéricos.

La mayoría de estos laboratorios eran pequeñas organizaciones ad hoc. Muchas no eran


más que un profesor creativo que se había preparado para utilizar las máquinas de
tabulación de la oficina de negocios de la universidad durante un turno de segunda o
tercera. El mayor de estos laboratorios eran instituciones sustanciales, financiados por
donaciones de particulares o fundaciones pequeñas. En la década de 1920, esos regalos
eran casi los únicos fondos de un investigador podría esperar encontrar. No hubo
Fundación Nacional de Ciencia, no Institutos Nacionales de Salud. No se concede la
instrumentación de las ciencias matemáticas. La infraestructura científica desarrollada por
Vanevar Bush, durante y después de la Segunda Guerra Mundial simplemente no existía.
La única fuente de dinero del gobierno para la investigación científica fue el Departamento
de Agricultura, una organización que resultó ser un gran apoyo de la investigación
empírica y que ayudó a establecer la mayor y más sofisticado de los laboratorios de
estadística, el Laboratorio de Estadística de la Iowa State University.

Los nombres asociados a estos primeros laboratorios son familiares a muy pocos - James
Glover, Davis HT, Brandt AE, Howard Tolley. Ellos publicaron muy poco e hicieron
pequeñas contribuciones a la teoría de las estadísticas o el desarrollo de las
computadoras. Sin embargo, estos investigadores Tuvieron una fe profunda que la
combinación de la tecnología informática y la estadística matemática cambiaría
radicalmente la ciencia. Estas herramientas siguen vigentes hoy en día, pero durante los
años 1920 y 1930, la combinación no sólo ayudó a establecer el campo de las estadísticas
en el continente americano, sino que también promueve la informática como una
herramienta importante para la investigación científica.

Computación Estadística
El análisis estadístico tiene dos objetivos, que son directamente conflictivos. El primero es
encontrar patrones en estática: dada la infinidad de variables que se pueden observar,
cómo se puede descubrir las relaciones y patrones que tienen sentido humano? El
segundo objetivo es la lucha contra apofenia, la tendencia humana a inventar patrones al
azar estática. Dado de que alguien ha encontrado un patrón en relación con un puñado de
variables, ¿cómo se puede comprobar que no es sólo el producto de un sorteo o una
imaginación hiperactiva?

O, considere la dicotomía complementaria del objetivo frente al subjetivo. El lado objetivo


a menudo se llama probabilidad, por ejemplo, dados los supuestos de la Teorema Central
del Límite, su conclusión es verdadera con certeza matemática. El lado subjetivo es
llamado a menudo estadística, por ejemplo, nuestra afirmación de que la cantidad
observada A es una función lineal de la cantidad observada B puede ser muy útil, pero la
naturaleza no tiene interés en eso.

Antes de las computadoras eran comunes, lo mejor que podía hacer era el análisis de los
métodos de varianza (ANOVA), que atribuye la variación a una causa potencial de algunos.

El primer hito de cómputo, en torno a la década de 1970, llegó cuando los equipos civiles
tenían el poder para invertir fácilmente las matrices, un proceso que es necesario para la
mayoría de los modelos lineales. Los modelos lineales como los mínimos cuadrados
ordinarios se convirtieron en dominante.

El segundo hito, hacia mediados de 1990, llegó al poder de cómputo de escritorio fue
suficiente para obtener fácilmente la información suficiente como locales de definir el
óptimo global de un complejo tal vez miles o millones de función de las evaluaciones de la
función. Las funciones que estos métodos pueden manejar son mucho más general que
los modelos lineales: ahora se puede escribir y optimizar modelos con millones de
interactuar agentes o funciones que consiste en la suma de un millar de sub-
distribuciones.
El resultado irónico de esta potencia de cálculo es que nos permite volver a los modelos
simples, como la distribución binomial. Pero en lugar de especificar un n fijo y p para toda
la población, cada observación podría tener un valor de n que es una función de la edad
del individuo, la raza, etcétera, y un valor de p que es una función distinta de la edad, raza,
etc.

Los modelos en la segunda parte se enumeran más o menos en orden de complejidad. El


infinitamente citables Albert Einstein informó, "Hacer todo lo más simple posible, pero no
más sencillo."

Un análisis estadístico es una serie de transformaciones guiada de los datos de su forma


cruda como se había escrito a un simple resumen sobre una cuestión de interés.

Las computadoras de hoy son capaces de hacer cálculos cien veces más rápido que hace
una década, pero los conjuntos de datos que tienen procesar son mil veces más grande.

Los genetistas rutinariamente dan 550.000 marcadores genéticos de cada uno de un


centenar de miles de pacientes. 1% de la muestra La Oficina del Censo de EE.UU. ocupa
casi 3 millones de personas. Por lo tanto, la siguiente capa de abstracción proporciona
herramientas especializadas para hacer frente a los conjuntos de datos: bases de datos y
un lenguaje de consulta para la organización de datos.

Como Huber (2000, p. 619) explica: "Grandes problemas de la vida real siempre requieren
una combinación de gestión de base de datos y análisis de datos. . . . Ni los sistemas de
gestión de bases de datos tradicionales, ni los paquetes estadísticos están a la altura. " La
solución es construir una tubería, que incluye tanto la gestión de bases de datos y las
secciones de análisis estadístico. La gran parte de la manipulación de datos está en saber
dónde lo largo de la tubería para colocar la operación de filtrado. La base de datos es el
lugar adecuado para filtrar los datos erróneos, se unen los datos de múltiples fuentes, y se
agregan datos en medios del grupo y los sumas.
Lenguajes de Programación para Realizar Análisis Estadísticos.

C es un lenguaje súper simple. Su sintaxis no tiene trucos especiales para los operadores
polimórficos, clases abstractas, herencia virtual, ámbito léxico, las expresiones lambda, o
arcanos como otros, lo que significa que tienen menos que aprender.

Estas características son ciertamente útiles en su lugar, pero sin ellos C ya demostrado ser
suficientes para escribir algunos programas impresionantes, al igual que en el S.O de Mac
y el S.O Linux y la mayoría de los paquetes de estadísticas mencionados anteriormente.

La simplicidad que permite a C que es uno de los idiomas más antiguos de programación
en de uso común hoy en día y la estabilidad trae sus propios beneficios. En primer lugar,
este razonablemente seguro de que usted será capaz de verificar y modificar el trabajo de
cinco o incluso diez años a partir de ahora. Desde que C fue escrito en 1972, los paquetes
tienen un sin número de cambios que han ido y venido, mientras que otros todavía están
ahí, pero han hecho tantos cambios en sintaxis que son efectivamente nuevos lenguajes.
De cualquier manera, aquellos que tratan de seguir las tendencias tienen en sus disco
duro decenas de scripts que no pueden correr más.

Mientras tanto, los programas correctamente escritos de C desde la década de 1970 se


compilaran y ejecutaran en nueva PC.

En segundo lugar, la gente ha tenido pocas décadas para escribir buenas bibliotecas y
librerías en que basarse. No es la sintaxis de un lenguaje que le permite fácilmente
manejar estructuras complejas y tareas, pero el vocabulario, que en el caso de C es
continuamente ampliado por las bibliotecas de nuevas funciones.

Alternativamente, si usted necesita más precisión, puede utilizar C de bajo nivel de bits
haciendo girar para derivar los elementos individuales de datos. No hay nada más
embarazoso que un presentador que responde a una pregunta sobre una anomalía en los
datos o análisis con "Stata no tenía una función para corregir eso." [Sí, he oído esto de la
vida real presentación a cargo de un investigador de verdad.] Pero ya que las mayores
librerías del lenguaje C y nivel inferior son igualmente accesibles, se puede trabajar a nivel
de la pereza o la precisión se pide en cualquier situación.
Estadística computacional en Venezuela.

El Centro Nacional de Cálculo Científico (CeCalCULA) es el primer centro de


supercomputación creado en Venezuela para proveer a la comunidad académica e
industrial herramientas y técnicas computacionales altamente competitivas.

CeCalCULA nació como un proyecto ULA – FONACIT y fue desarrollado por el Parque
Tecnológico de Mérida (CPTM). Su estructura permite la afiliación de institutos, centros,
grupos de I&D e investigadores independientes de Venezuela.

Actualmente, CeCalCULA está conformado por un equipo multidisciplinario que, desde


diversas áreas de interés, impulsa la vigilia en tecnologías de información, desarrolla
propuestas de adaptación, busca transferir experiencias en la aplicación de herramientas
para la academia y la industria, y sistematiza, por medio de la investigación, el curso de la
apropiación en diversos niveles.

Sus objetivos son:

 Promover en América Latina la apropiación de tecnologías de información por


parte de comunidades académicas y sectores productivos, estimulando prácticas
de colaboración y comunicación científica en un contexto de libre acceso al
conocimiento.
 Estimular comunidades virtuales en torno a proyectos y experiencias que soporten
el desarrollo del conocimiento en técnicas avanzadas de computación,
fomentando la organización de usuarios para compartir recursos computacionales.
 Sistematizar experiencias y reflexiones sobre la cultura organizativa en torno a las
adaptaciones y usos de nuevas tecnologías de información entre las comunidades
científicas de América Latina.
 Ofrecer soporte de cálculo científico a unidades de investigación, e investigadores
particulares con necesidades de capacidad de cómputo de alto rendimiento, así
como en el desarrollo de proyectos regionales inherentes a los objetivos del
Centro.
Sus metas son:

 Generamos investigación en computación avanzada, ciencias computacionales,


ingeniería computacional y comunicación científica digital.
 Desarrollamos y adaptamos tecnologías de información para optimizar la
producción y comunicación del conocimiento en Venezuela.
 Entrenamos a la comunidad científica para la adquisición destrezas en el manejo
de las herramientas y las técnicas asociadas al cómputo científico de alto
rendimiento.
 Desarrollamos proyectos interinstitucionales asociados con nuestras áreas de
interés.
 Generamos consultoría en organización para el manejo de herramientas
tecnológicas asociadas al cómputo científico, así como en el área de comunicación
científica.
 Ofrecemos soporte tecnológico para la comunidad científica en equipos y
software con altos estándares técnicos para la realización de cálculo científico y
desarrollo de proyectos asociados.
Herramientas para el Análisis Estadístico Computacional.

SAS.
SAS una vez estuvo de "sistema de análisis estadístico", y comenzó en la Universidad
Estatal de Carolina del Norte como un proyecto para analizar la investigación agrícola.
Como la demanda de software creció, SAS fue fundada en 1976 para ayudar a todo tipo de
clientes - desde las compañías farmacéuticas y los bancos a las entidades académicas y
gubernamentales.

SAS - el software y la empresa - prosperado a lo largo de las próximas décadas. Desarrollo


del software alcanzado nuevas alturas en la industria por ser capaz de ejecutar en todas
las plataformas, utilizando la arquitectura de múltiples proveedores para que se le conoce
hoy en día. Si bien el alcance de la empresa extendido por todo el mundo, fomentando la
cultura empresarial e innovadora sigue siendo la misma.

En 1966, no había SAS. Pero había una necesidad de un programa estadístico


computarizado para analizar grandes cantidades de datos recogidos a través de la
agricultura de los Estados Unidos Departamento de Agricultura (USDA) las subvenciones.

Desarrollo de software, fue de vital importancia para los miembros de la Universidad del
Sur Estaciones de Estadísticos del experimento, un consorcio de ocho universidades de
concesión de tierras que recibieron la mayoría de sus fondos de investigación del USDA.
Las escuelas se unieron bajo una beca de los Institutos Nacionales de Salud (NIH) para
desarrollar un paquete de software estadístico de propósito general para analizar todos
los datos agrícolas que estaban generando.

El programa resultante, el Sistema de Análisis Estadístico, SAS dio tanto en la base de su


nombre y sus principios corporativos.

En 1976 los equipos llenos de habitaciones del tamaño de casas pequeñas, y los
programas y los datos se almacenan en tarjetas perforadas. Base SAS, compuesta por
cerca de 300.000 líneas de código, se producen alrededor de 150 cajas de cartas - una pila
de más de 40 metros de altura. Poner fin a fin, las cajas de las tarjetas se extendería más
de 180 pies.
El crecimiento de SAS en la próxima década fue fenomenal: la revista Inc. llamado SAS una
de las compañías de más rápido crecimiento en Estados Unidos durante cinco años
consecutivos.

El campus de la nueva sede - enorme en comparación con la ubicación de Hillsborough


Street - creció de un edificio con oficinas para 50 empleados de 18 edificios, incluyendo un
centro de formación, publicaciones de almacén y taller de vídeo.

SAS también amplió sus límites geográficos, la apertura de nuevas oficinas en cuatro
continentes y sus primeras oficinas en EE.UU. de ventas regionales. A finales de la década,
SAS había cerca de 1.500 empleados en todo el mundo.

Durante la década de 1990, SAS crecer su fuerza de trabajo a más de 7.000 personas en
todo el mundo, con los empleados en todos los continentes, en todas las ciudades
importantes de EE.UU. y en las capitales del comercio internacional en todo el planeta.

SPSS.
IBM SPSS ofrece grandes capacidades de análisis, flexibilidad y facilidad de uso que no
están disponibles en software estadístico tradicional. Con décadas de experiencia
incorporada y la innovación, IBM SPSS es el número uno mundial de elección para el
análisis estadístico fiable. Beneficios para el analista de negocios o analítica profesionales.

SPSS encapsula su avanzada experiencia matemáticos y estadísticos para extraer el


conocimiento predictivo que cuando se implementa en los actuales procesos de
adaptación hace para mejorar los resultados.

Sus características son:

 Integración total con Microsoft ® Office


 La capacidad de analizar rápidamente grandes conjuntos de datos en tablas
dinámicas
 El acceso a un nuevo y mejorado editor de sintaxis, con la auto-realización, el
sangrado automático, código de colores y otras características para facilitar la
automatización de trabajos de análisis de producción
 El Visor de modelos interactivos
 Acceso a múltiples idiomas de interfaz para los equipos globales que pueden estar
trabajando en el mismo proyecto
 Soporte para hardware de 64 bits en el escritorio para Windows y Mac
 Apoyo a Snow Leopard ™ en Mac OS ® X 10.6
 Soporte para servidores IBM System z con Linux ®
 Los usuarios de Mac y Linux pueden conectar clientes a IBM SPSS Statistics Server
 Soporte para Python como "front-end" multiplataforma lenguaje de programación
y apoyo para los algoritmos de R
 Preparar rápidamente los datos en un solo paso con preparación automatizada de
datos
 Ver las pruebas de significación en la tabla de resultados principales
 Rápido rendimiento sobre los procedimientos de frecuencias, y Descriptivos Tablas
de contingencia
 Gestionar y analizar conjuntos de datos de negocios
 Crear personalizado, las interfaces definidas por el usuario para los procedimientos
existentes y los procedimientos definidos por el usuario
 procedimientos multiproceso que mejoran el rendimiento y la escalabilidad

Que ofrecemos

 Recopilación de datos
No se conforme con lo que usted piensa que usted sabe acerca de las actitudes de
las personas, las preferencias y opiniones.

 Estadísticas
Descubre lo que más de 250.000 clientes saben: con nuestra familia estadísticas,
como IBM SPSS Statistics, usted puede confiar en los resultados y decisiones.

 Modelador
PASW Modeler le permite descubrir relaciones ocultas en tanto estructurados
como no estructurados (texto) de datos - y anticipar los resultados de las
interacciones futuras.

 Implementación
Orientar las decisiones todos los días con el análisis predictivo es la clave del éxito.
Integrar el poder de análisis en el ADN de su negocio con la familia de PASW
implementación.
Mathematica:
Prácticamente toda corriente de trabajo implica el cómputo de resultados y eso es lo que
hace Mathematica —desde construir un sitio de transacciones para un fondo de cobertura
o publicar manuales de texto de ingeniería interactivos a desarrollar algoritmos de
reconocimiento de imágenes insertadas en otra o enseñar cálculo.

Mathematica es reconocido como la mejor aplicación para computación del mundo. Pero
es mucho más: es la única plataforma de desarrollo que integra cómputos plenamente en
corrientes de trabajo completas, haciendo que usted pase directamente de ideas iniciales
a implementación de soluciones individuales o a nivel de empresa.

Tire de sus datos o la nuestra, hacer un análisis estandarizado o personalizado y la


visualización, a continuación, generar e implementar informes interactivos, todo en un
sistema, con un flujo de trabajo integrado.

El Mathematica solución estadísticas incluye la optimización de gran alcance y


funcionalidad de las estadísticas junto con las capacidades únicas como la forma
lingüística-de entrada libre, la interactividad instantánea, y la fiabilidad de los métodos
numéricos de precisión y el análisis simbólico.

También podría gustarte