Está en la página 1de 19

REPUBICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN


UNIVERSITARIA
UNIVERSIDAD EXPERIMENTAL DE LOS LLANOS CENTRALES
“RÓMULO GALLEGOS”
AULA MÓVIL CIUDAD OJEDA ESTADO ZULIA

Implicar los propósitos, fases, características,


componentes y condiciones de las etapas de
elaboración (Organización)  de la Información.

Elaborado por:
Stefani Lugo
Victor Colina
Marielys Landaeta
Mariana Colmenares
Raquel Rojas
SECCIÓN: “A”

CUIDAD OJEDA
INTRODUCCIÓN
Elaboración de la información es la etapa del método estadístico que permite
organizar, clasificar y presentar la información recopilada, procedimientos
indispensables para hacer el análisis
 Es una forma de repetición de la información que se va a recordar, se relaciona
con otra información y supone una codificación profunda, tiene mejores resultados
para la memoria a largo plazo y requiere más recursos.
La revisión y la corrección de la información recolectada deben ser
obligatoriamente el paso previo a la clasificación y la computación de los datos
que se realizan con vistas a su posterior resumen estadístico y presentación.
El análisis consiste en descomponer la información. El mismo requiere efectuar un
plan previo, es decir, un “plan de análisis” que, de manera general, consiste en
describir que tipo de tratamiento (cuantitativo y/o cualitativo) se le dará a la
información. La interpretación apunta a darle sentido, esto es, efectuar
eventualmente una recomposición teórica para luego redactar el informe final de la
investigación.
Hay que tener en cuenta que en cualquier estudio se cometen sesgos, nuestra
actitud ante ellos debe ser la de evitar aquellos que realmente pueden evitarse y
conocer los que son inevitables
Computación es la ciencia que se encarga de estudiar, valorar o ampliar los
equipos tecnológicos y digitales. Se encarga de estudiar, ampliar y entender los
procesos de las computadoras u ordenadores, aparte del funcionamiento de los
equipos periféricos que pueden trabajar con la misma, como son impresoras,
plotters, escáner, fax, etc

Margen de error se refiere a la cantidad de error de muestreo aleatorio resultado


de la elaboración de una encuesta. Es un término importante dentro de
la investigación de mercados ya que define el nivel de confianza de los resultados
obtenidos en la encuesta o investigación. A mayor margen de error existe un
menor grado de confianza en la investigación y viceversa.

Distribución de frecuencia Son tablas en que se dispone las modalidades de la


variable por filas. En las columnas se dispone el número de ocurrencias por cada
valor, porcentajes, etc. La finalidad de las agrupaciones en frecuencias es facilitar
la obtención de la información que contienen los datos.
Series cronológicas es una sucesión de datos medidos en determinados
momentos y ordenados cronológicamente. Los datos pueden estar espaciados a
intervalos iguales (como la temperatura en un observatorio meteorológico en días
sucesivos al mediodía) o desiguales (como el peso de una persona en sucesivas
mediciones en el consultorio médico, la farmacia, etc.). 
1. Define etapa de elaboración de la información
Etapa del método estadístico que permite organizar, clasificar y presentar la
información recopilada, procedimientos indispensables para hacer el análisis. Es
fundamentalmente de tipo descriptiva; se preocupa de la confiabilidad, validez y
significación de los datos, de las muestras, así como de los métodos y técnicas de
elaboración y análisis.
Estudia la situación del receptor para buscar la información y poder elaborar el
tema en el cual selecciona la información relevante con el que estructura el
contenido del mensaje siguiendo un orden cronológico o temático.
 Es una forma de repetición de la información que se va a recordar, se relaciona
con otra información y supone una codificación profunda, tiene mejores resultados
para la memoria a largo plazo y requiere más recursos.
2. Elabora en grupo un esquema de las diferentes fases de la etapa de la
elaboración de una información.

Fase de Se prepara el
Planificacion diseño y posterior
implementación
del sistema.
Se busca concretar una serie de
requisitos, que son los que
Fase de regirán el nuevo sistema o los
Analisis cambios a introducir en el
antiguo, si con el proyecto se
busca su actualización.
El equipo de proyecto
Fase de tendrá que determinar cómo
Diseño el nuevo sistema de
información cumplirá con los
requisitos aplicables.
Fase de Fase de
Desarrollo Integracion y
periodo de
pruebas
El desarrollo
software marca
un antes y un
después en la El objetivo de
vida del sistema esta etapa es
y significa, corroborar que el
además, el inicio diseño propuesto
de la producción cumple con los
requisitos de
negocio
establecidos. 
3. Conceptualizar fase de revisión y corrección de la información recogida. 
 Fase de revisión: Esta fase inicial da respuesta a tres intenciones
concretas: construir un marco teórico que permita contextualizar la
investigación desarrollada, tomar las decisiones en torno al diseño de
los instrumentos adecuados a los objetivos y problema planteados y
reflexionar en torno a la información obtenida con expertos del ámbito
de la enseñanza.  Los revisores proporcionan comentarios sobre sus
áreas asignadas del paquete de informes. Puede tratarse de todo el
paquete de informes o de un subjuego compuesto por secciones o
doclets específicos.

 Fase de corrección de la información recogida: Es cuando


verdaderamente pulimos el manuscrito y lo dejamos listo para leer.
Cuando revisamos la historia, tras un tiempo, empezamos a detectar los
errores, las incoherencias y los defectos que necesitan ser corregidos o
ser escritos otra vez. En esta fase el escritor es cuando necesita la
intervención de uno o más correctores que puedan ofrecer perspectiva,
sugerencias y correcciones acertadas. Un buen corrector jamás
cambiará el contenido de lo narrado, pero sí contribuirá a poner mejor
aquello que sea necesario.
4. Cual son las fases de clasificación y computación de los datos tomando
en cuenta los propósitos
Después de la recopilación de los datos, se procede a su organización,
clasificación y tabulación, de modo que se facilite la presentación en tablas,
cuadros o gráficos. Como tarea previa a la organización es indispensable
realizar una evaluación, critica, corrección y ajuste de los datos, el propósito es
superar las omisiones, inconsistencias y desechar las respuestas no
significativas o erróneas. . Téngase presente que la validez de sus resultados y
conclusiones dependen en gran medida de la fidelidad de los datos utilizados.
No existen computadoras que por sí, corrijan los errores de recopilación.
Realizadas las correcciones o ajustes, se procede a la clasificación o
establecimiento de categorías o intervalos, para la agrupación de los datos.
Finalmente se procede a la tabulación o procesamiento de los datos, de
acuerdo a un plan de tabulación previamente definido. Los cuadrados y tablas
estadísticas como primera fase de la reducción de datos, facilita el cálculo de
los indicadores (porcentaje, promedios, proporciones, índices, tasas, etc.) con
los cuales se inicia la descripción, análisis e interpretación de los datos,
variables e información estadística.
La revisión y la corrección de la información recolectada deben ser
obligatoriamente el paso previo a la clasificación y la computación de los datos
que se realizan con vistas a su posterior resumen estadístico y presentación.
Esta etapa comprende los siguientes pasos:
- La revisión y corrección de la información recolectada.
- La clasificación y computación de los datos.
- La presentación de la información.
Existen dos formas de organizar el fluir de los cuestionarios:
a) Los cuestionarios parten del archivo hacia el campo y luego siguen una
secuencia que implica su pasaje por diversas secciones de la Encuesta, en
cada una de las cuales se registra su recepción, se les realiza un tratamiento y
se los entrega a otra sección para cumplir con la etapa siguiente. Normalmente
el cuestionario pasa por las siguientes instancias: - impresión y numeración -
entrega a los encuestadores - realización de la encuesta y entrega al
supervisor - eventual vuelta a campo - eventual digitación en campo - entrega a
una unidad de recepción - entrega a la unidad de crítica y codificación - ingreso
de datos - validación - eventual reingreso de datos - entrega para el archivo -
en salvaguarda del secreto estadístico, destrucción de los cuestionarios
siguiendo cierta formalidad (molienda ante escribano público).
b) Los cuestionarios parten del archivo hacia el campo, y luego hacia otras
secciones de la Encuesta, pero una vez cumplida cada etapa vuelven al
archivo para que allí se registre la secuencia por la que van pasando, las
fechas de entrega y recepción, hasta el archivo definitivo y posterior
destrucción. En una planilla electrónica que lleva al efecto el encargado del
archivo se puede conocer en cualquier momento en qué lugar se encuentra
cada cuestionario y se pueden hacer estadísticas sobre el número de
cuestionarios que han cumplido con cierta etapa del proceso.
Programación para el ingreso de datos Es recomendable, para esta tarea, la
utilización de paquetes de computación que facilitan el ingreso masivo de
datos, el control de rangos, de consistencia y de la lógica del cuestionario. Si
se introduce un diccionario, la codificación de preguntas abiertas puede
realizarse en forma interactiva por parte del digitador que ingresa los datos.
Programación para la tabulación Esta tarea ha ido progresivamente pasando
de los especialistas en computación a los especialistas en estadística, para
recaer finalmente en los especialistas en materia (en la materia “mercado de
trabajo”, por ejemplo). El cruzamiento de variables y la elaboración de tablas
puede realizarse cada vez 35 más con paquetes amigables (SPSS para
windows, Excel con planillas dinámicas y el módulo de funciones estadísticas),
de manera que la tarea de la tabulación puede realizarla el especialista en la
materia de la Encuesta.
Crítica y codificación Esta tarea, tradicionalmente manual, puede realizarse
actualmente en forma automática o semi-automática utilizando la
programación. La crítica procura detectar (para luego depurar) los errores en
los datos provenientes de: - errores y omisiones de respuesta - errores de
registro por parte del Encuestador - errores de digitación (cuando la crítica es
posterior al ingreso de los datos). Los métodos utilizados más comúnmente
para detectar estos errores son: - control de rangos (de valores válidos) -
control de secuencias (secuencias lógicas) - relaciones de consistencia (si la
persona está casada, no puede tener 5 años).
Ingreso de datos El ingreso masivo de datos se realiza principalmente por
digitación, aunque en muchos casos se utiliza la lectura óptica (lectura de
marcas). Son excepcionales todavía los trabajos estadísticos en los que se
realiza lectura de imágenes (marcas, números preimpresos, números escritos
por el Encuestador, palabras escritas por el Encuestador). En este último caso
el computador lee imágenes (dibujos) y los compara con un diccionario de
números, palabras y hasta expresiones con pocas palabras (LA PALOMA,
PEON ALBAÑIL). Si reconoce las expresiones, las transforma en códigos
numéricos, para su posterior tabulación.
Concentración de la información Si el ingreso de datos se realiza en forma
descentralizada geográficamente, aún si se realiza en forma centralizada pero
sin un entorno de red, entonces cada digitador trabaja con un subconjunto de
la muestra. Es preciso pues reunir todos los cuestionarios ingresados en una
base de datos única, sin duplicaciones ni omisiones, como paso previo a la
depuración final.
5. Define etapa de análisis e interpretación de la información y sus
características
      En efecto, estas etapas van a permitir extraer conclusiones en función del
problema, las variables, la formulación de las hipótesis y el marco teórico
elaborado por el investigador. El análisis consiste en descomponer la información.
El mismo requiere efectuar un plan previo, es decir, un “plan de análisis” que, de
manera general, consiste en describir que tipo de tratamiento (cuantitativo y/o
cualitativo) se le dará a la información. La interpretación apunta a darle sentido,
esto es, efectuar eventualmente una recomposición teórica para luego redactar el
informe final de la investigación.

 Análisis: Es un proceso mediante el cual se definen necesidades del


estudio, se busca información, se validan las fuentes, se procesa la
información, se realiza el análisis, la integración y se presenta el
resultado. Consiste básicamente en dar respuesta a los objetivos o
hipótesis planteadas a partir de las mediciones efectuadas y los datos
resultantes. Para plantear el análisis es conveniente plantear un plan de
análisis o lo que se conoce como un plan de explotación de datos. En él
se suele detallar de manera flexible cómo vamos a proceder al
enfrentarnos a los datos, cuáles serán las principales líneas de análisis,
qué orden vamos a seguir, y qué tipo de pruebas o técnicas de análisis
aplicaremos sobre los datos. 

 La interpretación: Se refiere a la implementación de procesos a través


de los cuales se revisan los datos con el fin de llegar a una conclusión
informada y una etapa esencial de los datos. A diferencia del análisis,
tiene un componente más intelectual y una función explicativa. Su
misión es buscar un significado al resultado del análisis mediante su
relación con todo aquello que conocemos sobre el problema, de manera
que aportamos una significación sociológica a los hallazgos encontrados
en el análisis, confirmando, modificando o realizando nuevos aportes a
la teoría previa sobre ese problema.
 Características de análisis e interpretación de información:

 Los Analistas proporcionan el 90% del soporte de la información


procesada para las decisiones.
 La interpretación describe y resume los datos.
 Analizan las perspectivas del cliente y sus necesidades.
 Obtienen ideas relevantes, de las distintas fuentes de información.
 Almacena y recupera la información contenida.
 Identificar relaciones entre variables
 Identificar la diferencia entre las variables
 Pronosticar resultados.
6. Elabora 4 condiciones para una buena escala de clasificación sin margen
de error.
La toma de decisiones en salud, se basa en conocimientos técnicos y
evidencias respecto de las opciones a considerar ante un escenario definido y
en una población determinada. De tal modo que, el éxito de una (s)
intervención (es) se fundamenta en la obtención de información de calidad
sobre el problema que se pretende abordar; la que se obtiene habitualmente a
partir de experiencias y estudios previos, realizados en escenarios y
poblaciones más o menos similares, susceptibles de haber sido influenciados
en mayor o menor medida por eventuales errores (Schlesselman, 1982).
Estos errores, pueden originarse en forma aleatoria, por azar; y por ende incidir
en una menor precisión de los resultados ulteriores (errores aleatorios); o de
forma sistemática, impactando en la exactitud, o en la veracidad del fenómeno
en estudio. A estos últimos se les denomina sesgos y su importancia radica en
que afectan la validez interna de un estudio, invalidando de alguna forma los
resultados de la investigación. Es así como se pueden representar como la
diferencia entre lo que se está valorando y lo que se cree que se está
valorando (Casal & Mateu, 2003). A
diferencia del error aleatorio, el error sistemático no se compensa al
incrementar el tamaño de la muestra (Departamento de Estadística,
Universidad Carlos III de Madrid).
Sin embargo, aunque su importancia es vital en el desarrollo de una
investigación, es relevante mencionar que ninguna está exenta de ellos; y que
lo fundamental es conocerlos para intentar evitarlos, minimizarlos o corregirlos
(Beaglehole et al., 2008).

Los sesgos son el mayor enemigo del investigador clínico, y hay que tener
meridianamente claro que pueden aparecer en cualquier momento del curso de
la investigación. Hay que tener en cuenta que en cualquier estudio se cometen
sesgos, nuestra actitud ante ellos debe ser la de evitar aquellos que realmente
pueden evitarse y conocer los que son inevitables. La finalidad de conocerlos
es, en un sentido amplio, poder determinar si influyen por exceso o por defecto
en los resultados, y más concretamente tenerlos en cuenta a la hora de
interpretarlos (HernándezÁvila, et al.).

ESTRATEGIAS PARA EVITAR LOS SESGOS Demás está plantear que es


fundamental un proceso de investigación pulcro, acucioso y preciso; pues esta
es la mejor estrategia para evitar o minimizar los sesgos. Ahora bien, el
enfoque para prevenir o controlar el sesgo de confusión es un poco distinto,
pues se requiere actuar en diferentes fases del estudio; es así como se puede
actuar de forma preventiva, es decir en la fase de diseño de estudio, mediante
la asignación aleatoria (EC), el emparejamiento o "matching" (estudios de
casos y controles) y la restricción de la muestra respecto a ciertos niveles de
las covariables, para lo cual se deben seleccionar grupos comparables
(Restrepo Sarmiento & Gómez-Restrepo). También se puede actuar
controlando, esto es en la fase de análisis de datos; a través de estratificación
según niveles de las covariables, lo que permite analizar los grupos de forma
separada; de estandarización, que permite comparar los grupos en estudio si la
distribución de la variable confundente fuera la misma en ambos; y mediante
ajuste estadístico, aplicando modelos multivariados, que permiten estimar el
efecto de la exposición, manteniendo constantes los valores de la variable de
confusión (Tobías, 1999)
4 condiciones para una buena escala de clasificación sin margen de error.
Debe ser 100%:
1. Pulcro
2. Preciso
3. Exacto
4. Sensible
7. Define computación
Es la ciencia que se encarga de estudiar, valorar o ampliar los equipos
tecnológicos y digitales. Se encarga de estudiar, ampliar y entender los procesos
de las computadoras u ordenadores, aparte del funcionamiento de los equipos
periféricos que pueden trabajar con la misma, como son impresoras, plotters,
escáner, fax, etc.
La computación es también un área de conocimiento constituida por disciplinas
relativas a las ciencias y la tecnología, para el estudio, desde el punto de vista
teórico y práctico, de los fundamentos del procesamiento automático de datos, y
su desarrollo, implementación y aplicación en sistemas informáticos. Los sistemas
informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (captación de la
información), procesamiento y salida (transmisión de los resultados). El conjunto
de estas tres tareas se conoce como algoritmo.
Puede ser tan simple como escribir un documento en el procesador de textos, o
tan complejo como programar el funcionamiento de un dispositivo de navegación
espacial. La computación consiste en cuestiones tan distintas como diseñar un
programa de edición de imágenes tridimensionales, entretenerse con un juego de
video, escuchar música en formato MP3, navegar por Internet, editar un video y
transformarlo en una película de alto impacto y muchas otras actividades.
En fin, la computación es una ciencia que es muy importante para el desarrollo de
las sociedades ya que puede desarrollar maneras de simplificación de procesos
para el manejo de la información a través de sistemas computarizados.
8. Elabora 5 ejemplos de sistema de computación de la información
especificando a que tipo pertenecen.
Tipos de sistemas de información
Desde un punto de vista empresarial u organizativo, los sistemas de
información pueden clasificarse en:
Sistemas de Procesamiento de Transacciones (TPS). También conocidos
como sistemas de gestión operativa, recopilan la información pertinente a las
transacciones de la organización, es decir, de su funcionamiento.
Sistemas de Información Ejecutiva (EIS). Monitoriza las variables gerenciales
de un área específica de la organización, a partir de la información interna y
externa de la misma.
Sistemas de Información Gerencial (MIS). Contemplan la información general
de la organización y la comprenden como un todo.
Sistemas de soporte de decisiones (DSS). Orientados al procesamiento de
información intra y extra organizacional, para el apoyo en la conducción de la
empresa.
Existen otras formas especializadas o aplicadas de SI, dependiendo del campo
puntual y de las funciones específicas que se esperan de cada uno. Sería
demasiado extenso enlistarlas a todas.
Ejemplos de sistema informático
• Sistema de información
-carpeta de archivos -recepción de documentos para tramites burocráticos
-historial de calificaciones en una escuela
-finanzas de una empresa
-contratación de personal
-nomina, prestaciones y seguro social
Todos son ejemplos de sistemas de información, un sistema de información
interactuam personas y datos, los cuales son almacenados en computadoras o
en papel para su futura consulta.
Sistemas de información por computadora
SAP - gestión empresaria
SAE - ventas, inventarios, bancos
NOI/COI/BANCOS - contabilidad y finanzas
CONTPAQ - contabilidad

9. Determina un número de cifra y ejercitaran la regla del redondeo de


cantidades en todas las cifras sin margen de error.
Un número dígito es un número que puede expresarse empleando
un numeral de una sola cifra. Por extensión se puede decir que un dígito es cada
símbolo o guarismo de los usados para expresar un numeral o un número.
Las cifras se usan también como identificadores en: números de teléfono,
numeración de carreteras; como indicadores de orden en: números de serie; como
código
Al escribir los números con cifras, podemos poner la coma (,) en lugar de la
palabra mil; y después de ella siempre debe haber tres cifras a la derecha. Dichas
cifras
En contabilidad, el redondeo se produce cuando reduces el número de decimales
importantes al valor numérico más cercano, ya sea superior o inferior.

En cualquier trabajo con números, el redondeo es necesario con el objetivo de


obtener una imagen más fiel de los resultados.

Si un número tiene demasiados decimales, podría ser difícil trabajar con él y, así,
el redondeo se hace necesario.

En términos estadísticos el margen de error se refiere a la cantidad de error de


muestreo aleatorio resultado de la elaboración de una encuesta. Es un término
importante dentro de la investigación de mercados ya que define el nivel de
confianza de los resultados obtenidos en la encuesta o investigación. A mayor
margen de error existe un menor grado de confianza en la investigación y
viceversa.

Antes de iniciar una investigación debemos definir a nuestra población. El margen


de error puede ser significativo si una población no se define en la forma correcta,
o si los procedimientos de selección no se siguen en la forma apropiada.

Del tamaño de la muestra dependen muchos factores de nuestra investigación.

¿Qué tanto puede el error de la muestra aleatoria afectar nuestras encuestas?

El margen de error nos da una estadística; Mientras más pequeños sean estos
márgenes, los resultados de nuestras encuestas serán más exactos. En
una muestra probabilística cada elemento de la población tiene una probabilidad
de selección.

Aquí los investigadores se pueden asegurar de que su información proviene de


una parte representativa de la población de interés para su estudio y además
puede calcular el error.

En una muestra no probabilística destaca la aleatoriedad al momento de


seleccionar los elementos específicos de la población. Esto sucede porque la
selección se hace de acuerdo a lo que más no convenga o porque esta muestra
resulta más económica y rápida de hacer. Podemos decir, de cierta manera que
en este tipo de muestra excluimos a cierto subgrupo de la población.

Como Conclusión
Los resultados de un muestreo no probabilístico no proyectan a la población total

Podemos tener un filtro en una muestra de acuerdo a nuestros intereses, de tal


manera que si queremos que la encuestas sea contestada, por ejemplo, por 100
personas mayores de 30 años, hacemos uso de un muestreo por cuotas y
filtramos a los que no cumplan con esta característica.

Podemos tener una muestra donde existan personas menores de edad, pero al
contestar la primera pregunta en una encuesta, nos daremos cuenta de que no
cumplen con los requisitos para continuar contestando nuestra encuesta y
podemos programar una lógica de salto para dar por terminada la sesión.
10. Define distribución de frecuencia y sus características.
Son tablas en que se dispone las modalidades de la variable por filas. En las
columnas se dispone el número de ocurrencias por cada valor, porcentajes, etc.
La finalidad de las agrupaciones en frecuencias es facilitar la obtención de la
información que contienen los datos.
En estadística, se le llama distribución de frecuencias a la agrupación de datos en
categorías mutuamente excluyentes que indican el número de observaciones en
cada categoría. Esto proporciona un valor añadido a la agrupación de datos. La
distribución de frecuencias presenta las observaciones clasificadas de modo que
se pueda ver el número existente en cada clase.
Se utilizan cuando se recolectan datos, con ellas se pueden representar los datos
de manera que es más fácil analizarlos. Se pueden elaborar tablas de distribución
de frecuencias para datos no agrupados y para datos agrupados. Estas últimas se
utiliza cuando se tienen muchos datos. Para elaborar tablas de distribuciones de
frecuencia se debe tener en cuenta lo siguiente:
Cuando hay muchos datos se agrupan en clases. Esto consiste en agrupar los
datos en una distribución de frecuencias, que puede definirse como una
ordenación o arreglo de datos en clases o categorías que muestran para cada una
de ellas, el número de elementos que contiene, denominada frecuencia.

 Características:
 Toda tabla de frecuencia debe estar titulada.
 Las clases deben ser mutuamente excluyente, es decir un dato solo
puede formar parte de una sola clase.
 Las clases deben ser exhaustivas, quiere decir que todos los datos
deben estar dentro de algunas de las clases de la distribución.
 Las clases deben tener la misma amplitud o intervalos de clases iguales.
 Características cualitativas o atributos, si sus modalidades no son
numéricas; por ejemplo, el sexo, el estado civil o el nivel de estudios de
un individuo. Según que las modalidades no numéricas admitan, o no,
una ordenación, hablaremos de atributos ordinales (nivel de estudios,
clase social) o atributos nominales (sexo, sector productivo).

 Características cuantitativas o variables, si sus modalidades son


numéricas; por ejemplo, el número de miembros de una familia o su
renta. Las variables pueden tomar pocos valores y bien diferenciados (el
número de miembros) o muchos valores y poco diferenciados (la renta).
En este último caso, bien sea por la forma de recoger los datos, bien
sea por facilitar su análisis e interpretación, los datos se pueden
disponer en intervalos, esto es, se pueden categorizar; cuando esto
ocurra, ya no estamos ante una característica numérica, sino ante un
atributo ordinal.

11. Define series cronológicas y sus características.


Es una sucesión de datos medidos en determinados momentos y ordenados
cronológicamente. Los datos pueden estar espaciados a intervalos iguales (como
la temperatura en un observatorio meteorológico en días sucesivos al mediodía) o
desiguales (como el peso de una persona en sucesivas mediciones en el
consultorio médico, la farmacia, etc.). Desempeña un papel importante en el
análisis requerido para el pronóstico de eventos futuros. Existen varias formas
o métodos de calcular cual va a ser la tendencia
del comportamiento del proceso en estudio.
Una serie cronológica requiere de la elección de un modelo (multiplicativo o
aditivo) y la determinación de los cuatro movimientos característicos descritos
anteriormente, para lo cual se requiere de un procedimiento que facilite y
estandarice las operaciones, todo lo cual es independiente de la naturaleza de la
magnitud objeto de estudio.

El análisis de una serie cronológica consta de los siguientes aspectos: recolección


de datos fiables, representación gráfica de los datos de la serie y valoración
cualitativa de su comportamiento; determinación de la tendencia, determinación de
la existencia o no de estacionalidad.

Una serie cronológica o temporal es un conjunto de observaciones de una


variable, ordenadas según transcurre el tiempo.

En una serie de tiempo las observaciones no se deben ordenar de mayor a menor


debido a que se perdería el grueso de la información debido a que nos interesa
detectar como se mueve la variable en el tiempo es muy importante respetar la
secuencia temporal de las observaciones.
Las características de los principales tipos de series temporales son:

Media constante y varianza acotada o constante

Los rendimientos de los activos financieros en general, suelen ser procesos


estocásticos estacionarios. En un lenguaje menos técnico y más sencillo, son
procesos con una media constante y una varianza acotada. El gráfico anterior
representa el cambio porcentual diario de un activo financiero sin
mucha volatilidad.

Media constante y varianza creciente


Las acciones de algunas empresas que presentan volatilidad, las materias primas
o incluso el mercado de divisas (FOREX) presentan este tipo de comportamiento.
La media es más o menos constante a lo largo del periodo pero se caracterizan
por cambios grandes en una u otra dirección.

Media no constante y varianza acotada o constante

El ejemplo anterior bien podría ser la evolución de la tasa de desempleo en una


época de fuerte recesión económica que dura varios años. La varianza es
constante o acotada, es decir, se mantiene en niveles muy parecidos en todo el
periodo pero la media se mantiene creciente. Si en lugar de la tasa de desempleo,
hubiésemos escogido la tasa de empleo tendríamos la misma serie pero
decreciente. Las características de la serie serían exactamente las mismas.
Media creciente o decreciente y varianza creciente

Un buen ejemplo podría ser un país pobre que se encuentra en desarrollo. Pasado
cierto tiempo, su desarrollo comienza a acelerarse debido a los avances
tecnológicos y socio culturales. De ahí que la tendencia sea cada vez más
pronunciada. También es un comportamiento típico en datos de serie temporal de
una burbuja financiera.

Para finalizar cabe destacar que una serie temporal puede ser de dos tipos a la
vez. Es decir, durante algunos periodos ser del tipo 1 y durante otros periodos ser
del tipo 3. Lo habitual es que dependiendo del fenómeno se clasifique en un tipo u
otro. No obstante, hemos de tener en cuenta que tratándose de variables
económicas no hay nada seguro.
CONCLUSIÓN

Etapa del método estadístico que permite organizar, clasificar y presentar la


información recopilada, procedimientos indispensables para hacer el análisis. Es
fundamentalmente de tipo descriptiva; se preocupa de la confiabilidad, validez y
significación de los datos, de las muestras, así como de los métodos y técnicas de
elaboración y análisis.
Estudia la situación del receptor para buscar la información y poder elaborar el
tema en el cual selecciona la información relevante con el que estructura el
contenido del mensaje siguiendo un orden cronológico o temático.
Después de la recopilación de los datos, se procede a su organización,
clasificación y tabulación, de modo que se facilite la presentación en tablas,
cuadros o gráficos. Como tarea previa a la organización es indispensable realizar
una evaluación, critica, corrección y ajuste de los datos, el propósito es superar las
omisiones, inconsistencias y desechar las respuestas no significativas o
erróneas. . Téngase presente que la validez de sus resultados y conclusiones
dependen en gran medida de la fidelidad de los datos utilizados. No existen
computadoras que por sí, corrijan los errores de recopilación.
Realizadas las correcciones o ajustes, se procede a la clasificación o
establecimiento de categorías o intervalos, para la agrupación de los datos.
Finalmente se procede a la tabulación o procesamiento de los datos, de acuerdo a
un plan de tabulación previamente definido. Los cuadrados y tablas estadísticas
como primera fase de la reducción de datos, facilita el cálculo de los indicadores
(porcentaje, promedios, proporciones, índices, tasas, etc.) con los cuales se inicia
la descripción, análisis e interpretación de los datos, variables e información
estadística.
el éxito de una (s) intervención (es) se fundamenta en la obtención de información
de calidad sobre el problema que se pretende abordar; la que se obtiene
habitualmente a partir de experiencias y estudios previos, realizados en
escenarios y poblaciones más o menos similares, susceptibles de haber sido
influenciados en mayor o menor medida por eventuales errores (Schlesselman,
1982).
Estos errores, pueden originarse en forma aleatoria, por azar; y por ende incidir en
una menor precisión de los resultados ulteriores (errores aleatorios); o de forma
sistemática, impactando en la exactitud, o en la veracidad del fenómeno en
estudio. A estos últimos se les denomina sesgos y su importancia radica en que
afectan la validez interna de un estudio, invalidando de alguna forma los
resultados de la investigación. Es así como se pueden representar como la
diferencia entre lo que se está valorando y lo que se cree que se está valorando
(Casal & Mateu, 2003). A diferencia del error aleatorio, el error sistemático no se
compensa al incrementar el tamaño de la muestra (Departamento de Estadística,
Universidad Carlos III de Madrid).
Sin embargo, aunque su importancia es vital en el desarrollo de una investigación,
es relevante mencionar que ninguna está exenta de ellos; y que lo fundamental es
conocerlos para intentar evitarlos, minimizarlos o corregirlos (Beaglehole et al.,
2008).
La computación es una ciencia que es muy importante para el desarrollo de las
sociedades ya que puede desarrollar maneras de simplificación de procesos para
el manejo de la información a través de sistemas computarizados.
El margen de error se refiere a la cantidad de error de muestreo aleatorio
resultado de la elaboración de una encuesta. Es un término importante dentro de
la investigación de mercados ya que define el nivel de confianza de los resultados
obtenidos en la encuesta o investigación. A mayor margen de error existe un
menor grado de confianza en la investigación y viceversa.

Antes de iniciar una investigación debemos definir a nuestra población. El margen


de error puede ser significativo si una población no se define en la forma correcta,
o si los procedimientos de selección no se siguen en la forma apropiada.

En estadística, se le llama distribución de frecuencias a la agrupación de datos en


categorías mutuamente excluyentes que indican el número de observaciones en
cada categoría. Esto proporciona un valor añadido a la agrupación de datos. La
distribución de frecuencias presenta las observaciones clasificadas de modo que
se pueda ver el número existente en cada clase.
Se utilizan cuando se recolectan datos, con ellas se pueden representar los datos
de manera que es más fácil analizarlos.
Una serie cronológica requiere de la elección de un modelo (multiplicativo o
aditivo) y la determinación de los cuatro movimientos característicos descritos
anteriormente, para lo cual se requiere de un procedimiento que facilite y
estandarice las operaciones, todo lo cual es independiente de la naturaleza de la
magnitud objeto de estudio.

El análisis de una serie cronológica consta de los siguientes aspectos: recolección


de datos fiables, representación gráfica de los datos de la serie y valoración
cualitativa de su comportamiento; determinación de la tendencia, determinación de
la existencia o no de estacionalidad.

También podría gustarte