Está en la página 1de 3

Análisis Exploratorio de Datos: Sus Posibilidades En La Enseñanza

Secundaría

El que existan asignaturas como “estadística aplicada” en distintas carreras


universitarias y materias relacionadas con la misma en centros secundarios, es
provocado en su gran parte por avanzado desarrollo de la informática y a la
disponibilidad de paquetes de cálculo que facilitan las implementaciones de distintas
técnicas incrementando los horizontes del análisis de los datos que puede realizar cada
persona, pero a la vez favorecen al sesgo de usar por usar herramientas o técnicas incluso
el más grave error que solo confiar en la ejecución ciega de un programa para obtener
información a partir de los datos, por lo tanto dado que la demanda formación
estadística es necesario desde los colegios se oriente a una visión correcta de la misma
que no solo depende de la informática sino que en su gran mayoría a la matemática.

Este fenómeno no es exclusivo de nuestro país, pues la conectividad que vivimos día con
día nos ve involucrados con una gran cantidad de datos que en su gran mayoría son
generados inconsciente, desencadenando que la enseñanza de los contenidos referidos a
estadística y probabilidad se acentúe para la formación de nuevos profesionales
especializados en esta temática, por lo cual en los colegíos debiera tratarse de enseñar los
primeros pasos de esta rama de las matemáticas con el análisis de datos pero desde un
punto de vista exploratorio con el fin de provocar interés en los estudiantes atreves de
distintos enfoques confirmatorio y el exploratorio, abriendo así la posibilidad de analizar
distintas temáticas de interés de los alumnos por medio de la obtención de una amplia
variedad de gráficos y estadísticos diferentes tal y como Tukey lo concibió por el año de
1977, todo esto sin descuidar la filosofía basaba en el cálculo de estadísticos pues
representa la clave para ver más allá de los datos presentado, gracias a esta flexibilidad
de enfoque no se busca el ajusta a un modelo preestablecido de análisis, que solo se
enfocaba en desarrollar cálculos estadísticos para aceptar o no una hipótesis, que es
definida previamente a la toma de las observaciones con el único fin de confirmar o negar
la misma, sino permitir a los datos expresar una gran cantidad de información atreves
de una metodología abierta que busca analizar la regularidad en la estructura del
conjunto de observaciones y las desviaciones que son las diferencias de los datos con
respecto a esta estructura.

Las características que presenta este tipo de análisis exploratorio de datos sobre el común
es la apertura a un análisis desde todas las perspectivas, y con todas las herramientas
posibles, incluso las ya existentes, con el propósito de extraer cuanta información sea
posible, generar hipótesis nuevas, en el sentido de conjeturar sobre las observaciones de
las que disponemos permitiendo su uso en las fases iniciales del estudio experimental en
las diversas ciencias demostrando así que su enseñanza a un nivel segundario permitirá
la posibilidad de generar situaciones de aprendizaje referidas a temas de interés para el
alumno con ficheros de datos actuales que permitirán múltiples representaciones
gráficas para desarrollar nuevos conocimientos y perspectivas al pasar de tablas a
gráficos.

Sin embargo hay q tener siempre presente que la necesaria teoría matemática es
fundamental para una construcción correcta de la información, pues si analizaos basados
en la premisa de que “Como el análisis de datos no supone que estos se distribuyen según
una ley de probabilidad clásica frecuentemente la normal, no utiliza sino nociones
matemáticas muy elementales y procedimientos gráficos fáciles de realizar.” Conduciría
a una información sesgada y carente de sentido en la realidad pues la aplicación de una
técnica u otra depende de la cantidad de supuestos que cumplen los datos un ejemplo de
esto es el uso o no de una medida de dispersión con centro en la mediana o la media
cuando esta última no es representativa o también el uso de diferentes escalas o re
expresión de aquello ya levantado que consiste en modificar la escala en la que una de
las variables es observada y registrada transformando los valores originales de la variable
a una nueva.

Enfocándonos en las técnicas que se puedan enseñar a un nivel secundario deben ser las
elementales que sean sencillas de realizar incluso a mano una de las cuales es el grafico
de tronco o común mente conocido como tallo y hoja que fue descrito por Tukey y es
utilizado para la representación gráfica de distribuciones de variables cuantitativas,
donde se redondean los datos a dos o tres cifras (decimales o enteros), expresando las
cifras iniciales de los números a la izquierda con enteros de menor a mayor en lo que se
cómo tronco seguidas a la derecha por uno o más dígitos de cada dato, según el número
de filas con el objetivo de obtener, en general no más de 12 o 15 filas, el resultado es en la
practica un histograma de ancho de intervalo igual a 1 debido al sistema de numeración
impuesto con lo cual no se puede considerar como una representación ampliada o
condensada pues al aumentar la cantidad de datos su compresión se hace casi nula y su
construcción aumenta en dificultad, sin embargo permite una noción de descripción de
datos entendible para aquellos que recién empiezan en la exploración de los datos como
lo son los estudiantes secundarios pues es de fácil construcción en una aula de clases en
especial con papel cuadriculado, tal es el caso que se permite subdividir el gráfico
fundiendo dos o más filas adyacentes, en lo que se conoce como grafico del tronco
extendido cuyo centro será el primer dígito del dato y a la izquierda y derecha los demás
dígitos del mismo y cada dirección representara una categoría, para fines didácticos esta
herramienta además de presentar una visualización concreta, permite a partir de él la
obtención de los estadísticos de orden, como los valores máximo y mínimo, la mediana,
cuartiles, percentiles y sus rangos, así como la moda.

Otra de estas fáciles representaciones de datos es el gráfico de la caja descrito por Tukey
también denominando como “caja y bigotes”, donde para su construcción se utilizan 5
estadísticos de la distribución de frecuencias que son el mínimo, el primer cuartil Q1, la
mediana, el tercer cuartil Q3, y el máximo, donde la longitud del mismo se calcula de
manera proporcional al recorrido en una primera instancia, paralelamente al eje se
construye una caja rectangular cuya altura representa el rango de los datos centrados o
como se lo conoce “rango intercuatilico”, cuya base abarca desde el primer cuartil al
tercero, esta caja se divide en dos partes, trazando una línea a la altura de la mediana de
los datos y para completar este gráfico se añaden dos guías paralela al eje “x” las cuales
se llaman bigotes cuyo límite marca el límite real del gráfico en el eje “y” siendo estos un
cálculo matemático donde para el primero se escoge el valor máximo entre el mínimo de
los datos y el valor obtenido de restar 1.5 veces el rango intercuartílico de los datos al
primer cuartil, y el segundo será el mínimo entre el máximo de los datos obtenidos y el
valor obtenido de sumar 1.5 veces el rango intercuartílico de los datos al tercer cuartil,
señalando el límite de los datos sin sesgo o libres de alteraciones y describiendo la
concentración de los datos así como su distribución, donde a estos datos que se
encuentren fuera de estos límites se les conocerá como valores atípicos que son valores
muy alejados de los valores centrales y aparecen un uno porcentaje muy bajo de los
casos, por lo que estos valores si no son debidos a errores suelen ser casos excepcionales
y para terminar este gráfico nos informa de la simetría o asimetría de la distribución, y
posible normalidad o no de la misma así como la posibilidad de pasar de un análisis
invariante, a representar conjuntamente un grupo de variables.

Sin lugar a dudas es imprescindible la enseñanza de la estadística desde instancias


secundarios y porque no primarias, fundamentalmente para ir formando en los
individuos las habilidades requeridas en el procesamiento de información, el desarrollo
del pensamiento estadístico-probabilístico y una cultura estadística a tono con los
tiempos actuales.

También podría gustarte