Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Informe Numericos
Informe Numericos
FACULTAD DE CIENCIAS
DISEÑO DE EXPERIMENTOS I
TEMA
REALIZADO POR:
NIVEL:
6to “A”
ING:
NANCY CAHARIGUAMAN
FECHA:
28-OCUBRE-2019
CURSO – TALLER 11
objetos adminitrativos
Unidades administrativas
REGISTRO
ADMINISTRATIVO Variables administrativas
Metodologia
PROCESAMIENTO Proteccion de datos
ESTADÍSTICO DE
REGISTRO Herramientas tecnológicas
ADMINISTRATIVOS
poblacion estadistica
Unidades estadisticas
REGISTRO
ESTADISTICO Variables estadisticas
Metodologia
Herramientas Proteccion
tecnlogicas de datos.
Planificación
Diseño
Construccion
Datos
Recopilación
Procesamiento
Técnicas y Datos
Análisis
Difusión
Evaluación
Aseguramiento de la calidad
Gestión de archivo.
Sistemas no tradicionales
WEB SCRAPING
Consiste en la construcción de un agente que permita descargar, organizar y analizar datos
procedentes de internet de forma automática.
Técnicas del Web Scraping
Esta técnica consiste en extraer datos de una web de forma automatizada.
Un scraper entra en un web, selecciona unos datos concretos y las copia en otro sitio
A menudo se nombra también como crawier,araña o bot.
Google, Facebook,Twitter y otraos muchos utilizan estas técnicas.
ARCHIVO ROBOTS.TXT
Conocido como protocolo de exclusión de robots,es un estándar basado en la web utilizando por
sitios web para intercambiar información con scripts automatizados. Lleva instrucciones sobre
su sitio o robots utilizado como directivas que permite,denegar.
Ejemplo:
Robots.txt de la página properati esta página es de ventas en esta se puede visualizar
propiedades en venta en cualquier destino del Ecuador.
MAPA DEL SITIO (SITEMAP)
Los sitios web proporcionan archivos sistema para ayudar a los rastreadores a localizar su
contenido actualizado sin necesidad de rastrear cada página web.
TAMAÑO DEL SITIO WEB
Estimar el tamaño de un sitio web nos puede ayudar a determinar qué tan eficiente debemos
construir nuestro script.
SOFTWARE DE TRATAMIENTO DE DATOS
rvest es una Liberia de R que nos permite realizar web scraping de una manera sencilla y
eficiente
read_htmal()
html_nodes()
html_tex()
PRACTICA
Se debe realizar el robots de la página properati
Conocer el precio, el área, la ubicación, y el tipo de propiedad de cada inmueble que se
encuentre en la página
Al realizar el web scraping se hizo en el software R en este debemos instalar librerías para
realizar el Scraping
Resultado obtenidos
Al realizar el comando de data frame se visualiza los datos obtenido en una tabla
ordenadamente
Para dar concluido el taller desde mi punto de vist puedo decir que el curso taller de web
scraping fue muy productivo ya que pudo conocer y aprender sobre registros administrativos al
realizar el scraping se pudo visualizar que cada rotulo o numero de una página web están
codificados y mediante ese codificación se puede visualizar todo un código de la página y
mediante estos código se puede visualizar cuantas personas están visitando la página y mediante
los comando en R se visualizó el numero de visitante, también se pude observar el área el
precio, el tipo de vivienda y la ubicación del inmueble, es decir que el scraping es una fuente no
tradicional muy útil para visualizar eventos que deseemos utilizando el software R, el taller fue
muy productivo porque se pudo aprender y conocer cosas que no se conocían.
Tema:
REGLAS DE ASOCIACIÓN CON R
Facilitador: Jesús Salinas
Para realizar las reglas de asociación con R se presenta una pequeña introducción a lo que
corresponde a la asociación y se puede mencionar como un claro ejemplo a la parábola de la
cerveza y los pañales este en un ejemplo significativo para aplicarlo en la regla de asociación.
Al analizar este ejemplo se puede decir que en la actualidad pasa ya que la cerveza y los
pañales es un clásico de la ciencia ya que al mezclar estos dos productos se evidencia que si se
puede dar la asociación entre diferentes productos y así se aplica la asociación en R.
Tomando en cuenta la parábola de la cerveza y los pañales se realizó un estudio en el cual
Thomas B, descubrió e hizo un análisis que de 5 pm a 7pm los consumidores compraban
cerveza y pañales ya que en esto no se estableció ninguna correlación ni edad, ni sexo. Por lo
cual se llevó una relación de los dos productos y así nació la regla de asociación.
En la imagen se puede observar que al comprar un producto siempre existir una asociación de
productor que serán necesario en la comprar ya que si compramos un celular necesariamente
necesitamos la mica de vidrio, y sus respectivo estuche es entonces que nace la asociación que
así podemos comprar varios productos a la comprar de un producto.
A esto podemos observar y dar un ítem a los artículos comprados en Walmart por ejemplo uno
código designado para un producto especificado como leche otro para pañales y cerveza y otro
para leche pañales y cerveza de que van a tener un código específico para cada uno de estos
ejemplos a esto lo llamamos ItemSet.
Al realizar una ecuación para ver si existe una buena asociación es bueno definir y crear
una regla de esta es decir para que los clientes compren una gaseosa que propensos son
para comprar un jugo por cliente promedio eso es lo que una relación básica que
podemos tratar para poder ver que exista una regla buena de asociación y así se lo puede
realizar también en otros productos que existen en Walmart.
También se debe tomar encuenta el soporte ya que este nos ayudar a observar que un
itenset aparece dentro de los datos, esto quiere decir que en cada itemset se observa el
numero de productos adquiridos por los clientes.
Regla de asociación
Al realizar la refla de asociación se puede realizar la confianza del producto adquiridos los
clientes como claro ejemplo se puede observar que la confianza de la regla es que si un cliente
compra jugo entonces también comprara gaseosa al realizar la forma se observa que el 50 % de
los clientes compraran jugo y gaseosa.
Formula dela confianza:
Soporte (X ,Y )
onfianza (X →Y )=
Soporte(X )
Una vez realizado la regla de asociación se procede a realizar un levantamiento (Lift) al cual nos
define como la relación entre la frecuencia entre que se realiza las transacciones es decir la
confianza y el soporte de las ventas ya sea posterior o previa de los productos.
Al realizar el levantamiento se define como la relación entre la frecuencia con que el
consecuente se encuentra en las transacciones que consiste al antecedente, dividida entre las
frecuencias de la confianza de los datos.
Al realizar el levantamiento se debe tener encuentra su Lift ya que cada Lift indicara en que
posición se encuentra el levantamiento para la toma de decisiones de la regla de asociación.
Aquí podemos observar un ejemplo de lo que es caso compra de cerveza y pañales en Walmart.
Así mismo podemos mencionar que existe ventajas y desventajas entre productos eso sí no
existe asociación entre ellos.
Al realizar este ejemplo se debe tener encuentra todo lo aprendido como es el soporte la
asociación y el Lift para llegar a una conclusión clara y precisa de los productos adquiridos por
los clientes.
Aplicación de las reglas de asociación.
Se debe tener a consideración las siguientes reglas para una b uena asociacon de productos.
Ordenamiento de productos
Patrones de navegación
Promociones de pares de productos, diseño de catalogo
Descuento especifico por cliente.
Se debe tener encuenta las ventajas y las desventajas que ofrece las reglas de asocioan para
adquirir un producto.
Se debe recalcar que existen algoritmos para dar solución de problemas de asociación como la
A priori , FP- Growth, ECLAT y CARMA.
Algoritmo APRIORI
Se debe tener a consideración las ventajas y las desventajas que proporciona el Algoritmo A
priori
Ventajas
Desventajas
Para realizar el Algoritmo A priori se debe poder generar reglas de asociación se tiene que
seguir los siguientes pasos:
1. Identificar todos los itemsets que ocurre con una frecuencia por encima de un
determinado limite (umbral mínimo de soporte)
2. Convertir esos itemses frecuentes en reglas de asociación que cumplan con un umbral
mínimo de confianza
La generarción de los itemset nos ayuda a conocer los principios de Monotonocidad estos nos
ayudara a conocer cual de los subconjuntos de los itemset son frecuentes, es decir cual de ellos
se tomara encuenta para realizar los principios de Monotonocidad.
Una vez realizada la selección de todos los algoritmos se observa los casos posibles para
realizar el algoritmo, al obtener todos los casos posibles del algoritmo se puede establecer una
confianza mínima.
REGLAS REDUNDANTES
Se debe tener en cuenta que
Dos reglas son idénticas si tienen el mismo antecedente (parte izquierda) y consecuente
( parte derecha)
Supóngase ahora que una de estas reglas tienen en sus antecedente los mismo ítems que
forman el antecedente de la otra, junto con algunos ítems masa. La regla mas genérica
se considera redundante ya que no aporta información adicional.
En concreto se considera qu una regla X = Y es redundante si existe un subset X tal que
existe una regla X= Y cuyo soporte es mayor.
GROCERIES Y RETAIL
En los ejemplo de groceries nos ayuda a conocer los datos que contienen cada
transacciones, y en el ejemplo de Retail ayudan a observar las variables demográficas y
categóricas de los productos a consumir.
Para culminar podemos relacionar otros productos como es el streaming a redes sociales
la compra electrónica mediante internet estos podemos decir que son reglas más fáciles
o aplicaciones que encuentran patrones en cada una de ellas para poder realizar una
mejor asociación entre producto y cliente y como empresas grandes multinacionales
tenemos lo que es Netflix, Twitter, Amazon, Facebook Uber, Cabify entre otras más.