Está en la página 1de 5

Presentación:

Nombre:

Luis Ismael garcia tejada

Matricula:

20220626

Maestro:
Amaurys Bargas

Materia:

Electiva 1

Asignación:

Tareas realizadas
Las tres acciones clave para el funcionamiento de Big Data son:

a. Recolección de datos masivos: El primer paso es la recolección de grandes volúmenes de datos


provenientes de diversas fuentes, como sensores, redes sociales, transacciones en línea, registros
históricos, entre otros.

b. Almacenamiento y gestión de datos: Los datos recolectados deben ser almacenados en


sistemas de almacenamiento distribuido que sean capaces de manejar grandes volúmenes de
datos de manera eficiente. Además, es necesario implementar estrategias de gestión de datos para
organizar, limpiar y procesar la información de manera efectiva.

c. Análisis y extracción de conocimiento: Una vez almacenados los datos, se aplican técnicas de
análisis de datos y minería de datos para extraer patrones, tendencias, correlaciones y otros
insights que sean útiles para la toma de decisiones y la generación de valor.

Deep Learning es una rama del aprendizaje automático (machine learning) que se centra en el
desarrollo de algoritmos y modelos inspirados en la estructura y función del cerebro humano,
conocidos como redes neuronales artificiales. Estos modelos están diseñados para aprender
automáticamente a través de la exposición a grandes cantidades de datos, sin requerir una
programación explícita de reglas o características.

Un ejemplo que describe el aprendizaje profundo (Deep Learning) es el reconocimiento de


imágenes. Mediante el uso de redes neuronales profundas, es posible entrenar un modelo para
que reconozca objetos, rostros o características específicas en imágenes con un alto grado de
precisión. Este proceso implica la extracción de características complejas y la identificación de
patrones en los datos visuales, lo que demuestra la capacidad del aprendizaje profundo para
realizar tareas de percepción y reconocimiento similares a las realizadas por el cerebro humano.
Un ejemplo específico podría ser el reconocimiento facial en aplicaciones de seguridad o la
clasificación de imágenes médicas para diagnóstico asistido por computadora.
Inteligencia Artificial (IA): La Inteligencia Artificial es un campo de la informática que se enfoca en
crear sistemas o programas que pueden realizar tareas que normalmente requieren inteligencia
humana. Esto incluye procesos como el aprendizaje, la percepción, la toma de decisiones y la
resolución de problemas. Ejemplos de IA incluyen asistentes virtuales como Siri de Apple,
sistemas de recomendación en plataformas de streaming como Netflix, y sistemas de
reconocimiento de voz como Google Assistant.

Machine Learning (Aprendizaje Automático): El Machine Learning es una subcategoría de la


Inteligencia Artificial que se centra en el desarrollo de algoritmos y modelos que permiten a las
computadoras aprender y mejorar automáticamente a partir de la experiencia sin ser programadas
explícitamente. Ejemplos de Machine Learning incluyen sistemas de detección de fraudes en
transacciones financieras, filtros de spam en correos electrónicos, y motores de recomendación
de productos en sitios de comercio electrónico como Amazon.

Deep Learning (Aprendizaje Profundo): El Deep Learning es una técnica de Machine Learning que
utiliza redes neuronales artificiales con múltiples capas (profundas) para aprender
representaciones de datos de manera jerárquica. Se utiliza principalmente para tareas de
percepción y reconocimiento de patrones en datos complejos, como imágenes, audio y texto.
Ejemplos de Deep Learning incluyen sistemas de reconocimiento facial en redes sociales,
sistemas de conducción autónoma en vehículos, y sistemas de traducción automática como
Google Translate.

Data Mining (Minería de Datos): La Minería de Datos es el proceso de descubrir patrones,


tendencias y relaciones significativas o útiles en grandes conjuntos de datos. Utiliza técnicas de
estadística, aprendizaje automático y análisis de datos para explorar y analizar grandes volúmenes
de información con el objetivo de obtener conocimientos útiles para la toma de decisiones.
Ejemplos de Data Mining incluyen la segmentación de clientes para campañas de marketing, la
detección de anomalías en datos financieros, y el análisis de cestas de la compra para la
colocación de productos en tiendas.

Procesamiento de Lenguaje Natural (NLP): El Procesamiento de Lenguaje Natural es un área de la


Inteligencia Artificial que se enfoca en la interacción entre las computadoras y el lenguaje humano.
Su objetivo es permitir a las máquinas comprender, interpretar y generar texto y habla de manera
natural. Ejemplos de NLP incluyen sistemas de traducción automática como Google Translate,
asistentes virtuales como Alexa de Amazon y chatbots utilizados en servicio al cliente en línea.
El error más común cometido en proyectos de Ciencia de Datos es la falta de comprensión del
problema o pregunta que se está intentando resolver. A menudo, los equipos de proyectos pueden
centrarse demasiado en la parte técnica, como la recolección y análisis de datos, sin tener una
comprensión clara de los objetivos comerciales o las necesidades del cliente. Esto puede llevar a
soluciones inadecuadas o irrelevantes que no agregan valor real.

El ciclo de vida del Big Data generalmente se compone de las siguientes etapas:

a. Recolección de datos: Se recopilan grandes volúmenes de datos de diversas fuentes, como


sensores, redes sociales, registros históricos, transacciones en línea, entre otros.

b. Almacenamiento y procesamiento de datos: Los datos recolectados se almacenan en sistemas


distribuidos y se procesan para su posterior análisis.

c. Análisis de datos: Se aplican técnicas de análisis de datos y minería de datos para extraer
información útil y generar conocimientos a partir de los datos.

d. Visualización de datos: Los resultados del análisis se presentan de manera visual a través de
gráficos, tablas u otros medios para facilitar la interpretación y la toma de decisiones.

e. Toma de decisiones: Basándose en los conocimientos obtenidos, se toman decisiones


estratégicas o se implementan acciones para abordar los problemas o aprovechar las
oportunidades identificadas.
Los tipos de analítica de datos que existen son:

a. Descriptiva: Se centra en resumir y describir datos históricos para entender qué ha sucedido en
el pasado. Proporciona información sobre tendencias, patrones y características de los datos.

b. Predictiva: Utiliza técnicas de modelado estadístico y aprendizaje automático para predecir


eventos futuros o tendencias basadas en datos históricos. Ayuda a anticipar resultados y tomar
decisiones informadas.

c. Prescriptiva: Va más allá de la predicción y proporciona recomendaciones específicas sobre qué


acciones tomar para lograr ciertos resultados deseados. Utiliza técnicas avanzadas de
optimización y simulación para encontrar la mejor solución posible.

d. Diagnóstica: Se enfoca en identificar las causas de ciertos eventos o resultados, ayudando a


entender por qué ocurrieron ciertos resultados en lugar de otros. Es útil para el análisis de
problemas y la mejora de procesos.

También podría gustarte