Está en la página 1de 2

Augusto Makin

Data Engineer/Analyst
+54 9 11 3930-1284 | San Miguel, Buenos Aires - Argentina. | augustomakin97@gmail.com | LinkedIn

Ingeniero/Analista de datos con experiencia trabajando con servicios en la nube como AWS y GCP,
conocimiento en estructuras de bases de datos y construcción de pipelines ETL con lenguajes
Python y SQL solicitados con Airflow. Experiencia realizando análisis de BI, KPIs y cuadros de
mando. Buenas habilidades de trabajo en equipo para proporcionar al resto del equipo la ayuda
necesaria. Conocimiento general del ciclo de vida de los datos.

TECNOLOGIAS Y HERRAMIENTAS

Python, SQL, MySQL, PostrgreSQL, Microsoft SQL Server, Pandas, Numpy, AWS, GCP, Airflow, PowerBI,
Tableu, Excel, Docker, etc.

PROYECTOS

Data Engineer - “Shows Database” Feb. 2023 - Feb. 2023


Proyecto personal.

Objetivo:
• Crear una base de datos relacional con datos de espectáculos, centrándose en la arquitectura y el
rendimiento.
• Creación de una función en Python para recuperar archivos de un depósito S3.
• Amplia EDA de los datos a través de pandas.
• Diseñé una base de datos PostgreSQL con una estructura de tablas de copos de nieve dentro de un
contenedor Docker con PgAdmin para su administración.
• Probé varias consultas y un procedimiento almacenado para ver el rendimiento de la base de datos.

Herramientas: Python, SQL, Docker, PostgreSQL, Pandas, Numpy


Repositorio: https://github.com/Auli3/Data_Engineer_shows_db_project

Data Engineer - “Seismic-Alert-System” Dec 2022 - Dec 2022


Henry Bootcamp, Buenos Aires, Argentina.

Objetivo:
• Crear una Web-App Alert-System con datos históricos y más recientes de terremotos en Estados
Unidos, Japón y Chile, enfocándose en una buena experiencia de usuario y brindando información
relevante y fácil de entender a partir de los datos.
• Captura de datos de varias APIs para su estudio y normalización.
• Creación de un Data Warehouse en GCP con proceso ETL para la extracción, transformación y
carga continua de nuevos datos. Desarrollar modelos de aprendizaje automático para la
categorización de los datos y predicciones.
• Conexión al Data Warehouse a través de PoweBI para análisis y creación de cuadros de mando.
Conexión a través de una Web App creada con Streamlit, para visualizar los datos más recientes del
Data Warehouse, los dashboards de PowerBI y las predicciones de los modelos de aprendizaje
automático.

Herramientas: Python, SQL, GCP, BigQuery, PowerBI, Machine Learning, Streamlit, Pandas, Numpy,
ScitLearn
Repositorio: https://github.com/Auli3/Seismic-Alert-System
Data Analyst - “PI03-Data-Analytics” Nov 2022 - Nov 2022
Henry Bootcamp, Buenos Aires, Argentina.

Objetivo:

• Crear un tablero interactivo para explicar la correlación entre los accidentes aéreos y las tormentas
en el área del Triángulo de las Bermudas.
• Estudio y normalización de datos.
• Cree una base de datos para almacenar los datos normalizados con los datos adicionales para
cruzar. Teniendo en cuenta un ETL en Python para carga incremental.
• Conexión a la base de datos a través de PoweBI y cuadros de mando de análisis de los datos
recogidos.

Herramientas: Python, SQL, MySQL, PowerBI, Pandas, Numpy, SQLAlchemy


Repositorio: https://github.com/Auli3/PI03-Data-Analytics

Data Scientist - “PI-2-Datathon-Henry” Nov 2022 - Nov 2022


Henry Bootcamp, Buenos Aires, Argentina.

Objetivo:

• Crear un modelo de aprendizaje automático que prediga la etiqueta de tipo de un valor de propiedad
entre "barato" y "caro" en función de las características de la propiedad.
• Estudio y normalización de datos.
• Preprocesamiento y estandarización de los datos para alimentar un modelo de aprendizaje
automático.
• Selección de un modelo de aprendizaje automático, seleccionando los mejores parámetros.

Herramientas: Python, Machine Learning, Pandas, Numpy, ScitLearn


Repositorio: https://github.com/Auli3/PI-2---Datathon---Henry

Data Engineer - “PI01-Data-Engeeniering” Nov 2022 - Nov 2022


Henry Bootcamp, Buenos Aires, Argentina.

Objetivo:

• Cree una base de datos relacional con datos de comercio electrónico y prepare una canalización
para una carga incremental de datos.
• Estudio y normalización de datos de varios archivos con diferentes extensiones.
• Crear una base de datos relacional para los datos.
• Desarrollar un pipeline ETL en Python para la carga incremental de nuevos datos a la base de
datos.

Herramientas: Python, SQL, MySQL, SQLAlchemy, Pandas, Numpy


Repositorio: https://github.com/Auli3/PI01-Data-Engeeniering

EDUCACION PROFESIONAL
● Data Science. Henry Bootcamp. August 2022 – December 2022.
● Traductor Publico de Ingles. Universidad de Buenos Aires. 2020

IDIOMAS
● Español nativo
● Ingles C2-Proficient

También podría gustarte