Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2022
TECNICATURA SUPERIOR EN
CIENCIA DE DATOS
E INTELIGENCIA
ARTIFICIAL
CICLO LECTIVO 2022
Tecnicatura Superior en
Ciencia de Datos e
2030
Inteligencia Artificial
Instituto de Educación
Superior N°11
2
Colaboraron con la elaboración de este material:
3
CRONOGRAMA DE ACTIVIDADES
INGRESO A LA TECNICATURA SUPERIOR EN CIENCIA DE DATOS E
INTELIGENICA ARTIFICIAL
4
INTRODUCCIÓN:
La presente es una guía de nivelación e introducción a la carrera de Técnico Superior
en Ciencia de Datos e Inteligencia Artificial. El objetivo de esta presente cartilla es
acercarte a una visión general de lo que será estudiar la carrera en el Instituto de
Educación Superior N° 11. Encontrarás información general de la carrera, duración,
modalidad de cursado, condiciones de ingreso, objetivos y perfil del egresado/a, régimen
de equivalencias, régimen académico del alumno.
5
DATOS GENERALES DE LA CARRERA
a) Título que otorga: Técnico Superior en Ciencia de Datos e Inteligencia Artificial.
c) Duración: 3 años
d) Modalidad: Presencial
e) Condiciones de ingreso:
OBJETIVOS DE LA CARRERA
● Ofrecer una carrera de formación técnica, de corto plazo y alta probabilidad de
salida laboral en el medio.
● Formar recursos humanos con visión y conocimientos tecnológicos y
empresariales destinados a potenciar emprendimientos que contribuyan a
fortalecer la economía de la provincia.
● Formar profesionales que puedan desarrollar y utilizar herramientas de las
tecnologías de la información destinadas a concretar las actividades que surgen
del perfil profesional en forma eficiente .
PERFIL DEL EGRESADO
La Ciencia de Datos y el Big Data posibilitan una gran cantidad de salidas
profesionales. Los puestos de analistas de datos expertos en inteligencia artificial,
redes neuronales , machine learning y desarrolladores, son ya los más habituales en
la mayoría de las empresas dedicadas a este sector. El perfil del egresado de esta
tecnicatura brinda un conjunto de capacidades y competencias que identifican la
formación de un analista digital de datos como colaborador directo del responsable de
marketing, quién analizará los datos cuantitativos y cualitativos del entorno digital, para
extraer información de valor que ayude al negocio en la toma decisiones. Éste
profesional podrá cubrir tres funciones:
● Diseñar proyectos.
● Diseñar Soluciones que involucren análisis de datos.
● Desarrollar sistemas de inteligencia artificial, que además involucren visión
artificial o procesamiento del habla.
● Realizar tareas de mantenimiento y optimización del sistema.
● Organizar y gestionar proyectos.
6
ALCANCE DEL PERFIL PROFESIONAL
El técnico superior en Ciencia de Datos e Inteligencia Artificial debe poseer una amplia
comprensión de matemática (Cálculo - Estadística - Probabilidad) como base del
cálculo numérico que permita el desarrollo de algoritmos en la Ciencia de Datos.
Comprender y obtener una experiencia práctica en lenguajes de programación (Python
- R - SAS) que le permitirán implementar variedad de algoritmos.
Desarrollar sólidos conocimientos en Bases de Datos para la gestión de datos
estructurados en RDBMS (Oracle - MySQL- Cassandra , entre otros).
Adquirir capacidades relacionadas con la ingeniería de datos (Data preprocessing -
Data Warangling - SQL) en el tratamiento masivo de información.
Desarrollar algoritmos de aprendizaje para crear modelos predictivos en el área del
Machine Learning (Aprendizaje Supervisado - Aprendizaje No Supervisado -
Aprendizaje Reforzado).
Obtener una adecuada comprensión de los algoritmos que manipulan el Deep Learning
en el área de trabajo con enormes volúmenes de datos no estructurados (Redes
Neuronales Artificiales - Red de Creencias Profundas - Red Adversaria Generativa).
Dominar diferentes técnicas y herramientas de visión artificial utilizadas en el
procesamiento digital de imágenes y habla.
Obtener una ventaja agregada aprendiendo Hadoop y Spark para almacenar ,
manipular y procesar grandes volúmenes de datos.
CAPACIDADES
● Perfil matemático y analista .
● Conocimientos informáticos, matemáticos y estadísticos.
● Control de la tecnología y de las bases de datos , como SQL o PL/SQL.
● Habilidades de programación y control de programas como R o Python.
● Administración de sistemas de almacenamiento distribuido .
● Diseño de un sistema de reporting para la visualización de los datos, sobre todo
en materia de business intelligence.
● Conocimiento de las técnicas de machine learning.
● Control de herramientas Hadoop, como Hive o Pig.
● Habilidad en la gestión de herramientas de software en sistemas de estructura
de datos.
● Instrucciones de lenguaje de manipulación de datos, como data wrangling, data
muning o data tyding.
ÁMBITO SOCIO OCUPACIONAL
Este nuevo campo profesional abarca a todas las herramientas, tecnologías, métodos
y sistemas requeridos para manejar grandes conjuntos de datos distribuidos,
heterogéneos, diversos, tan grandes y complejos que no se pueden analizar con las
herramientas y métodos tradicionales de procesamiento y administración de bases de
7
datos. Éstas incluyen nuevos algoritmos estadísticos y matemáticos, técnicas de
predicción y métodos de modelado, métodos de modelado, métodos de encriptación,
así como enfoques multidisciplinarios, y nuevas tecnologías para la recopilación,
almacenamiento, análisis e intercambio de datos e información. Por todo ello, la
Ciencia de Datos ocupa actualmente un lugar central en las organizaciones y adquiere
un uso cada vez más intensivo en la toma de decisiones en infinidad de sectores
profesionales: salud, genética, agro, redes sociales, marketing, finanzas, banca,
comercialización de productos y telefonía, entre otros.
Dentro de la Ciencia de Datos encontramos técnicas de diferentes áreas de estudio,
incluyendo la Estadística y la Inteligencia Artificial (Aprendizaje Automático o Machine
Learning). Los especialistas en este campo se enfocan en la construcción y
optimización de algoritmos de Deep Learning con el fin de emular las habilidades
humanas básicas como visión, lenguaje, toma de decisiones, entre otras. En este
campo de permanente avance , los proyectos de Visión Artificial se caracterizan por el
análisis de imágenes a fin de detectar diversos patrones en las mismas y los de
Procesamiento de Habla se enfocan en la interacción con los clientes. El Técnico
Superior en Ciencia de Datos e Inteligencia Artificial podrá coordinar equipos de trabajo
y dirigir emprendimientos de pequeña o mediana envergadura de servicios propios de
su campo, cumpliendo en todos los casos con el manejo adecuado de la información,
consideraciones éticas y principios de usabilidad.
8
ESTRUCTURA CURRICULAR
9
RÉGIMEN DE CORRELATIVIDADES
10
Unidad 1
11
LAS OLAS DE CAMBIO (ALVIN TOFFLER)
● Cada ola de cambio trae cambios sustanciales que transforman radicalmente los
paradigmas instalados en la sociedad humana.
● Cada ola nueva se produce en un tiempo más corto que el anterior, por lo que
nos obliga a estar preparados para adaptarnos a los cambios que
indefectiblemente sucederán en la sociedad.
12
PRIMERA OLA
La "primera ola", fue la de la revolución agrícola, de las monarquías, y familias grandes.
Se extendió aproximadamente 10.000 años.
El paradigma dominante fue el ejercicio del poder a través de la fuerza bruta. De esa
manera se levantaron imperios y se edificaron ciudades fortificadas. El que tuviera, y
supiera usar, el garrote más grande y pesado, era rey.
Superada la era en la que el hombre vivía de la caza y la pesca, nace la agricultura.
Consecuencia de ello:
● Surgen nuevas estructuras como el comercio y las
primeras aldeas.
● El hombre comienza a abandonar su condición
nómade para tomar un estilo de vida sedentario.
● El hombre ya no acepta el medio que lo rodea, y
comienza a transformarlo. Se desarrolla la
agricultura, la ganadería, los primitivos tejidos.
● Nace el concepto de trabajo
● Comienza el crecimiento demográfico
13
Para los hebreos era el copista de
las Sagradas Escrituras y,
posteriormente, incluso el doctor e
intérprete de la ley.
14
INVENTOS RELEVANTES DE LA PRIMERA OLA
● Dominio del fuego: La domesticación o control del fuego puede ser
considerado el primer gran invento de la humanidad, y su dominio representa un
punto de inflexión en la evolución humana, ya que supuso una verdadera
15
revolución demográfica al cambiar la forma de protegerse del frío, cocinar sus
alimentos y así aumentar su valor energético, de comunicarse.
16
SEGUNDA OLA
La “segunda ola” fue el cambio que se produjo con la era industrial y duró menos de dos
siglos. Inició por el año
1770 en Inglaterra y
llegó al cenit en los
Estados Unidos
alrededor de los años
cincuenta del siglo XX.
Hacia 1650 nace la
Revolución Científico
Técnica, también conocida como Revolución Industrial. Esta revolución no solo
cambia la forma de producir bienes, sino también la organización del mundo; trajo
ciudades grandes, centralización, burocracias, fabricación de productos en masa,
educación masiva, y armas de destrucción masiva. Entre los factores más relevantes
que dieron origen a esta era están la máquina a vapor y la imprenta, ambos
reemplazaron la mano humana,
● Esta época está arraigada en el materialismo y la supremacía del hombre
sobre la naturaleza.
17
● Se extendió la educación a toda la población: ahora el saber leer y escribir
era una política para el bienestar del estado.
18
● Durante la segunda ola las instituciones de la primera ola siguen presentes,
pero su influencia se hace menor:
- La Revolución Francesa pone fin al orden feudal, acabó con la monarquía
absoluta y con la separación de la sociedad en clases fijas e inamovibles:
aristocracia, clero y siervos.
- Se lleva a cabo la primera proclamación de los derechos humanos
universales.
- Las monarquías dan paso a las repúblicas como forma de gobierno.
Consecuencia de ello:
- Surgen enormes centros urbanos con
un área metropolitana
- Aparece la máquina. Esta reemplaza el
esfuerzo humano.
- Nace el concepto de producción en
cadena o producción en serie.
- Se intensifican los medios de comunicación físicos, gracias al ferrocarril,
el automóvil, el barco a vapor.
- Nace la explotación de recursos naturales como fuente de energía o
materia prima.
- Nace el concepto de productor y de consumidor
- Se intensifica el crecimiento demográfico
19
- La unidad económica de la segunda ola es la corporación.
20
TERCERA OLA
La revolución electrónica y de
computación, a partir de mediados del
siglo XX, trae la "tercera ola", está
marcada por la transición del paradigma
de la sociedad industrial al paradigma de
la sociedad del conocimiento, y, esta
vez, el conocimiento se levanta como la siguiente fuente de poder.
21
La computadora se convierte en un "amplificador" del conocimiento, e Internet, en el
medio de comunicación y la base de datos planetaria.
Las instituciones de la primera y segunda ola siguen presentes, pero cada día influyen
menos. Los cambios que el mundo está viviendo en los últimos 40 años, que han sido
catalogados en muchos casos de "desmoralizadores" en realidad solo rompen
paradigmas que la segunda ola nos impuso.
Caracterizan a la tercera ola la desarticulación de estructuras de
la segunda ola, a saber:
● Descentralización
● Desmasificación
● Personalización
Sociedad
de la Tercera Ola
La familia
nuclear cede
su lugar a infinidad de tipos de familias. Familias monoparentales, unipersonales,
convivencia estable entre amigos, convivencia entre personas del sexo opuesto con o
sin relaciones sexuales, familias hijo - madre - abuela, familias hijo - madre - tía, parejas
homosexuales, etc.
Uno de los males a combatir en la tercera ola es la soledad.
Eso es debido a la falta de estructura que brindaba la segunda
ola, y a la falta de necesidad de relacionarse.
naturales.
Grandes inventos de la tercer ola.
23
pobres. En el año 1750 la diferencia entre los países ricos y los pobres era de 5 veces,
mientras que para el año 2000 la brecha se había ensanchado a 390 veces.
Estos cambios drásticos quedan demostrados en el hecho de que en
1960 un tercio del producto bruto mundial correspondía a la
agricultura, un tercio a la industria y un tercio a los servicios. En 2000,
la agricultura representaba un 4%, la industria, un 32% y los servicios,
un 64%. Lo que ha ocurrido es que la industria ha emigrado de países
de avanzada a otros de rápido desarrollo, y los servicios que están
compuestos mayoritariamente por la industria del conocimiento se
han desarrollado en los países más libres.
25
La sociedad del conocimiento es aquella en la que la información y el conocimiento
tienen un lugar privilegiado en la sociedad y en la cultura. Forman parte estructural de
las actividades, sociales, culturales y económicas.
El conocimiento y la información tienen un impacto significativo en las vidas de las
personas. El intercambio de conocimiento e información, en particular a través de las
Tecnologías de Información y Comunicación (TIC), tiene el poder de transformar las
economías y las sociedades.
26
El término TIC es extensivo para la tecnología
de la información (TI) que enfatiza el papel de
las comunicaciones unificadas, la integración
de las telecomunicaciones (líneas telefónicas
y señales inalámbricas) y las computadoras,
así como el software necesario, el
middleware, almacenamiento, sistemas
audiovisuales y producción audiovisual, que permiten a los usuarios acceder,
almacenar, transmitir y manipular información.
Las TICs agrupan un conjunto de tecnologías para el tratamiento y la transmisión de la
información.
● Las terminales.
● Las Redes/ Las telecomunicaciones
● Internet/ Los servicios
Las terminales son los dispositivos que actúan como punto de acceso de las personas
a la sociedad de la información.
Aquí encontramos las computadoras:
● Computadoras de escritorio /PC Destktop
● Computadoras Portátiles:
● Notebook
● Netbook
27
● Productos Smart y Dispositivos Wearables
▪ Dispositivos Smart
Un dispositivo inteligente (Smart) es un
dispositivo electrónico, por lo general conectado
a otros dispositivos o redes a través de
diferentes protocolos de comunicación, que
puede funcionar hasta cierto punto de forma
interactiva y autónoma.
● Smartphones
● SmartTV
● SmartHouse
● SmartCar
● Otros Dispositivos
▪ Consolas de videojuegos
▪ Dispositivos de Seguridad
▪ Electrodomésticos inteligentes
28
LAS REDES
Las redes se conforman por diferentes sistemas de telecomunicaciones.
Redes de televisión: actualmente hay cuatro tecnologías para la distribución de
contenidos de televisión, incluyendo las versiones analógicas y las digitales:
- Telefonía celular: a pesar de ser una modalidad más reciente, en todo el mundo
se usa más la telefonía móvil que la fija. Se debe a que las redes de telefonía
29
móvil son más fáciles y baratas de desplegar. El número de líneas
móviles está en continuo crecimiento.
- Telefonía IP: También llamado Voz sobre IP o VoIP, es un
grupo de recursos que hacen posible que la señal de voz viaje a
través de una red LAN o Internet empleando el protocolo IP. Esto
significa que se envía la señal de voz en forma digital, en
paquetes de datos, en lugar de enviarla en forma analógica a través de circuitos
de telefonía convencional.
INTERNET
Es un conjunto descentralizado de redes de
comunicaciones interconectadas, que utilizan la
familia de protocolos TCP/IP, lo cual garantiza
que las redes físicas heterogéneas que la
componen constituyen una red lógica única de
alcance mundial.
Internet está evolucionando muy rápidamente y está aumentando enormemente la
cantidad de contenidos (vídeos, música, ).
30
Servicios sobre Internet: Internet ofrece una cantidad enorme se servicios, entre los
que se destacan:
● Correo electrónico
● Búsqueda de información
● Audio y música
En Internet, las redes sociales han suscitado discusiones como la de falta de privacidad,
pero también han servido como medio de convocatoria para manifestaciones públicas
en protestas. Estas plataformas crearon, también, una nueva forma de relación entre
empresas y clientes, abriendo caminos tanto para la interacción, como para el anuncio
de productos o servicios.
32
Tipos de redes sociales
Las redes sociales se pueden clasificar en dos tipos:
33
y sirve a quienes la constituyen. Digital se refiere al uso
de la tecnología que genera, almacena y procesa los
datos.
El término transformación se refiere a un cambio
fundamental en los negocios del día a día de una
organización, desde los tipos de productos y servicios
que produce hasta la forma en que los entrega. Una
organización en la necesidad de una transformación –
ya sea una empresa, agencia gubernamental, o un
proveedor de servicios, como los de cuidado de la
salud– por lo general responde a un cambio en el
mercado y a la demanda de los consumidores por un producto o servicio.
La mera implementación de tecnología
por sí sola no produce transformación
digital, pero cambiar una organización
para aprovechar el potencial de estas
tecnologías sí lo hace.
La transformación digital puede ser
considerada como la tercera etapa de
adoptar las tecnologías digitales: la
competencia digital → el uso digital →
la transformación digital, con la capacidad de uso y de transformación transformadora
que brinda la alfabetización digital.
La etapa de transformación significa que los usos digitales permiten inherentemente
nuevos tipos de innovación y creatividad en un ámbito particular, más que sencillamente
mejorar y apoyar los métodos tradicionales.
SITIOS CONSULTADOS:
https://es.wikipedia.org/wiki/Alvin_Toffler
https://www.lanacion.com.ar/opinion/la-revolucion-del-conocimiento-nid702435/
35
https://economipedia.com/definiciones/cuarta-revolucion-industrial.html
https://es.unesco.org/themes/construir-sociedades-del-conocimiento
http://www.formacionib.org/noticias/?Sociedad-de-informacion-y-conocimiento
https://es.wikipedia.org/wiki/Tecnolog%C3%ADas_de_la_informaci%C3%B3n_y_la_co
municaci%C3%B3n
https://es.wikipedia.org/wiki/Internet
https://es.wikipedia.org/wiki/Red_social
https://www.argentina.gob.ar/grooming
https://www.pensamientopenal.com.ar/system/files/2015/08/doctrina41758.pdf
https://www.argentina.gob.ar/produccion/transformacion-digital-y-economia-del-
conocimiento
https://es.wikipedia.org/wiki/Transformaci%C3%B3n_digital
https://www.redhat.com/es/topics/digital-transformation
36
Unidad 2
37
1. Introducción
Actualmente todos los que navegamos en Internet somos, en cierta medida y de acuerdo
a las proporciones, consumidores y/o productores de datos e información. En éste
mismo esquema podemos concebir a las compañías que tienen presencia en Internet
en dos grandes grupos, están las que apostaron por la democratización de sus servicios
a través de Internet y posibilitaron que los usuarios pasaran de ser sólo consumidores
a también ser productores de información y contenidos, entre las más representativas
están Google, YouTube, Facebook, Twitter, Instagram, Waze, Airbnb, entre otras tantas.
También están las que ofrecen principalmente el servicio de consumo de información y
contenidos, como es el caso de Netflix, Amazon, Spotify y YouTube por mencionar
algunas. Sin importar de qué compañía se trate, se dieron cuenta que estaban
almacenando grandes cúmulos de datos y lejos de verlo como un problema de
escalabilidad —por sí mismo significa un reto e inversiones millonarias—, identificaron
un problema todavía mayor: cómo dotar de significado a los datos que registran los
usuarios en sus sistemas, ya sea de manera consciente o inconsciente, y no sólo eso,
sino cómo obtener un conjunto procesado y estructurado de datos que posibilitan una
mejor comprensión teórica o práctica de la realidad en menor tiempo.
Con el registro de la huella digital de los usuarios se pueden identificar sus preferencias
e intereses, deseos de compra, tendencias y frecuencia de consumo, horarios de
interacción, redes sociales, ubicación de conexión, dispositivos utilizados, entre otros
tantos identificadores.
Las organizaciones deben saber aprovechar al máximo la información y explorar de
manera inteligente cómo pueden beneficiarse del análisis de los datos que generan sus
usuarios, operaciones, productos o servicios. No hay que olvidar que ahora, más que
nunca, el recurso intangible más valioso en nuestros tiempos es el poder de la
información y del conocimiento que obtengamos de éste.
2. Un mundo más conectado
Estamos en tiempos donde la conexión a múltiples sistemas de información es
innegable, cada vez nos conectamos a más servicios y somos más dependientes de
éstos. El paradigma ha cambiado en pocos años, tal como lo advierten Hilbert y Lopez
(2011), hemos pasado de ser analógicos a ser digitales, lo que ha propiciado que
estemos conectados desde diferentes dispositivos, a toda hora y desde cualquier lugar.
Como resultado vivimos en un mundo cada vez más conectado, donde la inmediatez de
la información se ha convertido en una necesidad de primer orden para hacer negocios,
establecer relaciones sociales, consumir contenidos multimedia e incluso, estudiar en
modalidades no tradicionales.
38
Figura 1. ¿Qué sucede en línea cada 60 segundos? Fuente: Smart Insigts.
Recuperado de: https://goo.gl/jiaDX2
La siguiente infografía hace un recuento del crecimiento que han tenido algunas de las
principales aplicaciones y servicios en Internet en los tres últimos años. Nos ayuda a
tener un referente de la magnitud de datos que llegan a manejar estas grandes
compañías, por ejemplo: en 2016, YouTube reporta que en su plataforma cargan 500
horas de vídeo cada 60 segundos, por lo que al término del año suman 262.8 millones
de horas de vídeo, es decir, para poder ver todo el contenido cargado en un año en
YouTube se requerirían 30000 años. Y los datos siguen creciendo año tras año.2
El ingeniero de datos en Facebook, Paul Butler (2010) interpretó muy bien el refrán “una
imagen vale más que mil palabras”, ya que a finales del 2010 desarrolló el ejemplo más
claro que tenemos hasta el momento sobre la visualización de un mundo más
conectado. Butler tomó una muestra de 10 millones de pares de amigos en Facebook y
los combinó con sus datos de ubicación (latitud y longitud), generando así la siguiente
visualización de datos:
39
En el artículo “40 maps that explain the internet” de Timothy B. Lee (2014), publicado
en el sitio Vox, podrán consultar diferentes mapas e información sobre la evolución y
conexión que ha tenido Internet desde sus inicios.
3. El valor subestimado de los datos
Las compañías como Google, Facebook y Twitter gastan increíbles cantidades de dinero
para mantener sus sistemas, sin embargo, los usuarios finales no son quienes pagan
directamente esos gastos, en lugar de ello proveen contenido a la vez que son objeto
de ambiciosas campañas publicitarias, lo que significa que otras compañías están
pagando los costos de infraestructura a cambio de obtener datos de los usuarios (Van
der Aalst, 2014). Para Twitter existen aplicaciones web donde se calcula el valor que
tiene una cuenta, lo cual es un estimado con base al número de seguidores que tengas,
la cantidad de personas que te siguen, los tweets que escribes y la velocidad con la que
ganas seguidores. Por ejemplo, al hacer la prueba en los sitios twalue.com y
tweetvalue.com reportaron que mi cuenta en Twitter (@jgmorenos) está valuada en
$18.47 y $44 dólares, respectivamente. Recientemente el analista Cakmak (2017),
analizó el valor que tiene para Twitter la cuenta de Donald Trump (37.4 millones de
seguidores con más de 35 mil Tweets) y la calculó en 2 mil millones de dólares. Hay que
considerar que estos valores son estimaciones y habrá que tomarlos con reserva, pero
al menos son una invitación para reflexionar y no subestimar el valor que tienen los
datos.
Son varios los casos de éxito en donde las compañías se han beneficiado por codificar
el valor oculto que tienen sus datos, para así mejorar sus productos y servicios,
principalmente. Por ejemplo, Netflix ha sabido utilizar bien sus datos, pues tiene como
objetivo principal: “ayudar a sus suscriptores a encontrar el contenido que realmente
disfrutan, maximizando así su satisfacción y retención” (Elahi, 2015, p. 4). Desde sus
inicios en 1997, con el servicio de renta y envío de DVD por correo postal, le dio una
gran importancia a los datos de sus usuarios y en 2000 comenzó a desarrollar lo que
sería su primer algoritmo (Cinematch) para crear un sistema que permitiera recomendar
contenido de alto interés para cada uno de sus suscriptores. En el 2006, Netflix abrió su
algoritmo a la comunidad científica y ofreció una recompensa de 1 millón de dólares
para quién(es) lograran mejorar en un 10% su capacidad predictora, tuvieron que pasar
tres años para que el grupo BellKor’s Pragmatic Chaos logrará resolverlo. En 2007
comenzó con su servicio de descarga y reproducción (streaming) de películas y series,
y después de seis años lograron recopilar suficientes datos para predecir con seguridad
el éxito de su primera producción original “House of Cards”. Éste es un claro ejemplo de
cómo ser exitosos codificando datos y lograr que una serie obtenga alto interés de parte
de los usuarios.
El sitio statista.com reportó que en el segundo cuatrimestre de 2017 Netflix tiene 103.9
millones de suscriptores a nivel mundial, de los cuales procesa en promedio 695 mil
millones de eventos por día, es decir, una base de datos de 1.8 Petabytes diarios.3
Algunos de los eventos registrados por Netflix son:
• ¿Desde dónde se conectan?
• ¿A través de qué dispositivo?
• ¿En qué horarios se conectan?
40
• ¿El tipo de contenido (película, serie) varia con el dispositivo?
• ¿Ven los créditos?
• ¿Cuánto tardan en ver el contenido?
• ¿Cuáles son sus actores y directores favoritos?
• ¿Qué y cómo califican?
• ¿Qué buscan?
• Etcétera.
Sin una gran cantidad de datos, no hubiera sido posible que Netflix siguiera entrenando
sus sistemas de recomendación. Se necesita contar con una gran serie de datos
históricos para poder analizar todas las posibles combinaciones, y así identificar
patrones y tendencias que permitan tener algoritmos más robustos al momento de hacer
las recomendaciones a sus suscriptores. Y tal como la misma compañía advierte
“alrededor del 75% de la visualización en Netflix es impulsada por el algoritmo de
recomendación” (Vanderbilt, 2013)
4. Científico de datos
El considerado padre del “management”, Peter Drucker (2004), reconoció que la
sociedad postcapitalista es una sociedad basada en el conocimiento, donde el centro
de la producción de la riqueza es el saber y no el capital. Los protagonistas claves en
esta economía del conocimiento serán los “trabajadores del conocimiento”, es decir, los
que posean las capacidades, las habilidades, el pensamiento creativo y la tecnología
para procesar, analizar y visualizar las grandes bases de datos.
Los “trabajadores del conocimiento” que menciona Drucker, son los que ahora ya tienen
un perfil más claro y se les conoce como científicos de datos, en ellos recae la
responsabilidad de entender en su máxima expresión los datos y sus relaciones, con el
objetivo de tomar decisiones más informadas a la vez que mejoran los productos y
servicios de las organizaciones.
Davenport y Patil en su artículo “Data Scientist:
The sexiest job of the 21st century” (2012), definieron por primera vez el concepto de
científico de datos y con ello generaron una gran revolución. De acuerdo con las
estadísticas obtenidas de scholar.google.com, el artículo ha sido citado 568 veces y se
han producido 15 versiones diferentes. Además de definir quién es un científico de
datos, presentan un decálogo para encontrar el científico de datos correcto, explican
cuáles son los intereses del profesional y de los cuidados que deberán tener las
empresas para conservarlos.
El científico de datos viene a dar solución a las preguntas, ¿cómo almacenar los datos?,
¿cómo analizar y obtener valor de los datos? y ¿cómo visualizar y comunicar lo que nos
quieren decir los datos?
En términos generales, el científico de datos combina estadística, matemáticas,
programación y solución de problemas, con la captura datos de forma ingeniosa y la
capacidad de mirar las cosas de manera diferente (encontrar patrones), además de
hacer las actividades propias de limpieza, preparación e integración de datos (Monnapa,
41
2017). De acuerdo con la encuesta que realizó la compañía Crowd Flower (2017) a 179
científicos de datos seleccionados en todo el mundo, identificó la distribución de las
actividades que les toma mayor tiempo en su quehacer, las cuales se distribuyen de la
siguiente manera:
● 51% colectar, etiquetar, limpiar y organizar los datos.
● 19% construir y modelar los datos.
● 10% el modelado de datos para patrones.
● 9% refinar algoritmos.
● 8% otras actividades.
Entre las actividades que más disfrutan, están: construir y modelar los datos, aplicar
minería de datos para encontrar patrones y refinar algoritmos. Entre las que menos
gustan, están: limpiar y organizar datos, etiquetarlos y colectarlos. El 51% de los
encuestados reportó que trabajan con datos no estructurados. Los datos con los que
trabajan provienen principalmente de los sistemas internos de las compañías en las que
trabajan, seguido de los que colectan de forma manual y, por último, de los conjuntos
de datos disponibles públicamente.
Son tres las áreas en las que se desarrollan principalmente los científicos de datos:
● Big Data para procesar datos,
● Minería de datos para analizar e identificar relaciones ocultas, patrones y
tendencias,
● Visualización de datos para explicar y socializar mejor la información obtenida.
También existe una amplia gama de técnicas y software especializado que el científico
de datos utiliza para desarrollarse en cada una de las áreas, de las cuáles se pueden
clasificar por herramientas de extracción, almacenamiento, limpieza, minería,
visualización, programación, análisis e integración de datos. En la siguiente figura se
presentan las habilidades, los conocimientos y la experiencia que debe poseer el
científico de datos, así como una muestra del software especializado y técnicas que
existen por sus áreas de desarrollo.
42
A continuación, se hace una breve descripción de cada una de las áreas e
intersecciones que se muestran en la figura, a la vez que se mencionan algunos
ejemplos de proyectos que realizan los científicos de datos.
5. Big Data
Los investigadores Cox y Ellsworth (1997) de la Administración Nacional de la
Aeronáutica y del Espacio (NASA por sus siglas en inglés), fueron los primeros en utilizar
el término Big Data en un artículo científico, en el que señalaron el problema al que se
enfrentaban al visualizar y el procesar grandes cantidades datos, así como las limitantes
técnicas de las computadoras (gráficos, memorias y almacenamiento) que tenían en
esos tiempos.
Ha sido un término que, al igual que su nombre, ha tenido una gran aceptación en todas
las industrias y son muchas las definiciones que existen al respecto, en particular me
gusta definir el concepto de Big Data como: el gran cúmulo de datos compuesto por
diferentes tipos, estructuras y relaciones de datos, que a su vez tienen veloces tasas de
generación y dispersión, y el procesarlos con tecnologías convencionales para su
posterior análisis es parte del problema (Big Problem).
De acuerdo con Van der Aalst (2014), utiliza el término Internet of Events (IoE) para
referir a todos los datos disponibles en Internet. Y los clasifica de la siguiente manera:
● Internet of the Content (IoC). Es toda la información creada por los seres
humanos para aumentar el conocimiento sobre temas particulares. Incluye
páginas web tradicionales, artículos, enciclopedias como Wikipedia, YouTube,
libros electrónicos, noticias, etcétera.
● Internet of the People (IoP). Son todos los datos relacionados con la interacción
social. Es decir, correo electrónico, Facebook, Twitter, foros, LinkedIn, etcétera.
● Internet of the Things (IoT). Son todos los objetos físicos conectados a la red.
Son todas las cosas que tienen una identificación única y una presencia en una
estructura similar a Internet. Las cosas pueden tener una conexión a Internet o
estar etiquetados usando identificación por radio frecuencia (RFID por sus siglas
en inglés), proximidad a campos de comunicación (NFC por sus siglas en inglés),
etcétera.
● Internet of the Locations (IoL). Refiere a todos los datos que tienen una
dimensión espacial. Con la adopción de dispositivos móviles (por ejemplo,
teléfonos inteligentes) cada vez más eventos tienen atributos geoespaciales.
Es importante contar con este marco de referencia, ya que es una buena forma para
clasificar la generación del Big Data por tipos de eventos.
6. Minería de datos
En términos sumamente prácticos la minería de datos la podemos definir como a la
extracción de conocimientos de grandes cantidades de datos. Han y Kamber (2006),
hacen una interesante crítica al concepto de minería de datos: “la extracción de oro de
las rocas o la arena se conoce como minería de oro en lugar de minería de roca o arena.
Por lo tanto, la minería de datos debería haber sido más apropiadamente llamada
minería del conocimiento a partir de datos. Sin embargo, la minería es un término vívido
43
que caracteriza al proceso de encontrar un pequeño conjunto de preciosas pepitas en
una gran cantidad de materia prima” (p. 5).
La minería de datos tiene dos referentes principales. Al primero se le conoce como el
proceso de descubrimiento de conocimiento en bases de datos (mejor conocido por sus
siglas en inglés, KDD), que fue promovido en 1989 por iniciativa de Shapiro y Smyth
(1996) y está definido por cinco etapas (selección, pre-procesamiento, transformación,
minería de datos e interpretación/evaluación). El segundo es el proceso estándar de la
industria para la minería de datos (mejor conocido por sus siglas en inglés, CRISP-DM),
el cual fue concebido en 1996 y define seis fases en su proceso (comprensión del
negocio, comprensión de datos, preparación de datos, modelado, evaluación e
implementación) (Wirth y Hipp, 2000).
La minería de datos en principio trabaja sobre todo tipo de datos. Los estructurados se
refieren a las bases de datos relacionales (filas y columnas claramente identificadas);
los semiestructurados son los que tienen un tipo de estructura implícita, pero no como
para ser automatizada como la estructurada (datos espaciales, temporales y textuales);
los no estructurados son los que principalmente provienen de sitios en Internet y son del
tipo multimedia (imágenes, audio y videos). Los dos últimos se identifican con la minería
de textos y la minería web, respectivamente.
Entre las principales técnicas que se utilizan en la minería de datos, están: regresión
lineal, estimación de densidad, reconocimiento de patrones, series de tiempo, árboles
de decisión, estadística Bayesiana, redes neuronales, aprendizaje supervisado y no
supervisado, k vecinos más próximos (K-NN), sistemas de recomendación, modelos
predictivos, teoría de juegos, aprendizaje profundo, entre otros más. Para mayor
información de cada una de las técnicas, se sugiere revisar a Granville (2016).
7. Visualización de datos
La visualización de datos es considerada por algunos como una ciencia y hay quienes
la clasifican como un arte, cuando en realidad es una combinación de ambas. Sus
principales precursores justo provienen de las ciencias exactas, que han tenido la
necesidad de recurrir al campo de la creatividad y del arte, con el propósito de
representar con fines estéticos algún aspecto de la realidad.
Imagen: mcmurryjulie.
44
La visualización de datos sólo tendrá éxito en la medida que nuestros ojos codifiquen la
información para poder discernirla y nuestros cerebros la pueden entender. El objetivo
es traducir de maneras fáciles, eficientes, precisas y decodificadas la información
abstracta en representaciones visuales significativas (Few, 2013).
La visualización de datos ayuda al usuario a examinar una gran cantidad de datos e
identificar patrones o tendencias con la ayuda de gráficas o representaciones. Una sola
gráfica puede codificar mucha más información que la que se puede presentar en varias
hojas de texto (Pujari, 2001, p. 48).
La visualización de datos que ahora conocemos ha sido desarrollada a lo largo de la
humanidad, siempre ha existido la necesidad de abstraer y comunicar información.
Desde siglo II d. C. se han organizado los datos en tablas (columnas y filas), pero la idea
de representar gráficamente la información cuantitativa surgió hasta el siglo XVII,
cuando el filósofo y matemático francés René Descartes desarrolló un sistema de
coordenadas bidimensional para mostrar valores. A finales del siglo XVIII, el ingeniero y
economista William Playfair encontró el potencial de los gráficos para la comunicación
de datos cuantitativos, definió muchos de los gráficos que se utilizan actualmente
(barras y líneas en función del tiempo), incluso inventó el gráfico circular (pastel). Cabe
señalar que este tipo de gráfico ha sido objeto de muchas críticas por parte de los
especialistas en el área de visualización de datos y percepción. Por ejemplo, Few (2013)
ha demostrado que es ineficaz, ya que codifica los valores como atributos visuales
(áreas y ángulos), lo que impide percibir y comparar fácilmente.
El trabajo del cartógrafo Jacques Bertin fue fundamental, pues descubrió que la
percepción visual opera según reglas que se pueden seguir para expresar visualmente
la información de manera intuitiva, clara, precisa y eficiente. El profesor de estadística
en Princeton, John W. Tukey, dio forma a un nuevo enfoque estadístico llamado análisis
exploratorio de datos, y fue quien realmente introdujo el poder de la visualización de
datos como un medio para explorar y dar sentido a los datos cuantitativos. El estadístico
y artista Edward R. Tufte publicó en 1983 el libro The Visual Display of Quantitative
Information, mismo que revolucionó las formas eficaces de mostrar los datos
visualmente. El matemático William S. Cleveland con la publicación de sus libros The
Elements of Graphing Data y Visualizing Data hizo grandes aportaciones en cuanto a
las técnicas que utilizan los estadísticos para la visualización de datos. En 1999, los
investigadores Stuart Card, Jock Mackinlay y Ben Shneiderman acuñaron una nueva
especialidad “visualización de la información” y publicaron el libro Information
Visualization, Using Vision to Think, en el que recopilan mucho del trabajo académico
que se había realizado hasta ese momento, y a nuestros días es uno de los principales
referentes de la visualización de datos e información (Few, 2013).
Imagen: geralt.
47
a) Ciberseguridad: identificación de ciberamenazas
La detección se realiza a partir de los datos de acceso a los sistemas y recursos de red.
Se buscan patrones y se procede a dar la alerta cuando se detectan situaciones que no
respondan a un patrón predefinido.
Se genera cantidad de información que hay que preparar, filtrar, limpiar e introducir
en los modelos de Machine Learning o Deep Learning para predecir fallos con
antelación. Como consecuencia, se consiguen sustanciosos ahorros en revisiones
periódicas o en compra de piezas de repuesto. Por no hablar de evitar que una planta
de producción se pare por sorpresa.
Actualmente, la Ciencia de Datos es capaz de usar como fuentes a las redes sociales
en tiempo real. De esta manera, se puede desde predecir la demanda de un producto
hasta crearla a partir de ofertas segmentadas por clase social, preferencias culturales,
nivel adquisitivo, género, aficiones...
48
En los departamentos de marketing, estos datos ayudan a confeccionar informes previos
a campañas, lanzamientos o promociones. Y la visualización de datos, por supuesto, es
parte también de la oferta formativa en Ciencia de Datos de IMMUNE.
Valga Google Fotos como ejemplo. En esta plataforma, las fotos que subimos se
analizan y clasifican automáticamente a partir de aquellos elementos que la IA de
Google es capaz de identificar, ya sean coches, aviones, personas, flores, comida,
animales, paisajes o lugares singulares, entre otros.
También se emplea para detectar el uso fraudulento del grid ─como pueden ser
enganches ilegales─, prevenir caídas de suministro o tarificar en tiempo real.
j) Redes Sociales
Las redes sociales proporcionan una cantidad ingente de información, lo que supone
una gran oportunidad para obtener conocimiento útil, como información sobre el
comportamiento de los usuarios y la interacción entre ellos, lo que en el caso de las
empresas puede redundar finalmente en una ventaja competitiva. La explotación de esta
información no es sólo una oportunidad sino también un reto importante, ya que, a
diferencia del análisis de textos tradicional, en el que se investigaba el contenido con el
objetivo de obtener información para su clasificación, en este caso, la explotación se
complica, tanto por la cantidad de datos de entrada como por su naturaleza. Por ejemplo,
es preciso considerar nuevas variables, como los seguidores (en el argot de Twitter, los
denominados followers).
51
millones de datos. De acuerdo a Arthur Samuel en 1959, le da a las computadoras la
habilidad de aprender sin ser explícitamente programadas.
Las técnicas de aprendizaje automático (Machine Learning) están en pleno desarrollo
de transformación y se puede definir como, un conjunto de métodos capaces de detectar
automáticamente patrones en los datos para realizar predicciones, o para tomar otros
tipos de decisiones en entorno de incertidumbre. (Management Solutions, 2018).
Los componentes principales del aprendizaje automático se pueden clasificar en cuatro
grupos:
• Las fuentes de información, que pueden aportar datos tantos estructurados como no
estructurados, y que son la base del reto de componentes.
• Las técnicas y algoritmos para el tratamiento de información no estructurada como
pueden ser: texto, voz, video, entre otros; y para la obtención de patrones a partir de
datos.
• La capacidad de autoaprendizaje, que permite que el algoritmo se adapte a los
cambios en los datos.
• El uso de sistemas y software como vehículo para la visualización de la información y
la programación.
Machine Learning utiliza algoritmos para convertir un conjunto de datos en un modelo
predictivo. El tipo de algoritmo que funciona mejor (supervisado, no supervisado,
clasificación, regresión, entre otros.) depende del tipo de problema que está resolviendo,
los recursos informáticos y la naturaleza de los datos. (Robertson, 2019)
Las técnicas de aprendizaje automático se emplean para localizar en los datos y crear
modelos que pronostiquen los resultados futuros. Hay disponible una amplia gama de
algoritmos de aprendizaje automático, incluidas regresiones lineales y no lineales,
algoritmos de clasificación, de clustering, redes neuronales, máquinas de vectores de
soporte, árboles de decisión, entre otros.
Lenguajes de programación R y Python para análisis de datos
Se describen los dos lenguajes de programación más populares en el ámbito de Ciencia
de los Datos y del análisis de datos, R y Python.
R: Es un lenguaje de programación para efectuar análisis de datos estadísticos y
visualizar gráficas de los mismos datos. Además, es un software libre, gratuito, accesible
y siempre a la vanguardia. (r-project.org, 2019)
Python: Es un lenguaje de programación y/o software de libre uso, ejecución,
distribución y modificación, además de que no tiene costo para quien lo usa. Una de sus
características es que es de alto nivel. Programación orientada a objetos. Dispone de
un rico ecosistema compuesto de librerías open source para matemáticas, estadísticas,
machine learning y ciencia en general. (python, s.f.)
14. Inteligencia Artificial
Todas las definiciones de Inteligencia Artificial están relacionadas con la siguiente idea:
Desarrollo de métodos y algoritmos que permitan comportarse a las computadoras de
modo inteligente.
52
Los procesos que se llevan a cabo en el cerebro pueden ser analizados, a un nivel de
abstracción dado, como procesos computacionales de algún tipo.
El propósito de la IA es hacer computacional el conocimiento humano por
procedimientos simbólicos o conexionistas.
Se corresponden con los dos paradigmas de la IA:
• IA clásica o simbólica: programable y basado en el supuesto del conocimiento
explicable por procedimientos de manipulación de símbolos.
• IA conexionista: autoprogramable por aprendizaje y donde el conocimiento
viene representado la propia estructura de la red neuronal
El gran problema de la IA es la representación del conocimiento
NIVELES DE CONOCIMIENTO
53
Butler, P. (2010). Visualizing Friendships. Facebook: Facebook Enginering. Recuperado
de <https://goo.gl/AaHLN>.
Cox, M. y Ellswort, D. (1997). Managing Big Data for Scientific Visualization.
ResearchGate.net. Recuperado de <https://goo.gl/DLj8sd>.
Crowd Flower (2017). Data Scientist Report 2017. Crowdflower.com. Recuperado de
<https://goo.gl/4XsUKD>.
Davenport, T. H. y Patil, D. J. (2012). Data Scientist: The Sexiest Job of the 21st
Century. Harvard Business Review, 90 (10). Recuperado de <https://goo.gl/65IMw1>.
Drucker, P. F. (2004). La sociedad postcapitalista. Medellín, Colombia: Norma
Elahi, E. (2015). Spark and GraphX in the Netflix Recommender System. SlideShare.
Recuperado de <https://goo.gl/LUQqx4>.
Few, S. (2013). Data Visualization for Human Perception. En M. Soegaard (2nd Ed.),
The Encyclopedia of Human-Computer Interaction. Aarhus, Denmark: The Interaction
Design Foundation. Recuperado de: <https://goo.gl/7uYrrp>.
Monnappa, A. (2017). Data Science vs. Big Data vs. Data Analytics. Simplilearn.com.
Recuperado de <https://goo.gl/EAYQRc>.
Moreno, G. S., Stephens, C. R. (2015). Applying Data Mining Techniques to Identify
Success Factors in Students Enrolled in Distance Learning: A Case Study. Advances in
Artificial Intelligence and Its Applications: Springer. Recuperado de
<https://goo.gl/zFLHtJ>.
Pujari, A. K. (2001). Data Mining Techniques. Hyderabad, India: Universities Press.
Ratti, C. (2014). Drinking Data. senseable.mit.edu: MIT Senseable City Lab. Recuperado
de <https://goo.gl/QkJ4iw>.
Shapiro, G. P., Smyth P. (1996). The KDD Process for Extracting Useful Knowledge from
Volumes of Data. Communications of the ACM. Volumen (39, 11), 27-34. Recuperado
de <https://goo.gl/L67PYa>.
Van der Aalst, W. M. P. (2014). Data Scientist: The Engineer of the Future. Enterprise
Interoperability, volume 7, 13-28. Springer. Recuperado de <https://goo.gl/yiaE9F>.
Sitios Consultados
https://www.nebrija.es/~cmalagon/ia/transparencias/introduccion_IA.pdf
https://www.frba.utn.edu.ar/wp-content/uploads/2021/02/IIA-mod1-Fundamentos.pdf
54
Unidad 3
INTRODUCCIÓN A
PROGRAMACIÓN
55
1. Introducción:
2. ¿Qué es la programación?
La programación es lo que permite que un ordenador funcione y realice las tareas que
el usuario solicita.
56
4. Estructura básica de un programa
Instrucciones:
57
Elementos básicos de un programa
Además de estos elementos básicos, existen otros elementos que forman parte de los
programas, cuya comprensión y funcionamiento será vital para el diseño correcto de un
algoritmo y naturalmente la codificación del programa.
● bucles,
● contadores,
● acumuladores,
● interruptores,
● estructuras:
1. secuenciales,
2. selectivos,
3. repetitivas.
58
El amplio conocimiento de todos los elementos de programación y el modo de su
integración en los programas constituyen las técnicas de programación que todo buen
programador debe conocer.
Se dice que un sistema es binario cuando solo caben dos posibles resultados o
respuestas a un planteo determinado. El código binario es la base de la informática al
reducir todas las posibles instrucciones interpretadas por la máquina a un código de
unos y ceros (encendido/apagado; sí/no) por el que el microprocesador funciona y
ejecuta las órdenes introducidas en él. Por ejemplo, dispositivos de hardware como las
memorias de almacenamiento funcionan sobre la base de bits y brindan dos
posibilidades de lectura o escritura: 0 o 1. Estos valores sirven para representar
determinados datos, como blanco o negro, masculino o femenino, verdadero o falso,
mayor o menor de edad, etc. En 0 un bit está apagado, en 1 su estado es el de
encendido. El concepto de bit está presente en las computadoras desde al menos 1936.
En aquella época se utilizaban tarjetas perforadas: unas tarjetas de cartulina que servían
para ingresar información e instrucciones en una computadora, que simplemente leía la
presencia o ausencia de perforación y establecía un patrón. Pero su utilización con el
nombre de bit se llevó a cabo por primera vez en 1948, en un trabajo académico
realizado por Claude E. Shannon, ingeniero y matemático estadounidense, creador de
la Teoría Matemática de la Comunicación. Explicamos que el bit es la unidad mínima de
este código y como su nombre lo indica es binario, permite dos combinaciones: 0 o 1.
Pero esta unidad mínima permite una secuencia de 8 bits contiguos, a la que se
denomina byte. Aunque este concepto aplicado a la tecnología parece muy limitado,
cuando se usa de forma combinada permite representar un sinfín de datos expresados
en valores. Por ejemplo: 00000000, 01010101, 00110011, 00010001, y así en miles de
combinaciones posibles.
Código binario:
59
7. Fundamentos de programación. Lenguaje de bajo nivel.
El código fuente está formado por líneas de texto que expresan en lenguaje de
programación las instrucciones que debe llevar a cabo el ordenador. Este código es
creado, diseñado, codificado, mantenido y depurado a través de la programación.
60
Tipos de lenguaje de bajo nivel y ejemplos:
El término lenguaje de bajo nivel no es ningún lenguaje en concreto, sino que engloba
varios tipos de lenguajes, existen tres tipos distintos. A continuación, te los
explicaremos, ordenados de menor a mayor complejidad y junto con algunos ejemplos
para que te queden claros.
Las instrucciones del lenguaje de bajo nivel, generalmente son una denominación
abreviada de la instrucción que simbolizan, y se corresponden casi directamente (uno a
uno) a las mismas instrucciones que representan. El código que sale de hacer una
compilación del lenguaje ensamblador, genera un código de máquina binario ejecutable.
61
para evitar cometer errores que puedan incrementar de forma sensible el trabajo y la
revisión que se haga del código.
Aunque a muchos lo de programar les suena a algo complicado, en realidad hoy en día
es muy sencillo, y con unas nociones básicas cualquiera podría crear su propio
programa. Esto es posible gracias a los lenguajes de programación de alto nivel,
lenguajes que utilizan instrucciones claras usando un lenguaje natural.
Los lenguajes de alto nivel están pensados para poder ejecutarse sin problemas en
cualquier máquina, independientemente del hardware que utilice. Esto es posible
gracias a los compiladores y a los intérpretes que, normalmente, vienen incluidos de
forma nativa en los sistemas operativos. Da igual que un programa esté programado en
C++, en .NET, en Java o en Python, que, si el código ha pasado por el compilador, y
tenemos el intérprete necesario (como la máquina virtual de Java) podremos ejecutarlos
en cualquier sistema operativo, use el hardware que use.
Estos lenguajes de programación están pensados, sobre todo, para trabajar con
estructuras dinámicas de datos. Los lenguajes de medio y bajo nivel no pueden cambiar
el tamaño de las estructuras mientras se ejecutan, lo que puede dar lugar a un consumo
excesivo de recursos, o a problemas por falta de tamaño. Gracias a estas estructuras
dinámicas, el programa se puede ajustar a las necesidades de cada sistema. Son
lenguajes orientados a objetos, eventos o funciones.
Las ventajas de este tipo de lenguajes son la creación de un código mucho más natural
y comprensible, un programa sirve para cualquier máquina y cualquier sistema, soporta
paradigmas de programación y permite la creación de programas complejos con menos
62
líneas. Entre sus inconvenientes, eso sí, debemos destacar una pérdida de rendimiento
de los programas (ya que deben ser interpretados) y que, en algunos casos, dependen
los programas de plataformas concretas.
Tanto compiladores como interpretadores son programas que convierten el código que
escribes a lenguaje de máquina.
Lenguaje de máquina son las instrucciones que entiende el computador (el procesador
para ser más exactos) en código binario (unos y ceros).
63
Ejemplos de lenguajes compilados incluyen C, C++, Java, Go y Rust, entre muchos
otros. Ejemplos de lenguajes interpretados incluyen Ruby, Python y JavaScript, entre
muchos otros. A todos estos lenguajes se les conoce como lenguajes de alto nivel.
$ ruby hello.rb
int main()
printf("Hola Mundo");
return 0;
Eso crea un archivo llamado hello (sin extensión) con el código de máquina (llamado el
ejecutable) que puedes correr en la consola con el siguiente comando:
$ ./hello
Ventajas y desventajas:
64
En general, el ciclo de desarrollo (el tiempo entre el momento en que escribes el código
y lo pruebas) es más rápido en un lenguaje interpretado. Eso se debe a que en lenguajes
compilados es necesario realizar el proceso de compilación cada vez que cambias el
código fuente, aunque con herramientas adicionales se puede automatizar.
Sin embargo, un lenguaje compilado es mucho más rápido que uno interpretado. Esto
se debe a que cuando es ejecutado ya se encuentra en código de máquina y eso
también le permite hacer algunas optimizaciones que no son posibles con un lenguaje
interpretado.
Bibliografía:
1. Luis Joyanes Aguilar. (2008). Fundamentos de programación: algoritmos,
estructura de datos y objetos. Madrid: McGraw-Hill.
2. BRAUNSTEIN, Silvia; L. GIOIA y Alicia B.(1986). Introducción a la
programación y a las estructuras de datos. Buenos Aires.Eudeba.
3. JOYANES , L. RODRIGUEZ , L y FERNANDEZ, M. (2003). Fundamentos de
programación. Madrid: McGraw-Hill.
Sitios Consultados
https://www.u-
cursos.cl/ingenieria/2011/2/CC3501/1/material_docente/bajar?id_material=3817
52
65
Unidad 4
TÉCNICAS DE ESTUDIO EN
CONTEXTOS DIGITALES
66
En el siguiente esquema se presenta las Técnicas para el análisis de Contenido
1.1 El subrayado
Según Cuenca (2000), “Esta técnica tiene por objeto resaltar, mediante el subrayado
con trazos diferentes o colores, las palabras del texto que contienen o representan las
ideas o conceptos fundamentales y los enlaces (y, ni, pero…) que puedan favorecer la
comprensión o estructura del texto escrito” (p.211). Pueden destacarse con una línea,
horizontal o vertical, los enunciados que expresen las ideas principales de un texto. Otra
forma importante de destacar información relevante es subrayar solamente las palabras
clave del texto que se está trabajando.
Con el subrayado se busca que el lector extraiga del texto las ideas principales y las
secundarias del autor, para lo cual se pueden utilizar diferentes señales y colores.
Esta técnica concentra la atención del estudiante y lo convierte en una persona reflexiva
de manera que detecta lo fundamental de la lectura, así mismo posibilita la elaboración
de esquemas y resúmenes facilitando el estudio y la comprensión del texto.
• El subrayado horizontal o lineal que se realiza colocando una línea debajo de las
palabras clave que se desea distinguir.
• El subrayado vertical se emplea para destacar varias líneas de un mismo párrafo.
Se coloca al extremo del párrafo a destacar.
67
• El subrayado estructural permite destacar las ideas utilizando para ello notas al
margen respondiendo interrogantes claves.
Subrayar las palabras claves: verbo, sustantivo y adjetivo. Estas claves las podemos
emplear como pregunta.
Ejemplos:
Veamos un ejemplo:
Ejemplo de subrayado: …
LA REDACCIÓN CIENTÍFICA
68
que los adornos literarios floridos, las metáforas, los símiles y las expresiones
idiomáticas induzcan a confusión, por lo que rara vez deben utilizarse al redactar
artículos de investigación.
Este tipo de trabajo nos ayuda a realizar el estudio más activo y agradable y comprender
mejor el tema para posteriormente realizar el subrayado y el esquema, asimismo nos
permite plantear los subtítulos del tema.
Veamos un ejemplo: …
IMPORTANCIA DE LA MONOGRAFÍA
Es investigación científica
69
Técnicas que aplica
3. El RESUMEN
Es una de las técnicas más utilizadas por el estudiante pues orienta el sentido y
comprensión del texto que analiza. Muchos aún consideran que el resumen es la
sumatoria de las ideas principales de un texto ordenadas con lógica y coherencia, lo
cual es válido. Según Bernardo (2000):
Condiciones:
• Lectura completa del texto que va a resumirse (detallada y con alto grado de
atención).
• Subrayado de las ideas principales de cada párrafo.
• Recopilación de los datos esenciales, proceso particular que debe hacerse
durante la lectura debe tomarse algunas notas, incluso anotarlas como notas al
margen al costado del párrafo leído).
• Estudio, interpretación y comprensión de los datos obtenidos, con el propósito
de valorarlos y de descubrir las relaciones que entre ellos existan.
70
• Redacción del resumen, que consiste en consignar por escrito los diversos datos
interpretados, siguiendo el orden que presupone la estructura del texto.
• Debe ser breve y presentar un estilo narrativo.
4. LA SÍNTESIS
…tiene por finalidad exponer brevemente las ideas fundamentales de un texto, pero con
palabras propias de quien lo realiza. Esto exige la transformación de lo leído en frases
comprendidas y asimiladas, poniendo en juego el pensamiento reflexivo, la elaboración
personal y el uso de un lenguaje propio… (pp. 47-48).
Leer antes de la clase los textos o temas indicados nos sitúa con un conocimiento de
base o un esquema previo que facilitará la comprensión de lo que el profesor nos va a
decir a continuación. Se puede decir que cuanto más elevados sean nuestros
conocimientos previos, más relajada y selectiva será nuestra anotación y, también por
ello, el esfuerzo posterior para elaborar y estudiar los apuntes será menor.
71
La planificación de la toma de notas
La supervisión y revisión
El estudiante organizador dirigirá sus primeros pasos a revisar las notas que ya ha
tomado antes o el guion de la explicación. Durante la explicación se centrará en estudiar
el comportamiento del profesor-clave discursivo, lenguaje no verbal…-para descubrir la
manera en la que está organizando las ideas. El estudiante elaborador se prepara
dedicando un tiempo a portar a la situación sus conocimientos y experiencias previas
con objeto de asegurarse, antes de anotar, que la información que está recibiendo
significa algo para él.
Este se considera uno de los formatos más eficaces de toma de notas, sugiere utilizar
una hoja dividida en dos columnas. La columna de la izquierda se conoce con el nombre
de “columna de indicios”. En la columna de la derecha, más ancha, es donde se
recogerían las notas de la explicación de la manera más completa y comprensible
posible. Este sistema de indicios hace más fácil la memorización de la información ya
que el estudiante observando únicamente claves o recordatorios, puede recuperar y
recitar con sus propias palabras las ideas e informaciones recogidas en forma de notas.
Por ejemplo:
72
6. PREPARACIÓN Y DESARROLLO DE EXÁMENES
Los exámenes son situaciones que ponen a prueba el aprendizaje que usted ha
alcanzado. Representa una oportunidad para darte cuenta de los aspectos que aún no
dominas, no sólo sirven para calificar también son un termómetro del aprendizaje.
Estudiar. - leer cada unidad, tema o capítulo de manera independiente, pero en orden,
no iniciar la lectura de una unidad sino se terminó el estudio de la anterior, después
releer cada apartado o subtema de la unidad.
Esta tarea de estudio se la puede facilitar aclarándole lo que realmente tiene importancia
y lo que no, el propio profesor. Es importante saber qué tipo de examen se le va a tomar:
test, práctico, teórico, de propia producción de las respuestas, concreto y de respuestas
cortas, etc.
A partir de ahí ya se puede ir haciendo una idea de cómo va a tener que estudiar: con
gran memorización, con conexión de ideas, con todos los datos importancia, etc.
GLOSARIO
73
Devenir: En Filosofía, movimiento o proceso por el que, en el curso del tiempo, las cosas
y los seres se hacen o se transforman.
BILIOGRAFÍA
Bernardo, J. (2000). Cómo aprender mejor. Estrategias de aprendizaje. (3a. ed.) Madrid:
Ediciones RIALP S.A.
ANTONIO BRIZ, MARTA ALBELDA, MARÍA JOSÉ FERNÁNDEZ, “Saber hablar “Edit.
Aguilar, 2008.
74
Unidad 5
MATEMÁTICAS
75
CONJUNTOS NUMÉRICOS
CLASIFICACIÓN DE NÚMEROS
N Números Naturales
Son los números ordinarios que se utilizan para contar.
Las propiedades de los números naturales son:
1. Que un número natural va después del otro.
2. Que dentro de dos números naturales consecutivos no puede haber otro.
3. Que son infinitos.
Números Enteros
Son un conjunto de números que incluye a los números naturales distintos de cero (1,
2, 3, ...), los negativos de los números naturales (..., −3, −2, −1) y al 0. El valor absoluto
de un número entero es el número natural que resulta de quitarle el signo. El valor
absoluto de 0 es simplemente 0. Se representa por dos barras verticales «| |».
76
Q Números Racionales
se puede representar como la división entre 2 números enteros a/b, a y b pertenecen a
los números enteros (pertenecen a Z), b distinto de 0.
Número periódico: es un número racional caracterizado por tener un período (cifras
que se repiten indefinidamente) en su expansión decimal. Este período puede constar
de una o varias cifras, como:
El período se puede expresar escribiendo un arco encima de las cifras repetidas, por
ejemplo:
I Números Irracionales
no se pueden representar como la división entre 2 números enteros a/b, a y b NO
pertenecen a los números enteros, b distinto de 0. Ejemplo: pi, e, son números que su
representación decimal es infinita, nunca se acaba y nunca es periódica. De este modo,
puede definirse al número irracional como un decimal infinito no periódico.
R Números reales
Es la unión de los números racionales y los irracionales conforma un conjunto
denominado de los números reales.
Representación gráfica de los Números Reales
77
El conjunto R de los números reales se representa sobre una línea llamada recta real.
Los números reales llenan completamente esta recta.
OPERACIONES NUMERICAS
En el conjunto R de los números reales se definen corrientemente dos operaciones o
leyes de composición, llamadas suma y producto, con respecto a las cuales verifica las
siguientes propiedades:
Potencias
78
79
Radicación
Ejemplo:
2. Cociente de radicales. Para dividir radicales con el mismo índice se dividen los
radicandos y se deja el mismo índice.
Ejemplo:
Ejemplo:
Ejemplo:
80
Realiza las operaciones:
NOTACIÓN CIENTÍFICA.
La notacion cientifica es un recurso matematico empleado para simpIificar cálculos y
representar en forma concisa en números muy grandes o muy pequeños. Para hacerlo
se usa potencia de diez.
La notación científica significa que un número (entre el 1 y el 10) es multiplicado
por una potencia de base 10. Por ejemplo 3,1 x 102 es igual a 3,1 por 100=310.
En el sistema decimal, cualquier número real puede expresarse mediante la
denominada notación científica.
81
ser positivo si se mueve a la izquierda. En todos los casos se trata de un número
entero.
Pero en notación científica, el diámetro de una célula roja se escribe como 6.5 x 10-3
milímetros, y un año luz es más o menos 1 x 1016 metros. Esas cantidades son más
fáciles de usar que sus versiones largas.
Nota que es el exponente el que nos dice si el término es un número muy grande o muy
pequeño. Si el número es ≥ 1 en la notación decimal estándar, el exponente será ≥ 0 en
notación científica. En otras palabras, números grandes requieren potencias positivas
de 10.
Si un número está entre 0 y 1 en notación estándar, el exponente será < 0 en notación
científica. Números pequeños son descritos por potencias negativas de 10.
Como es tan útil, veamos más de cerca los detalles del formato de la notación científica.
82
Cambiando de Forma Decimal a Notación Científica
• La coma decimal debe ser movida hacia la izquierda para poder minimizar el
número. La coma debe llegar hasta el lado derecho del primer dígito del número.
• Lo primero que se escribe es el coeficiente, luego le sigue el signo de
multiplicación.
• Al final sólo nos queda colocar la base de 10 y luego usamos como exponente
el total de espacios que la coma se movió.
• 123.000.000.000.000
Al igual que el caso anterior, cuando hablamos de números que son muy pequeños,
también empleamos una serie de recomendaciones o pasos a seguir. Esto con la ide de
hacer la representación de manera correcta.
• Se debe mover la coma decimal los espacios a la derecha que sean necesarios
hasta alcanzar el lado derecho del primer dígito.
• Después de colocar el signo de multiplicación es que se coloca entonces el
coeficiente.
• La cantidad de espacios que la coma se movió es el número que usaremos como
exponente de la base de 10. Este exponente debe representarse siempre con el
signo negativo antes del número.
• 0,0000000000654
En este caso debemos mover la coma un total de 11 veces hacia el lado derecho. El
coeficiente que nos queda viene a ser el 6,54. Entonces la base de 10 se debe elevar a
la menos de 11.
Esto nos dice que en notación científica ese número sería igual a: 6,54 x 10-11
84
OPERACIONES CON NÚMEROS EN NOTACIÓN CIENTÍFICA
Números que están escritos en notación científica pueden ser multiplicados y divididos
fácilmente aprovechando algunas propiedades y reglas. Para multiplicar números en
notación científica, primero multiplicamos los números que no son potencias de 10 (la a
en a x 10n). Luego multiplicamos las potencias de 10 al sumar los exponentes.
Esto producirá un nuevo número por una potencia de 10 diferente. Todo lo que tenemos
que hacer es comprobar si este nuevo valor está en notación científica. Si no, lo
convertimos.
Veamos un ejemplo
Para dividir números en notación científica, también aplicamos las propiedades de los
números y las reglas de los exponentes. Empezamos por dividir los números que no son
potencias de 10 (la a en a x 10n). Luego dividimos las potencias de 10 al restar los
exponentes.
Veamos un ejemplo:
85
Suma y resta de números expresados en notación científica
• Caso 1: cuando los números a sumar o restar tienen la misma potencia de base
10.
• Caso 2: cuando los números a sumar o restar NO tienen la misma potencia de
base 10.
Caso 1: cuando los números a sumar o restar tienen la misma potencia de base
10.
En este caso, cuando los números a sumar o restar tienen la misma potencia de base
10, lo único que tenemos será sumar o restar las mantisas (números que van delante
de las potencias de base 10). Veamos un ejemplo:
86
Caso 2: cuando los números a sumar o restar NO tienen la misma potencia de base
10.
Ejercicios:
A) 4.25 x 100.08
B) 0.425 x 107
87
C) 42.5 x 105
D) 4.25 x 106
A) 7 x 109
B) 0.68 x 1010
C) 6.8 x 109
D) 68 x 108
A) 15,700,000,000
B) 0.000000000157
C) 0.0000000000157
D) 157 x 10-12
A) 1.2 x 10-4
B) 12 x 10-5
C) 7 x 10-5
D) 1.2 x 10-50
88
c) Es una ecuación lineal de primer grado con tres incógnitas x, y, z; su grafica es una
recta.
Establecer la solución de una ecuación lineal o resolver una ecuación consiste en hallar
el valor de la o las incógnitas que reciben el nombre de raíz o solución.
Por ejemplo resolver la ecuación 3 x -1 = 5 consiste en hacer pasaje de términos,
despejando para establecer el valor de x del siguiente modo:
3x=5+1
x=6:3
x = 2 que es la raíz
b) 6x2 – 12 = 0
Ejemplos:
Sea: x2 – 81 = 0 x2 = 81 x1 = +√81 = +9 X2= - √81 = -9
Caso particular 100x2 + 16 = 0
100x2 = -16
x2 = - 16/100 = - 0,16
x = √−0,16
Expresión que carece de significado numérico. Se logra sin embargo darle un sentido
aritmético mediante una nueva ampliación del campo numérico por introducción de los
números llamados imaginarios, se aclara que x1 y x2 son las raíces de las ecuaciones.
89
Formula que resuelve la ecuación general de segundo grado con una incógnita
Ejemplo:
Ejercicios propuestos
Resolver las siguientes ecuaciones de segundo grado:
Interpretación Grafica
La representación gráfica de una función cuadrática es una parábola y se obtiene
asignándole valores a la ecuación.
Ecuaciones fraccionarias: Se llama ecuación fraccionaria a toda igualdad en la que
figuran una o más incógnitas en el denominador.
Ejemplos:
Método gráfico
Para resolver gráficamente un sistema de dos ecuaciones con dos incógnitas se
representan gráficamente cada una de ellas y las coordenadas del punto de intersección
de las dos graficas constituyen la solución del sistema.
Método de Sustitución
Se resume en los siguientes pasos:
1) Se despeja una incógnita en una de las ecuaciones.
2) Se sustituye la expresión de esta incógnita en la otra ecuación, obteniendo una
ecuación con una sola incógnita.
90
3) Se resuelve la ecuación.
4) El valor obtenido se sustituye en la ecuación en la que aparece la incógnita despejada.
Los dos valores obtenidos constituyen la solución del sistema.
Método de igualación
El método de igualación consiste en una pequeña variante del método antes visto de
sustitución. Para resolver un sistema de ecuaciones por este método hay que despejar
una incógnita, la misma, en las dos ecuaciones e igualar el resultado de ambos
despejes, con lo que se obtiene una ecuación de primer grado. Las fases del proceso
son las siguientes:
1) Se despeja la misma incógnita en ambas ecuaciones.
2) Se igualan las expresiones obtenidas y se resuelve la ecuación lineal de una incógnita
que resulta.
3) Se calcula el valor de la otra incógnita sustituyendo la ya hallada en una de las
ecuaciones despejadas de primer paso.
Ejercicios propuestos
Resolver los siguientes sistemas aplicando los distintos métodos, eligiendo dos para
cada uno:
91
Bibliografia
https://www.youtube.com/watch?v=s10dhcfUCzI
https://www.youtube.com/watch?v=RC1wNZOnGfc
https://www.youtube.com/watch?v=NDEwNJ7M0eY
https://www.youtube.com/watch?v=nHDr4PHqZpE
92
https://www.youtube.com/watch?v=BfMjRawZyQ4
https://www.youtube.com/watch?v=yv0bNfXGT3Y
https://www.youtube.com/watch?v=v05XRng4u_c
https://www.youtube.com/watch?v=eoKkn31azS8
https://www.youtube.com/watch?v=k8NEpHKFAnY
93