Está en la página 1de 29

Nombre:

Sabrina Basilis
Matricula:
DN-2023-02938
Materia:
Informática II
Profesor:
Víctor de León Báez
Carrera:
Enfermería
Introducción

En este trabajo se puede apreciar diferentes conceptos relacionados con la informática


que son usado en el diario vivir de cada persona, tiene como finalidad desarrollar una
vez más los conocimientos fundamentales en forma breve y precisa de lo importante
que es la computación e informática dentro de la sociedad.

En referencia a estos hablare brevemente de los antecedentes de la nanotecnología


seguridad informática, conceptos, ventajas, tipos y beneficios. La nanotecnología es un
área de investigación, así como su aplicación en la fabricación de dispositivos y
productos, que estudia las propiedades de los materiales que tienen entre uno y 100
nanómetros de tamaño.

El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del
ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y
tamaños, para el almacenamiento y manipulación de datos.
Informática II
El trabajo debe incluir presentación, Introducción, conclusión, imágenes, su foto y
Fuentes de información.

I. Hable brevemente sobre la nanotecnología.

La nanotecnología es la comprensión y el uso de la materia en una escala atómica y


molecular para fines industriales. La manipulación de la materia a escala nanométrica
(entre aproximadamente 1 y 100 nanómetros) tiene el potencial de aplicaciones
novedosas en muchos campos, que incluyen la genómica, la ingeniería, la ciencia de la
computación y la medicina.

La nanotecnología es un área de investigación, así como su aplicación en la fabricación


de dispositivos y productos, que estudia las propiedades de los materiales que tienen
entre uno y 100 nanómetros de tamaño. ¿Qué es un nanómetro? Es 10 a la menos
nueve metros. Eso es una diez milésima parte del diámetro del cabello humano. Otra
forma de verlo, la molécula de ADN mide cerca de dos nanómetros y medio de
diámetro. La nanotecnología es interesante porque los científicos observan
propiedades inusuales de los materiales a una escala muy pequeña de tamaño. Los
materiales no se comportan ni como los átomos de los que están hechos, ni como el
material de gran volumen con el que estamos familiarizados. Por ejemplo, las partículas
nanómetricas de oro, en lugar de presentar el familiar color que denominamos dorado,
aparecen en colores rojo o azul o de otro tipo, en función de su tamaño exacto. Y
también tienen propiedades eléctricas diferentes a las del oro a granel que se utiliza en
joyería o en los dispositivos electrónicos. Otro ejemplo, los nanotubos de carbono que
se hacen del mismo material que el grafito en la mina de los lápices, son
increíblemente fuertes en lugar de frágiles, y también tienen propiedades eléctricas
diferentes dependiendo de la forma precisa en que los átomos se unan.
II. Hable brevemente sobre la inteligencia artificial

La mayoría de nosotros tenemos un concepto de la Inteligencia artificial alimentado por


las películas de Hollywood. Exterminadores, robots con crisis existenciales y píldoras
rojas y azules. De hecho, la IA ha estado en nuestra imaginación y en nuestros
laboratorios desde 1956, cuando un grupo de científicos inició el proyecto de
investigación “Inteligencia artificial” en Dartmouth College en los Estados Unidos. El
término se acuñó primero ahí y, desde entonces, hemos presenciado una montaña
rusa de avances (“¡Vaya! ¿Cómo sabe Amazon que quiero este libro?”), así como
frustraciones (“esta traducción es completamente errónea”).

Al inicio del proyecto, el objetivo era que la inteligencia humana pudiera ser descrita de
forma tan precisa que una máquina fuera capaz de simularla. Este concepto también
fue conocido como “IA genérica” y fue esta la idea que alimentó la (asombrosa) ficción
que nos daría entretenimiento ilimitado.

Sin embargo, la IA derivó en campos específicos. Con el paso del tiempo, la ciencia
evolucionó hacia áreas de conocimiento específicas, y fue entonces que la IA comenzó
a generar resultados significativos en nuestras vidas. Fue una combinación entre el
reconocimiento de imagen, el procesamiento de lenguaje, las redes neuronales y la
mecánica automotriz lo que hizo posible un vehículo autónomo. En ocasiones, el
mercado se refiere a este tipo de avances como “IA débil”.
III. Explique que es un algoritmo y mencione los tipos de algoritmo

En informática, un algoritmo es una secuencia de instrucciones secuenciales, gracias al


cual pueden llevarse a cabo ciertos procesos y darse respuesta a determinadas
necesidades o decisiones. Se trata de conjuntos ordenados y finitos de pasos, que nos
permiten resolver un problema o tomar una decisión.

Los algoritmos no tienen que ver con los lenguajes de programación, dado que un
mismo algoritmo o diagrama de flujo puede representarse en diversos lenguajes de
programación, es decir, se trata de un ordenamiento previo a la programación.

Los algoritmos también son frecuentes en la matemática y la lógica, y son la base de la


fabricación de manuales de usuario, folletos de instrucciones, etc. Su nombre proviene
del latín algoritmus y éste apellido del matemático persa Al-Juarismi. Uno de los
algoritmos más conocidos de la matemática es el atribuido a Euclides, para obtener el
máximo común divisor de dos enteros positivos, o el llamado “método de Gauss” para
resolver sistemas de ecuaciones lineales.

Tipos de algoritmos

Existen diversas clasificaciones de algoritmos, en función de diferentes criterios.


Según su sistema de signos (cómo describen los pasos a seguir), se distingue
entre algoritmos cuantitativos y cualitativos, si lo hacen a través de cálculos
matemáticos o secuencias lógicas. Asimismo, si requieren o no el empleo de un
ordenador para su resolución, se clasifican en computacionales y no
computacionales. Pero, si nos fijamos en su función (qué hace) y
su estrategia para llegar a la solución (cómo lo hace), encontramos muchos más
tipos de algoritmos. Destacamos los siguientes cinco tipos de algoritmos
informáticos:

Algoritmos de búsqueda
Los algoritmos de búsqueda localizan uno o varios elementos que presenten una
serie de propiedades dentro de una estructura de datos.
Ejemplos de algoritmos de búsqueda
Existen diversos tipos de búsquedas, entre las que sobresalen:
 Búsqueda secuencial. En la que se compara el elemento a localizar con
cada elemento del conjunto hasta encontrarlo o hasta que hayamos
comparado todos.
 Búsqueda binaria. En un conjunto de elementos ordenados, hace una
comparación con el elemento ubicado en el medio y, si no son iguales,
continúa la búsqueda en la mitad donde puede estar. Y así sucesivamente
en intervalos cada vez más pequeños de elementos.
Algoritmos de ordenamiento
Reorganizan los elementos de un listado según una relación de orden. Las más
habituales son el orden numérico y el orden lexicográfico. Un orden eficiente
optimiza el uso de algoritmos como los de búsqueda y facilitan la consecución de
resultados legibles por personas y no solo máquinas.
Ejemplos de algoritmos de ordenamiento

Algunos algoritmos de ordenamiento son:


 Ordenamiento de burbuja. Compara cada elemento de la lista a ordenar
con el siguiente e intercambia su posición si no están en el orden
adecuado. Se revisa varias veces toda la lista hasta que no se necesiten
más intercambios.
 Ordenamiento por selección. Vamos colocando el elemento más pequeño
disponible en cada una de las posiciones de la lista de forma consecutiva.
 Ordenamiento rápido. Elegimos un elemento del conjunto (pivote) y
reubicamos el resto a cada uno de sus lados, en función de si son mayores
o menores que el elemento que estamos tomando como referencia.
Repetimos el procedimiento en cada subconjunto.

Algoritmos voraces
Los algoritmos voraces consisten en una estrategia de búsqueda que sigue una
heurística en la que se elige la mejor opción óptima en cada paso local con el
objetivo de llegar a una solución general óptima. Es decir, en cada paso del
proceso escogen el mejor elemento (elemento prometedor) y comprueban que
pueda formar parte de una solución global factible. Normalmente se utilizan para
resolver problemas de optimización.
Ejemplos de algoritmos voraces

En ocasiones, estos algoritmos no encuentran la solución global óptima, ya que


al tomar una decisión solo tienen en cuenta la información de las decisiones que
han tomado hasta el momento y no las futuras que puede adoptar. Algunos casos
en los que los algoritmos voraces alcanzan soluciones óptimas son:
 Problema de la mochila fraccional (KP). Disponemos de una colección de
objetos (cada uno de ellos con un valor y un peso asociados) y debemos
determinar cuáles colocar en la mochila para lograr transportar el valor
máximo sin superar el peso que puede soportar.
 Algoritmo de Dijkstra. Utilizado para determinar el camino más corto desde
un vértice origen hasta los demás vértices de un grafo, que tiene pesos en
cada arista.
 Codificación Huffman. Método de compresión de datos sin perder
información, que analiza la frecuencia de aparición de caracteres de un
mensaje y les asigna un código de longitud variable. Cuanto mayor sea la
frecuencia le corresponderá un código más corto.
Tipos de algoritmos probabilísticos

Existen dos tipos principales de algoritmos probabilísticos:


 Algoritmo de Montecarlo. Dependiendo de la entrada, hay una pequeña
probabilidad de que no acierte o no llegue a una solución. Se puede reducir
la probabilidad de error aumentando el tiempo de cálculo.
 Algoritmo de Las Vegas. Se ejecuta en un periodo de tiempo concreto. Si
encuentra una solución en ese tiempo ésta será correcta, pero es posible
que el tiempo se agote y no encuentre ninguna solución.
IV. Diagramas de flujo, concepto, historia y sus orígenes.

Definimos como diagrama de flujo a la herramienta que nos permite visualizar una serie
de procesos, como está ordenado un sistema o algoritmo informático necesarios para
realizar una tarea especifica. Hoy en día son variados los campos donde podemos
utilizar los diagramas de flujo, como por ejemplo para:

– Documentar.

– Estudiar.

– Planificar.

– Optimizar.

– Comunicar.
Los diagramas de flujo también responden por el nombre de:

– Diagrama de flujo de procesos.

– Mapa de procesos.

– Diagrama de flujo funcional.

– Mapa de procesos de negocios.

– Diagramas de flujo de datos.

– Y entre otros.

DIAGRAMAS DE FLUJO – ORIGEN


La historia documentada nos dice que el primer diagrama de flujo se elaboró entre los
años 1920 y 1930, con el propósito de documentar una serie de procesos de negocio.
En el año 1921, unos ingenieros industriales los cuales responden por el nombre
de: «Frank y Lillian Gilbreth» (y si te lo preguntas si, un matrimonio muy inteligente)
presentaron el «diagrama de flujo de procesos» en la Sociedad Americana de
Ingenieros Mecánicos (ASME – American Society of Mechanical Engineers). Posterior
a este gran acontecimiento; a principios del año 1930, el ingeniero industrial Allan H.
Morgensen empleó las herramientas de Gilbreth con el propósito de presentar
conferencias sobre cómo aumentar la eficiencia en el trabajo a personas de negocios
realizado en su misma empresa. Fueron 10 años después, en 1940, que dos
estudiantes de Morgensen, llamados: Art Spinanger y Ben S. Graham, elaboraron y
compartieron los métodos de los diagramas de flujo más abiertamente. Spinanger se
encargo de introducir los métodos de simplificación del trabajo en Procter & Gamble.
Mientras que Graham, director de Standard Register Industrial, se encargó de adaptar
los diagramas de flujo de procesos al procesamiento de información.
V. Realidad virtual concepto, historia y características

La realidad virtual se podría definir como un sistema informático que genera en tiempo
real representaciones de la realidad, que de hecho no son más que ilusiones ya que se
trata de una realidad perceptiva sin ningún soporte físico y que únicamente se da en el
interior de los ordenadores.

La simulación que hace la realidad virtual se puede referir a escenas virtuales, creando
un mundo virtual que sólo existe en el ordenador de lugares u objetos que existen en la
realidad. También permite capturar la voluntad implícita del usuario en sus movimientos
naturales proyectándolos en el mundo virtual que estamos generando, proyectando en
el mundo virtual movimientos reales.

VI. Realidad aumentada concepto, historia y características

La definición de realidad aumentada es “aquella tecnología que permite agregar


información adicional a una imagen del mundo real cuando ésta se visualiza a través
de un dispositivo“. Este dispositivo agrega información extra a la que ya ofrece la
imagen real, ofreciendo así una realidad transformada.
Esta realidad combina elementos físicos con virtuales. La imagen virtual complementa
a la real para aportar mayor cantidad de información. Para que esto se pueda dar es
necesario utilizar un dispositivo que sea compatible con las tecnologías de realidad
aumentada.

Origen e historia de la realidad aumentada

Aunque todo hace suponer que es una tecnología muy reciente, lo cierto es que
la historia de la realidad aumentada se remonta a hace más de 100 años.
El origen de la realidad aumentada se puede fechar en 1901, cuando Frank L.
Baum diseñó un aparato llamado Character Maker, que ya se podría considerar como
un prototipo de los que hoy es la RA. Este dispositivo consistía en un visor electrónico
de gran tamaño que permitía superponer información sobre las personas a las que
enfocaban.
Más de medio siglo más tarde, Morton Hellig, un conocido realizador de cine e inventor,
construyó un aparato denominado Sensorama. Este prodigio simulaba una experiencia
real virtual proyectada en 3D e incluía otros efectos como el efecto del viento,
vibraciones en el asiento o sonido envolvente. El invento de Hellig llevaba a los
usuarios por un paseo por San Francisco a través de un metraje sin editar, pero
añadiendo elementos que hacían la experiencia más inmersiva.
Sin embargo, no fue hasta la década de los 90 cuando el término “realidad aumentada”
fue acuñado. El nombre fue idea del ingeniero de Boeing, Tom Caudell, quien se
inspiró en los aparatos que los ingenieros usaban para reparar los circuitos de los
aviones.
Caudell inventó el nombre, pero el primer sistema de realidad aumentada propiamente
dicho fue creado por el tecnólogo Louis Rosenberg, en el año 1992. Se trataba de un
sistema llamado Virtual Fixtures, el cual proyectaba unos brazos robóticos sobre el
usuario que actuaban de guía para realizar ciertas tareas.

VII. Hojas de cálculo historia y evolución

Se entiende por hoja de cálculo o plantilla electrónica a un tipo de herramienta digital


que consiste en un documento compuesto por filas y columnas en una tabla, formando
así celdas en las que puede ingresarse información alfanumérica y ponerla en relación
de manera lógica, matemática o secuencial. Las hojas de cálculo son una herramienta
informática de enorme aplicación y vigencia en los más diversos campos de la actividad
humana en el mundo de hoy. Desde administradores, contadores, científicos y jefes de
inventario, hasta las profesiones menos dadas a la matemática sacan provecho de ella
y de su capacidad de automatización de ciertas operaciones, como el ordenamiento
de datos o combinaciones de las cuatro principales de la matemática: suma, resta,
multiplicación y división.

Así, una hoja de cálculo es una herramienta informática versátil, adaptable a distintas
necesidades, y frecuente en los paquetes de software de oficina tales como Microsoft
Office, LibreOffice, OpenOffice, etc.
Historia de la hoja de cálculo

La primera hoja electrónica de datos se creó en 1972, aprovechando algoritmos ya


patentados un par de años antes por Pardo y Landau. Su anuncio tuvo lugar en el
artículo Budgeting Models and System Simulation de Richard Mattessich, aunque el
inventor aceptado de las hojas de cálculo como las conocemos es Dan Bricklin.

Según Bricklin, la idea surgió a partir de una extensa tabla dibujada en un


pizarrón por un profesor de su universidad, quien percibiendo un cálculo errado casi al
finalizar, tuvo que volver a plantearla desde el principio, borrando todo su arduo trabajo.
Al ver aquello, Bricklin se imaginó la posibilidad de una hoja de cálculo interactiva en la
que dichas labores fueran mucho más sencillas.

Esa primera hoja de cálculo se llamó VisiCalc, y fue sumamente importante pues llamó
la atención del mundo de los negocios y la administración hacia las computadoras
personales (PC), hasta entonces tenidas como un hobby.

VIII. Hable brevemente sobre la realidad mixta

La realidad mixta es una mezcla de universos físicos y digitales, que permite interacciones 3D
naturales e intuitivas entre personas, equipos y el entorno. Esta nueva realidad se basa en la
visión artificial, el procesamiento gráfico, las tecnologías de visualización, los sistemas de
entrada y la informática en la nube.

IX. Hable sobre la realidad extendida historia


X. Software educativo, concepto y su historia

El software educativo abarca aquellos programas y aplicaciones de tipo didáctico,


creados con el fin explícito de contribuir con la enseñanza y el aprendizaje. En dicha
definición tienen cabida desde los programas tradicionales de Enseñanza Asistida por
Computador (EAC), hasta enciclopedias y programas que sacan ventaja de la
Inteligencia Artificial (IA) para imitar la labor tutora de los docentes en una institución
educativa.

Esta definición es siempre relativa y problemática, dado que suelen excluirse de ella
otros programas propios del mundo empresarial y profesional, como bases de datos y
procesadores de palabras, que sin embargo asisten el ejercicio docente y estudiantil.
Sin embargo, se considera que estos últimos no han sido programados con la finalidad
explícita de la enseñanza y el aprendizaje.

Funciones del software educativo

Normalmente, el software educativo cumple de manera integral con distintas funciones,


que podemos desglosar para su estudio en:

 Informar (función informativa), es decir, brindar al usuario información nueva y


detallada respecto de un tema puntual, empleando diversos recursos formales para
ello: texto, audio, video, etcétera. A través de esta información, se le transmite al
usuario una visión estructurada y organizada de la realidad.
 Instruir (función instructiva), esto es, guiar el aprendizaje de manera explícita o
implícita, de acuerdo a un guión o programa de enseñanza predeterminado. Esto se
realiza con el objetivo de cumplir con metas educacionales específicas, como
dominar conceptos, manejar referentes, etcétera.
 Motivar (función motivadora), es decir, captar y/o sostener la atención de los
estudiantes, de modo de agilizar y dinamizar el proceso de aprendizaje, haciéndolo
más atractivo y moderno. Este es quizá uno de los fuertes del software educativo.
 Evaluar (función evaluadora), esto es, brindar al estudiante la oportunidad de
poner a prueba sus conocimientos adquiridos, mediante tests, ejercicios y otras
dinámicas parecidas, brindándole luego las respuestas correctas para que pueda
comprender sus errores.
 Innovar (función innovadora), es decir, darle oportunidad a nuevas tendencias
y tecnologías para integrarse a la dinámica educativa.

Importancia del software educativo

A medida que la dinámica virtual e informática cobra más y más espacios en nuestra
vida, brindándonos nuevas oportunidades laborales, lúdicas y comunicativas,
la educación no puede quedarse atrás en el aprovechamiento de las capacidades de
esta tecnología.

El software educativo es una pieza clave en el diseño de nuevas formas de educación


a distancia, e incluso posee el potencial de incorporarse al aula de clases, en un futuro
nada lejano en el que este espacio se halle altamente informatizado.

El software educativo puede ser de momento un complemento al proceso tradicional de


formación de los estudiantes, pero es también una apuesta a futuro que no puede
subestimarse, dado el rumbo que sigue el mundo hipertecnológico del siglo XXI.
Ventajas del software educativo

El software educativo es ideal para adultos porque se adapta a los horarios del alumno.

Algunas de las ventajas evidentes del software educativo tienen que ver con:

 Permiten el aprendizaje a grandes distancias, tanto grupal como individual.


 Aprovechan tecnologías y dispositivos novedosos, que se integran al imaginario
juvenil del mundo actual.
 Facilitan el control y la evaluación de los estudiantes, así como el feedback entre
alumno y profesor.
 Facilitan el aprendizaje autónomo, es decir, se adaptan al horario y disposición
del alumno, algo idóneo para la enseñanza de adultos.
 Hacen el aprendizaje más atractivo, llamativo y moderno.

Tipos de software educativo

A grandes rasgos, el software educativo se clasifica en dos categorías, dependiendo


del grado de feedback que ofrezcan al usuario respecto de su propio aprendizaje (o
sea, su evaluación):
 Programas directivos, también llamados tutoriales, que controlan durante todo
momento la actividad del estudiante, y que lo examinan y evalúan continuamente.
La computadora exige respuestas específicas y concretas de parte del alumno, lo
cual puede dar un rango muy estrecho de respuestas válidas posibles, conforme a
un modelo educativo más tradicional.
 Programas no directivos, pensados más bien como un instrumento o espacio de
trabajo (como un laboratorio) a disposición del alumno, en el cual hallará lo
necesario para aprender, con un cierto margen de libertad de acción permitida. El
computador no hace de juez, como en el caso previo, sino que registra la
información introducida por el usuario y le muestra las consecuencias de sus
decisiones, de modo tal que no se maneje tanto la noción del error, como la de las
consecuencias distintas a lo deseado. Suelen brindar un modelo de aprendizaje
más autónomo.
 Bases de datos y simuladores, que contienen una gran cantidad de información y
le permiten al usuario navegar en ella conforme a criterios determinados, pudiendo
así completar actividades derivadas,
como acertijos, problemas matemáticos, hipótesis científicas, etcétera. Pueden ser
bases de datos de tipo jerárquico, relacional o documental, y entornos de simulación
de distinta naturaleza, que ofrecen un entorno seguro para resolver determinados
problemas.
 Ejemplos de software educativo

Las aplicaciones de software educativo aprovechan recursos multimediales.


Algunos ejemplos de software educativo son:

 Coursera. Un portal web diseñado para ofrecer a sus visitantes cursos en distintos
temas del saber, a través de texto y material multimedia. Muchos de sus cursos
provienen de prestigiosas universidades del mundo.
 Quizlet. Una aplicación que trabaja en base a tarjetas didácticas, y que sirve para
facilitar a los estudiantes la preparación para sus exámenes.
 Duolingo. Una famosa aplicación de enseñanza de idiomas, que pone a disposición
del estudiante una dinámica paso-a-paso de aprendizaje del idioma, sacando el
mayor provecho posible a la tecnología de su Smartphone para oír, escribir y
repetir.

XI. Detalle la Microtecnología y los aspectos más importantes

La microtecnología es tecnología con características cercanas a un micrómetro (una


millonésima parte de un metro, o 10 −6 metros, o 1 μm). 1 Se centra en procesos físicos
y químicos, así como en la producción o manipulación de estructuras con una magnitud
de un micrómetro.
Desarrollo

Alrededor de 1970, los científicos descubrieron que al agrupar grandes cantidades


de transistores microscópicos en un solo chip, se podían construir circuitos
microelectrónicos que mejoraban drásticamente el rendimiento, la funcionalidad y la
confiabilidad, todo mientras reducían los costos y aumentaban el volumen. Este
desarrollo condujo a la revolución de la información .Más recientemente, los científicos
han aprendido que no solo los dispositivos eléctricos, sino también los dispositivos
mecánicos, pueden ser miniaturizados y fabricados en lotes, prometiendo los mismos
beneficios para el mundo mecánico que la tecnología de circuitos integrados ha dado al
mundo eléctrico. Mientras que la electrónica ahora proporciona los 'cerebros' para los
sistemas y productos avanzados de hoy en día, los dispositivos micromecánicos
pueden proporcionar los sensores y actuadores (ojos, oídos, manos y pies) que se
conectan con el mundo exterior.

Hoy en día, los dispositivos micromecánicos son los componentes clave en una amplia
gama de productos, como bolsas de aire para automóviles, impresoras de chorro de
tinta, monitores de presión arterial y sistemas de visualización de proyección. Parece
claro que en un futuro no muy lejano estos dispositivos serán tan generales como la
electrónica. El proceso también se ha vuelto más preciso, reduciendo las dimensiones
de la tecnología al rango submicrométrico como se demostró en el caso de circuitos
microeléctricos avanzados que alcanzaron menos de 20 nm.3

Se han desarrollado y se utilizan varios procesos para la producción de productos


microtécnicos. Para el procesamiento por separación de partículas, se han desarrollado
máquinas herramienta que se caracterizan por una exactitud submicrométrica y
precisión de trabajo. Se aplican los procedimientos de raspado,
profundización, fresado, taladrado, esmerilado y erosionado. Las máquinas de
procesamiento están equipadas con sistemas de medición especiales y las
herramientas están hechas de diamante natural, por lo que, por ejemplo, las fresas más
pequeñas pueden tener el diámetro de un cabello de un cabello. Con estos
procedimientos y sistemas de procesamiento, se pueden producir piezas de formas
geométricas complejas e incluso libres, generalmente piezas ópticas, cojinetes de
precisión o cuerpos de prueba.

El proceso LIGA, que es una combinación de litografía, conformado galvánico y


moldeado, ha demostrado ser particularmente adecuado para la producción a gran
escala de productos de tamaño submicrométrico. Se puede utilizar para fabricar piezas
de micromotores y microimpulsores, micromecanismos, dispositivos microópticos,
sensores ópticos y más. El tamaño de tales productos varía desde unos pocos
micrómetros hasta unos pocos milímetros. Los procedimientos de microprensado
también se utilizan para la producción de micropiezas, especialmente prensado por
microinyección. Por ejemplo, las partes individuales obtenidas por ese procedimiento
tienen una masa de solo 0,0008 gramos, es decir, 1 kilogramo incluye 1,25 millones de
partes. En micromecánica, los ensamblajes están hechos de varias partes diferentes
( heterogéneas), a menudo de diferentes materiales (polímeros, materiales cerámicos,
metales y aleaciones, vidrio), por lo que se presta gran atención a los procedimientos
de instalación (ensamblaje) y unión: micropegado, microsoldadura y soldadura láser.

XII. Powerpoint Origen y evolución

Microsoft PowerPoint es un programa de presentación desarrollado por la


empresa Microsoft para sistemas operativos Windows, macOS y últimamente
para Android y iOS. Viene integrado en el paquete ofimático llamado Microsoft
Office como un elemento más, que puede aprovechar las ventajas que le ofrecen los
demás componentes del equipo para obtener un resultado.

PowerPoint es uno de los programas de presentación más extendidos. Es ampliamente


utilizado en distintos campos de la enseñanza, los negocios, entre otros. Según cifras
de Microsoft.1

Es un programa diseñado para hacer presentaciones con texto esquematizado, así


como presentaciones en diapositivas, animaciones de texto e imágenes prediseñadas o
importadas desde imágenes de la computadora. Se le pueden aplicar distintos diseños
de fuente, plantilla y dibujos. Este tipo de presentaciones suelen ser más fáciles que las
de Microsoft Word.
A mediados de 1980 dos productores de software en una pequeña oficina
en California llamada Forethought, estaban desarrollando el primer software de
presentaciones gráficas para la computadora personal. Los primeros esfuerzos de
estos dos productores de software fueron poco recompensados. Una serie de
compañías inversionistas declinaron invertir en dicho programa, que era conocido
como Presenter y estaba dirigido a la plataforma Mac. Pero Bob Gaskins, dueño de la
compañía Forethought, Inc.,2 y el coproductor del programa, no perdieron las
esperanzas. Después de dos años de negociaciones (1985-1987), vendieron por fin la
compañía y su software a la gigante Microsoft de Bill Gates.

XIII. Procesadores de textos y dar ejemplos

El procesador de texto es un tipo de programa o aplicación informática cuya función


principal es la de crear o modificar documentos de texto, escritos en computadora.

Podría decirse que un procesador de texto es la versión moderna de una máquina de


escribir, con muchas más funciones y versatilidad. En un procesador de texto se puede
trabajar con distintos tipos de letra (fuentes) así como tamaños, colores, formatos de
texto, efectos, insertar imágenes, tablas, etcétera.

Los textos que se procesan en dichos programas se almacenan en la computadora


como un archivo de texto que usualmente se llaman documentos. También permite
guardarlos en otros medios, como por ejemplo un pen drive o un disquete en el pasado.
A su vez, el programa te permite imprimir directamente los archivos.

Otra función importante que poseen estos procesadores es la posibilidad de la


corrección ortográfica y gramatical, además de poseer diccionarios que facilitan la tarea
de quien escribe.

Estos programas fueron de los primeros que se crearon cuando se introdujeron las
computadores personales en el mercado. En los comienzos sólo permitían
el ingreso de texto, sin imágenes ni efectos, y fueron evolucionando con los años.
Estos programas se desarrollaron ante necesidades matemáticas más que
informáticas.

En 1964 IBM creó la primera máquina de escribir magnética que permitió la corrección
del texto sin necesidad de volver a escribir todo a máquina. IBM vendió su invento
como “máquina de procesamiento de textos”, de allí el nombre que hoy en día se
conocen a estas aplicaciones.

En 1970 IMB también creó los disquetes que marcaron un antes y un después en
la computación. Estos disquetes podían almacenar mayor cantidad de páginas de texto
(hasta 100) que antiguamente.

Ventajas de un procesador de textos

 En primer lugar, con un procesador de texto podemos editar un texto, elegir la


tipografía, el tamaño de letra, herramientas de resaltado (negrita por ejemplo), entre
otras posibilidades que dan al texto agilidad.
 También es posible alinear el texto, elegir el espacio entre párrafos y el interlineado,
incorporar elementos como imágenes, hipervínculos, encabezados y pies de
páginas, saltos de página, formas, etcétera.
 Ofrecen además correctores ortográficos y diccionarios para buscar sinónimos o
traducir palabras de un idioma a otro.
 Es posible insertar imágenes y gráficos dentro del mismo texto.
 También permiten la creación de tablas, realizar listas con numeración o viñetas.

Ejemplos de procesador de textos

En la actualidad, los procesadores de texto que más se utilizan son:

 Word, de Microsoft.
 NotePad.
 WordPad.
 OpenOffice.
 Wordperfect.
 KWord.

XIV. Base de datos historia, origen y evolución de estas.

El término bases de datos fue escuchado por primera vez en un simposio celebrado en
California en 1963.

En una primera aproximación, se puede decir que una base de datos es un conjunto de
información relacionada que se encuentra agrupada o estructurada.

Desde el punto de vista informático, una base de datos es un sistema formado por un
conjunto de datos almacenados en discos que permiten el acceso directo a ellos y un
conjunto de programas que manipulen ese conjunto de datos.

Por su parte, un sistema de Gestión de Bases de datos es un tipo de software muy


específico dedicado a servir de interfaz entre la base de datos, el usuario y las
aplicaciones que la utilizan; o lo que es lo mismo, una agrupación de programas que
sirven para definir, construir y manipular una base de datos, permitiendo así almacenar
y posteriormente acceder a los datos de forma rápida y estructurada.

Actualmente, las bases de datos están teniendo un impacto decisivo sobre el creciente
uso de las computadoras.
Pero para poder entender más profundamente una base de datos cabe entender su
historia.

Orígenes

Los orígenes de las bases de datos se remontan a la Antigüedad donde ya existían


bibliotecas y toda clase de registros. Además también se utilizaban para recoger
información sobre las cosechas y censos. Sin embargo, su búsqueda era lenta y poco
eficaz y no se contaba con la ayuda de máquinas que pudiesen reemplazar el trabajo
manual.

Posteriormente, el uso de las bases de datos se desarrolló a partir de las necesidades


de almacenar grandes cantidades de información o datos. Sobre todo, desde la
aparición de las primeras computadoras, el concepto de bases de datos ha estado
siempre ligado a la informática.

En 1884 Herman Hollerith creó la máquina automática de tarjetas perforadas, siendo


nombrado así el primer ingeniero estadístico de la historia. En esta época, los censos
se realizaban de forma manual.

Ante esta situación, Hollerith comenzó a trabajar en el diseño de una maquina


tabuladora o censadora, basada en tarjetas perforadas.
Posteriormente, en la década de los cincuenta se da origen a las cintas magnéticas,
para automatizar la información y hacer respaldos. Esto sirvió para suplir las
necesidades de información de las nuevas industrias. Y a través de este mecanismo se
empezaron a automatizar información, con la desventaja de que solo se podía hacer de
forma secuencial.

Década de 1960

Posteriormente en la época de los sesenta, las computadoras bajaron los precios para
que las compañías privadas las pudiesen adquirir; dando paso a que se popularizara el
uso de los discos, cosa que fue un adelanto muy efectivo en la época, debido a que a
partir de este soporte se podía consultar la información directamente, sin tener que
saber la ubicación exacta de los datos.
En esta misma época se dio inicio a las primeras generaciones de bases de datos de
red y las bases de datos jerárquicas, ya que era posible guardar estructuras de datos
en listas y arboles.

Otro de los principales logros de los años sesenta fue la alianza de IBM y American
Airlines para desarrollar SABRE, un sistema operativo que manejaba las reservas de
vuelos, transacciones e informaciones sobre los pasajeros de la compañía American
Airlines.

Y, posteriormente, en esta misma década, se llevo a cabo el desarrollo del IDS


desarrollado por Charles Bachman ( que formaba parte de la CODASYL) supuso la
creación de un nuevo tipo de sistema de bases de datos conocido como modelo en red
que permitió la creación de un standard en los sistemas de bases de datos gracias a la
creación de nuevos lenguajes de sistemas de información.

XV. Mencione las redes 1g 2g 3g 4g 5g.

Red móvil 1G
La llamada red 1G se refiere a la primera generación de tecnología celular
inalámbrica. Inaugurada en 1979 por Nippon Telegraph and Telephone (NTT) en el
área metropolitana de Tokio, todavía era un estándar en gran parte analógica, lo que
provocó la primera revolución tecnológica real: estos son los años de TACS (Total
Access Communication System, en castellano Sistema de Comunicación con Full
Access) y la idea de un teléfono inalámbrico.
Sin embargo, tiene una limitación importante: en cada banda de frecuencia, solo un
usuario puede comunicarse a la vez, debido a la tecnología utilizada.
Red móvil 2G
La segunda generación 2G de redes móviles es también la primera red digital. Nació
con el estándar GSM. Era 1991: tenía más ancho de banda, por lo tanto más velocidad,
y nuevos servicios disponibles como SMS y conexión a la red vía WAP. Se produce el
primer cambio sociocultural real: los mensajes SMS hacen su debut con las redes 2G.
Mensajes cortos de 160 caracteres, que literalmente cambiaron la forma en que nos
relacionamos con los demás.
Red móvil 3G
La tercera generación de redes de Internet móvil llegó a principios de 2000 en Corea
del Sur y Japón, mientras que en España hizo su debut en 2005. En la base de esta
generación se encuentra el estándar UMTS (Universal Mobile Telecommunications
System), que en a su vez, se basa en una evolución del CDMA utilizado a partir de la
red 2G. Las frecuencias utilizadas comienzan a multiplicarse ocupando bandas de
frecuencia aún más altas: 850, 900, 1800 y 2100 MHz. La velocidad de descarga pasa
de 384 Kbps a 21 Mbps, llevando Internet a los teléfonos móviles: 3G, de hecho, es el
estándar del primer smartphone .
La red móvil 3G LTE
Después de la red 3G y antes del 4G llega el momento, en 2008, de la red 3G LTE, es
decir, Long Term Evolution, término utilizado para indicar la evolución de un estándar
de comunicación para mejorar su rendimiento. Lo importante de 3G LTE es
la introducción de la tecnología MIMO, Multiple Input, Multiple Output en las redes
móviles. Gracias al uso de varias antenas, un terminal MIMO puede intercambiar más
datos al mismo tiempo, tanto que la velocidad máxima teórica de descarga asciende a
326,4 Mbit / sy la velocidad de subida a 86,4 Mbit / s.
Con 3G LTE, los usuarios comenzaron a probar la conexión móvil rápida, que luego se
convirtió en el caballo de batalla de las redes 4G.
Red móvil 4G
Nuestra vida comienza a cambiar radicalmente: Blackberry lleva los correos
electrónicos a los teléfonos móviles, Apple lanza la App Store en 2008, llegan las
videollamadas y vamos más allá de los SMS gracias a Whatsapp. La historia de 4G o
LTE, la cuarta generación de redes de Internet Móvil, comienza el 27 de junio de 2011,
cuando se publica el anuncio de cesión de licencias. Las velocidades de descarga
aumentan enormemente (hasta 326,4 Mbps), creando las condiciones para la explosión
de las comunicaciones y posibilidades móviles actuales: transmisión de video HD y 4K,
transmisión de música de alta calidad e Internet de las cosas (IoT), con dispositivos
que siempre están disponibles. conectados y controlables en cualquier lugar. Los
pagos online, gracias a la estabilidad de 4G, se extendieron considerablemente, lo que
también llevó al nacimiento de criptomonedas como Bitcoin.
Dentro de unos años, sin embargo, surge el verdadero límite de la red 4G, que no es la
velocidad, sino la latencia, que es el tiempo que transcurre entre la solicitud de un dato
y su llegada real al teléfono inteligente del usuario.
Red móvil 5G
Y ahora llega el turno de la red de Internet móvil 5G. El término 5G (siglas de 5th
Generation) indica el conjunto de tecnologías de telefonía móvil y celular, cuyos
estándares definen la quinta generación de telefonía móvil con una evolución
significativa en comparación con la tecnología 4G / IMT-Advanced. Gracias a su
innovadora tecnología, permite conectar una gran cantidad de dispositivos al mismo
tiempo, garantizando una altísima fiabilidad, asegurando una mayor velocidad de
conexión, menor latencia y mejor rendimiento que los 4 LTE actuales. Las frecuencias
de transmisión de señales previstas para la tecnología 5G son: 700 MHz (la que utilizan
actualmente los televisores), 3600-3800 MHz y 26 GHz (explotación de ondas
electromagnéticas que utilizan frecuencias superiores a las que se utilizan en la
actualidad).
Esto permite tener una transmisión de datos mucho más rápida, siempre que haya
distancias reducidas entre el receptor y el emisor por lo qe que se produce una
transmisión de datos más sensible a los obstáculos.

XVI. Hable sobre la seguridad informática.

Podemos definir qué es la seguridad informática como el proceso de prevenir y detectar


el uso no autorizado de un sistema informático. Implica el proceso de proteger contra
intrusos el uso de nuestros recursos informáticos con intenciones maliciosas o con
intención de obtener ganancias, o incluso la posibilidad de acceder a ellos por
accidente. La seguridad informática es en realidad una rama de un término más
genérico que es la seguridad de la información, aunque en la práctica se suelen utilizar
de forma indistinta ambos términos.
Conclusión

La informática está presente prácticamente en toda actividad humana, directa o


indirectamente. Por eso, ha adquirido tanta relevancia que es imprescindible la
preparación de los niños y jóvenes, no sólo en el uso de la computadora y en el
desarrollo de ciertas habilidades prácticas en este campo, sino en la comprensión de
su funcionamiento y en la valoración de su potencial, así como en el conocimiento de
sus limitaciones y los riesgos que le acompañan.

El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del
ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos
tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos
informáticos han abierto una nueva era en la fabricación gracias a las
técnicas de automatización, y han permitido mejorar los sistemas modernos
de comunicación. Son herramientas esenciales prácticamente en todos los campos de
investigación y en tecnología aplicada.
Bibliografía

 https://www.cdc.gov/spanish/niosh/topics/nanotecnologia.html#:~:text=La
%20nanotecnolog%C3%ADa%20es%20la%20manipulaci%C3%B3n,%2C
%20energ%C3%ADa%2C%20materiales%20y%20fabricaci%C3%B3n.

 https://blog.euskaltel.com/las-edades-de-la-tecnologia-movil-1g-2g-3g-4g/

 https://concepto.de/hoja-de-calculo/
 https://concepto.de/procesador-de-texto/

También podría gustarte