Está en la página 1de 17

Definición de BIOS.

Como el programa de inicio más importante de tu PC, el BIOS (sistema básico de


entrada / salida, por sus siglas en inglés), es el software integrado al procesador
central responsable de iniciar tu sistema.

Integrado normalmente en tu computadora como un chip de la tarjeta madre, el


BIOS funciona como un catalizador para poner en acción la funcionalidad de la
PC.

Programado en un chip de memoria de sólo lectura programable y borrable


(EPROM, por sus siglas en inglés), el BIOS es almacenado en este chip de
memoria, el cual retiene los datos cuando la fuente de alimentación es
desconectada. Cuando se vuelve a encender la PC, el BIOS recupera los mismos
datos almacenados.

El sistema BIOS también es responsable de administrar el flujo de datos entre el


sistema operativo de tu computadora y cualquier dispositivo conectado a ésta,
incluido el disco duro, teclado, adaptador de video, impresora o mouse.

Cada vez que enciendes tu PC, el BIOS ejecuta un proceso llamado


Autocomprobación de encendido (Power-On Self Test, o POST), que determina si
tus dispositivos conectados están en su lugar y funcionando correctamente.

Una vez que todos los dispositivos conectados son asignados y se les da el visto
bueno, el inicio de tu computadora continúa como de costumbre, llevándote a la
pantalla de carga de Windows en cuestión de segundos.

Si el BIOS detecta algún problema, aparecerá una pantalla de error o sonará una
serie de códigos de sonido, indicando que, efectivamente, algo salió mal.

          Características.

Su principal característica es que el fabricante es el único que puede grabarla al momento


de instalar el chip en la placa madre. Por ello, es imposible de modificar o volver a grabar.
Como la ROM es una memoria no volátil, la información contenida de la BIOS no se puede
modificar ni alterar de ninguna manera.

 Es el vínculo entre software y hardware de un equipo

 Describe todos los controladores de un sistema para actuar como una Interfax
entre hardware y software

 El chip ROM es la parte central de la BIOS


 La combinación con la placa base, tarjeta adaptadores y los controladores de
dispositivos conforman la BIOS

 Consiste de todos los programas controladores que operan en el software


hardware

2.- Definición de AlLU.

          Características.

2,- Unidades de entrada y salida E/S.

Los dispositivos de entrada y salida o unidades de entrada/salida son los equipos


físicos conectados a la computadora. Estos dispositivos permiten comunicar
información entre el usuario y la computadora o manejar un soporte de
información.

Son también llamados periféricos de computadora o periféricos de entrada y salida


porque están separados de la unidad central de procesamiento.

Los dispositivos de entrada/salida se clasifican por las funciones que pueden


realizar en dispositivos de entrada, dispositivos de salida y dispositivos de entrada
y salida.

          Características

A medida que los sistemas informáticos han evolucionado, se ha producido una tendencia
creciente en la complejidad y satisfacción de cada componente individual. En ningún
punto es más evidente que en la función de entrada/salida.

Las etapas de su evolución pueden resumirse como sigue:


Se añade un controlador o módulo de entrada/salida programada sin interrupciones. El
CPU se aísla de los detalles específicos de las interfaces en dispositivos externos.

3. Se emplean interrupciones. Ahora el procesador no tiene que desperdiciar tiempo


esperando a que se realice una operación de entrada/salida, incrementando así la
eficiencia.

4. El módulo de entrada/salida recibe el control directo de la memoria a través de DMA


(Direct Access Memory). Ahora puede mover un bloque de datos de la memoria o desde
la misma sin que intervenga el procesador, excepto al principio y al final de la
transferencia.

5. Se mejora el módulo de entrada/salida hasta llegar a ser un procesador separado con un


conjunto de instrucciones especializadas para entrada/salida. El CPU ordena al procesador
de entrada/salida la ejecución de un programa de E/S en la memoria principal. El
procesador de entrada/salida lee y ejecuta estas instrucciones sin intervención del
procesador. Esto permite al procesador especificar una secuencia de actividades de e/s e
interrumpirla sólo cuando haya terminado la secuencia entera

6. El módulo de entrada/salida posee su propia memoria local y es, de hecho, un


computador independiente. Con esta arquitectura se pueden controlar un gran número
de dispositivos de entrada/salida, con una participación mínima del procesador.

A medida que se sigue en esta evolución, una mayor parte de las funciones de
entrada/salida se realiza sin la participación del procesador. El procesador central se ve
liberado cada vez más de las tareas relacionadas con la entrada/salida, mejorando así el
rendimiento.

Clasificación.

Los dispositivos de entrada y salida o dispositivos mixtos permiten la introducción


y extracción de datos en la memoria central.

Son ejemplos de dispositivos mixtos los siguientes:


1. Pantalla táctil: es una pantalla que incluye un dispositivo que reconoce la zona
de la misma donde se ha realizado un pequeño contacto con el dedo.

2. Impresoras multifunción: son equipos con la capacidad de realizar varias


funciones, como imprimir, escanear y fotocopiar.

3. Teclado MIDI (Musical Instrument Digital Interface): son teclados musicales


parecidos a pianos electrónicos que permiten la interconexión de distintos
instrumentos musicales y accesorios electrónicos. Pueden recibir tanto las señales
de instrumentos musicales como generar sonidos.

4. Terminales punto de venta: son unidades de entrada/salida especiales para


aplicaciones de tipo comercial. Estos dispositivos han sustituido las cajas
registradoras antiguas.

5. Terminales para operaciones financieras: mejor conocidos como cajeros


automáticos, son unidades conectadas a una computadora central de una entidad
financiera para la realización de operaciones de los clientes de dicha entidad.

3.- Que se entiende como Computadora Cuántica.

Países y empresas han hecho públicos programas de investigación millonarios. Solo


por mencionar algunos, la India, la Unión Europea y Estados Unidos –por
separado– anunciaron una inversión por más de 1,000 millones de dólares.

Mientras, el gobierno ruso destinará 663 millones de dólares y Japón 280 millones
de dólares, pero el más ambicioso y robusto es China con 10,000 millones de
dólares.

Hace apenas un siglo se describió la mecánica cuántica, una teoría de la física que
describe el comportamiento de átomos y partículas subatómicas. Si bien, su
conceptualización fue teórica, en cuestión de décadas se le han encontrado
aplicaciones.

Hoy se ha habla de computación cuántica, información cuántica o sensores


cuánticos.

Esta rama de la informática se basa en los principios de la superposición de la


materia y el entrelazamiento cuántico para desarrollar una computación distinta a
la tradicional. En teoría, sería capaz de almacenar muchísimos más estados por
unidad de información y operar con algoritmos mucho más eficientes a nivel
numérico, como el de Shor o el temple cuántico.

Esta nueva generación de superordenadores aprovecha el conocimiento de la


mecánica cuántica —la parte de la física que estudia las partículas atómicas y
subatómicas— para superar las limitaciones de la informática clásica. Aunque la
computación cuántica presenta en la práctica problemas evidentes de escalabilidad
y decoherencia, permite realizar multitud de operaciones simultáneas y eliminar el
efecto túnel que afecta a la programación actual en la escala nanométrica.

          Características

La principal característica de este sistema alternativo es que admite la superposición


coherente de unos y ceros, los dígitos del sistema binario sobre los que gira toda la
computación, a diferencia del bit, que solo puede adoptar un valor al mismo tiempo —uno
o cero—.

Una computadora cuántica es aquella que se caracteriza por utilizar la mecánica cuántica
para aumentar su poder de procesamiento mediante el uso de qubits en lugar de bits
clásicos. Estos buscan superar a las supercomputadoras más poderosas de la actualidad, ya
que los qubits pueden generar más datos y probabilidades usando menos energía que los
bits clásicos.

Además, pueden resolver los llamados problemas difíciles. Resolver tales problemas puede
llevar una cantidad de tiempo casi infinita y las computadoras cuánticas los resuelven a un
ritmo bastante acelerado.
Sin embargo, a pesar de los avances en computación cuántica, todavía se trata de una
tecnología experimental. Entre sus puntos más resaltantes podemos encontrar:

Algo muy importante es que un sistema clásico nunca puede estar o estará en más de un
estado, pero esta restricción no existe para un sistema cuántico, puesto que cambiará
constantemente de estado.

Medida y evolución no determinista de probabilidad: Cuando se realiza una medición


sobre un sistema para determinar su estado, el resultado debe ser compatible con el
mundo clásico, ya que los dispositivos de medición son siempre sistemas clásicos.

Independientemente de que el sistema cuántico se encuentre en una superposición de


estados antes de la medición, en la computación cuántica inmediatamente después de la
medición el sistema estará en estado puro (como un sistema clásico).

Mejoras.

Las computadoras cuánticas utilizan sistemas superconductores para construir qubits.

Se construyen a temperaturas muy bajas, cercanas al 0 absoluto, razón por la cual éstas y
otras tecnologías trabajan en refrigeradores que son más fríos que la temperatura
promedio del espacio exterior.

Esa es una de las razones por las cuales las computadoras de IBM se encuentran en
laboratorios y no se pueden mover.
El experto explica que, aunque los sistemas superconductores son la tecnología
dominante, se analizan otras opciones.

Una tecnología muy prometedora son los sistemas fotónicos, sistemas que usan luz para
hacer procesamiento cuántico de la información porque los procesadores desarrollados al
día de hoy que emplean fotónica trabajan a temperatura ambiente.

Ernesto Campos agrega que, como ocurría con las computadoras tradicionales en sus
inicios, las computadoras cuánticas fallan, presentan errores, funcionan por unos cuantos
microsegundos y luego mueren.

Con estas limitaciones, no se vislumbra aún el día en que estas computadoras lleguen a
una etapa comercial.

En el Instituto Skolkovo donde realiza su doctorado, se encuentra trabajando en cómputo


cuántico variacional.

“Nos enfocamos en tratar de romper el algoritmo y su limitación. Uso estos errores que
tienen las computadoras cuánticas actuales y veo la forma de sacarles algún provecho.
Encontramos que, efectivamente, en ciertos casos, este ruido que aparece en las
computadoras cuánticas se puede usar de manera más efectiva para entrenar a estas redes
neuronales cuánticas”.

4.- Implicaciones de las leyes cuánticas en la computación.

Por un lado, la computación cuántica se presenta como una gran amenaza para la
ciberseguridad actual, pues los computadores cuánticos serán capaces de romper
toda la criptografía que protege las comunicaciones en Internet o en telefonía,
afectando también a tecnologías como blockchain, internet de las cosas y las redes
5G. Expertos estiman que tomará unos 10 años desarrollar computadores cuánticos
con ese nivel de robustez pero, una vez se consiga, ninguna comunicación estará a
salvo de ser espiada. Agencias de estándares y seguridad estadounidenses como
NIST y NSA desaconsejan desde hace más de tres años el uso de los algoritmos y
protocolos de criptografía actuales y señalan a la criptografía cuántica como una
opción alternativa totalmente segura, aunque requerirá de cambios importantes en
hardware e infraestructura para poder ser implementada a gran escala.

Por otro lado, la computación y


la simulación cuántica tienen
potencial para acelerar el
desarrollo de la inteligencia
artificial o la robótica,
mediante la introducción de
algoritmos cuánticos para la resolución de problemas que son muy difíciles de
tratar con los algoritmos clásicos y las técnicas actuales. Algunas aplicaciones
consisten en alcanzar estadios más avanzados en cuanto a mapeo de expresiones
del lenguaje, teoría de juegos, clasificación de imágenes o procesamiento de
lenguajes naturales, entre otros.

En cuanto al impacto en diferentes industrias y sectores, ya se están explorando y


desarrollando aplicaciones en medicina, genética, energía, finanzas, transporte,
meteorología y cambio climático. En medicina, por ejemplo, avances en óptica
cuántica ya permiten a un instituto japonés detectar tumores en menos de media
hora con técnicas que no son perjudiciales para el cuerpo, mediante el análisis de
la emisión y recepción de ondas electromagnéticas.

En farmacología y genética, hoy en día se necesitan años de experimentación y


pruebas en laboratorios para poder encontrar medicinas útiles. Con la computación
y la simulación cuántica, se espera poder fabricar medicamentos a medida gracias a
la capacidad que estos ofrecerán para poder simular la interacción entre sustancias
químicas y órganos u organismos a nivel molecular, tarea imposible de abordar con
las computadoras actuales. El sector privado ya está realizando movimientos en
este campo, y un ejemplo de ello es la alianza formada por 1Qbit (empresa pionera
en computación cuántica), Accenture y Biogen para diseñar una aplicación cuántica
de comparación molecular con el objetivo de acelerar el desarrollo de medicinas
para problemas neurológicos complejos como esclerosis múltiple, Alzheimer,
Parkinson o la enfermedad de Lou Gehrig.

En energía y agricultura sostenible encontramos también una aplicación muy


prometedora. Actualmente, se emplea entre 1% y 2% de la energía mundial en la
fabricación de amoníaco, utilizado ampliamente para el desarrollo de fertilizantes.
Esto se debe a que en el proceso es necesario disociar moléculas de nitrógeno, lo
que hoy en día solo se puede hacer a altas presiones y temperaturas. Ya se conoce,
sin embargo, una enzima derivada del nitrógeno que permitiría fabricar amoníaco
con un costo energético residual, reduciendo enormemente el costo energético y
por consiguiente el precio de los alimentos. Para poder ser utilizada, es necesario
conocer ciertos procesos químicos con más precisión, y computadores cuánticos
robustos serían ideales para ello.

La posibilidad de simular crisis financieras, mejorar las predicciones


meteorológicas o llegar a poder predecir catástrofes naturales son otras de las
muchas aplicaciones que esta nueva era tecnológica promete traer.
5.- Definición de Informática.

La informática o computación es la ciencia que estudia


los métodos y técnicas para almacenar, procesar y transmitir información de
manera automatizada, y más específicamente, en formato digital empleando
sistemas computarizados.

No existe realmente una definición única y universal de lo que la informática es,


quizá porque se trata de una de las ciencias de más reciente origen, aunque de
desarrollo más vertiginoso y desenfrenado.

Por eso en muchos espacios académicos suelen diferenciar entre esta disciplina y
las ciencias de la computación (o la ingeniería informática), considerando que estas
últimas posen un abordaje más teórico de la materia, mientras que la informática
tiene siempre un costado práctico y aplicado, vinculado con los dispositivos
electrónicos.

Otros, en cambio, consideran como subdisciplinas de la informática a las Ciencias


de la computación, la Ingeniería informática, los Sistemas de información,
la Tecnología de la información y la Ingeniería del software.

En todo caso, la informática como disciplina tiene que ver con el procesamiento
automático de la información a través de dispositivos electrónicos y sistemas
computacionales, dotados estos últimos de tres funciones básicas: el ingreso
de datos (entrada), el procesamiento de datos y la transmisión de resultados
(salida).

          Características.

La informática, a grandes rasgos, puede caracterizarse de la siguiente manera:

 Su objeto de estudio puede resumirse en el tratamiento automatizado de la


información mediante sistemas digitales computarizados.

 Se propone tanto el abordaje teórico como el práctico de los sistemas informáticos,


aunque no se trata de una ciencia experimental.

 Toma en préstamo el lenguaje formal de la lógica y la matemática para expresar las


relaciones entre los sistemas de datos y las operaciones que estos ejecutan.
 Es una de las disciplinas científicas más jóvenes, surgida formalmente en la
segunda mitad del siglo XX.

6.- Definición de Offimatica.

Una suite ofimática o paquete de oficina consiste en un conjunto de programas


informáticos integrados en un paquete. Dicho paquete contiene aplicaciones que, entre
otras funciones, permiten crear, modificar, organizar, enviar, recibir, almacenar, escanear e
imprimir documentos y archivos.

Un paquete de oficina incluye, entre sus herramientas básicas, un procesador de texto y


una hoja de cálculo. También puede contener bases de datos, maquetadores, herramientas
de autor, programas para análisis estadísticos de datos, editores (de imágenes, de
presentaciones, de proyecto, de páginas web), programas de correo electrónico, agenda,
navegador web, entre otras.

Algunas de las suites ofimáticas más reconocidas son Microsoft Office y OpenOffice.

          Características.

Entre las principales características de una suite ofimática se encuentran:

 Fácil manejo de programas básicos: aplicaciones como la hoja de cálculo, las


presentaciones y el procesador de texto son fáciles de utilizar. Sin embargo, el nivel
de dificultad incrementa con otros programas de mayor complejidad, como la base
de datos. Por lo general, estos precisan un curso de preparación para poder ser
utilizados de manera óptima.

 Funciones integradas: todos los programas de un paquete de oficina pueden


interactuar entre sí mediante una interfaz de usuario homogénea. De esta forma, es
posible generar unos gráficos en una hoja de cálculo e integrarlos a una
presentación. Así, al momento de actualizar los datos, los cambios se harán en
ambos programas en tiempo real.

 Uso online y offline: una suite ofimática puede usar de manera offline. Sin embargo,
al utilizarla conectada a una red, se obtienen los beneficios de sincronización entre
otras computadoras, usuarios, programas o aplicaciones en la nube.

7.- Definición de Inteligencia Artificial.


La Inteligencia Artificial (IA) es la combinación de algoritmos planteados con el propósito
de crear máquinas que presenten las mismas capacidades que el ser humano. Una
tecnología que todavía nos resulta lejana y misteriosa, pero que desde hace unos años
está presente en nuestro día a día a todas horas.

          Características

 Imita la cognición humana

La inteligencia artificial se caracteriza principalmente por su imitación al modo de


pensar del ser humano. Posee su propio campo de estudio, el cual se conoce
como computación cognitiva. Se basa esencialmente en el reconocimiento de
patrones, la minería de datos y en el procesado del lenguaje natural para simular el
cerebro humano.

 Automatiza procesos

La automatización de tareas es una de las cualidades más significativas de la IA.


Esta tecnología permite que actividades redundantes, largas y exhaustivas sean
ejecutadas por máquinas o programas, en vez de personas.
De hecho, mediante la combinación de la automatización robótica de
procesos (RPA) y la inteligencia artificial (IA), surge lo que se denomina como
la automatización inteligente (AI).

Por lo tanto, la AI es la composición que une las virtudes de ambas tecnologías


para crear un elemento altamente potente. Por su utilidad, es utilizada
ampliamente por las empresas, esencialmente para automatizar tareas manuales y
conseguir procesos eficientes.

 Nunca descansa

Otro rasgo que las caracteriza es su capacidad de funcionar las 24 horas del día en
los 365 días del año. La IA nunca descansa y, por tanto, nunca se detiene. Esto
permite que los programas inteligentes puedan avanzar a un ritmo impresionante,
sin interrupciones.

Además, es especialmente importante en aquellas actividades donde se requiere


personal permanentemente activo y funcionando correctamente.

 Es precisa

La alta confiabilidad que se le otorga a la inteligencia artificial es debido a su gran


precisión para ejecutar tareas. Las probabilidades de fallas en estos programas
son muy bajas. Por supuesto, su grado de precisión depende íntegramente del
diseño del software, ya que, al fin y al cabo, la IA es una fiel representación de la
creación humana.

Sin embargo, estos sistemas tienden a equivocarse cada vez menos, puesto que,
son los propios errores los que permiten la mejora constante de estos diseños.

 Gestiona una enorme cantidad de datos

Un rasgo esencial de la IA, es la capacidad de manejar cantidades ingentes de


información. Es aquí donde el Big Data entra en juego. El Big data hace referencia
al volumen de datos tan amplio, que es necesaria la utilización de herramientas
especializadas para tratar correctamente a esta cantidad de información.

Y es la inteligencia artificial la responsable en manejar los datos que el Big data


pone a su disposición. Dicho de un modo fácil, el Big data es el combustible, y la
IA es la máquina que lo aprovecha.
La importancia de la combinación de ambas tecnologías se ve reflejada con la
creación de herramientas especializadas para ello, así como la formación
de nuevos perfiles profesionales para llevar a cabo estas actividades.

Aplicabilidad en la computación

Como es lógico, las aplicaciones de la Inteligencia Artificial son ingentes. Cualquier trabajo
que requiera un elevado grado de computación y de análisis de datos es susceptible de ser
mejorado y optimizado gracias al uso de Inteligencia Artificial. Además, gracias al avance
de las TIC en todos los ámbitos de la sociedad, su aplicación es viable en casi cualquier
sector empresarial o particular.

En este sentido, algunos ejemplos de las aplicaciones de la Inteligencia Artificial que ya se


vienen practicando hoy en día son las siguientes:

1. Procesamiento de lenguaje natural

Los denominados chatbots (charlas virtuales entre un cliente humano y una máquina) son
una de las aplicaciones de la Inteligencia Artificial que ya se utiliza ampliamente hoy en día.
Gracias al procesamiento de lenguaje natural, podemos relacionarnos con una de estas
Inteligencias Artificiales casi del mismo modo que lo haríamos con cualquier ser humano.

2. Incremento de los robots no físicos

Aunque al pensar en robots siempre suele venirnos a la mente la imagen de un androide


(robot con apariencia humana), la mayoría de robots actuales no son físicos. Al menos,
muchos de ellos funcionan con un hardware bastante limitado, mientras que su principal
activo reside en el software que manejan y que constituye realmente la Inteligencia
Artificial que hay detrás. Estos robots no físicos están conectados a múltiples robots que sí
que son físicos y que son los que actúan por ellos (puertas automáticas, sistemas de
transporte, electrodomésticos enlazados a sistemas domóticos, etc).

3. Automatización de procesos industriales

Otra de las principales aplicaciones de la Inteligencia Artificial consiste en la


automatización de procesos. Esta tecnología permite agilizar múltiples procesos
productivos, además de eliminar de ellos el factor de error humano. Actualmente se
utilizan en la mayoría de procesos industriales, así como en procesos relacionados con la
logística y la distribución de mercancías que sigue a los procesos de producción.

4. Selección de contenidos
Una de las aplicaciones de la Inteligencia Artificial que más auge ha tenido en los últimos
años es la selección de contenidos, lo que se aplica, sobre todo, en los entornos de redes
sociales. Gracias al análisis de datos y el Big Data, las Inteligencias Artificiales seleccionan
los contenidos que más se ajustan a nuestros gustos y preferencias. A continuación,
seleccionan estos contenidos para que aparezcan como sugerencias en nuestras redes
sociales y así conseguir mostrar contenidos que sean más relevantes según nuestros
propios intereses.

Las aplicaciones de la Inteligencia Artificial son muchas y variadas. De hecho, aunque ya


forman parte de nuestro día a día, la evolución tecnológica y la digitalización de la
sociedad no harán sino que su presencia sea cada vez mayor en todos los ámbitos de
nuestra vida. Esto nos permitirá optimizar gran cantidad de procesos, así como
automatizar tareas monótonas y repetitivas, permitiéndonos disfrutar de más tiempo libre
y eliminando el error humano de muchas de las actividades diarias.

8.- Definición de Nano tecnología.

A grandes rasgos, la nanotecnología es la manipulación y manufactura de materiales y


artefactos a una escala atómica o molecular, es decir, nanométrica. Se trata de un campo
muy amplio de investigaciones y aplicaciones todavía en consolidación.

La nanotecnolegía involucra la materia subatómica, así como los saberes específicos de


disciplinas científicas como la química orgánica, la biología molecular, los
semiconductores, la microfabricación y la ciencia de las superficies, entre otras.

Dicho de manera muy simple, la nanotecnología parte de la idea de construir máquinas


microscópicas con las que a su vez producir materiales novedosos, de una configuración
molecular única y particular.

Sin embargo, la naturaleza de muchas de dichas “máquinas” no es semejante a las que


empleamos en nuestro día a día, sino que bien pueden consistir en virus “reprogramados”
genéticamente y otros medios biotecnológicos. En consecuencia, esta tecnología es una
fuente infinita de posibilidades y, naturalmente, de peligros.

Además, a través de la nanotecnología se han construido nanomateriales, que son


elementos inexistentes en la naturaleza y de propiedades asombrosas. Fueron creados a
partir de la modificación de las moléculas de los materiales ya existentes.

Así, se ha abierto un gigantesco campo de investigación con aplicaciones virtualmente


infinitas, que se encuentran aún bajo definición y experimentación. La nanotecnología
promete traer consigo una nueva revolución industrial y científico-tecnológica.

           Características
 Trabaja a escala manométrica (de 1 a 100 nm).
 Utiliza procedimientos tanto biológicos como materiales. 
 A través de ella se pueden controlar átomos y moléculas.
 Involucra una gran cantidad de ciencias como la medicina, la química, la
biología, la ingeniería, etc.
 Le otorga a los materiales nuevos comportamientos ópticos, electrónicos y
magnéticos.
 Tiene la posibilidad de crear nuevos aparatos y sistemas que no pueden
realizarse con la tecnología actual. 
 Por trabajar en proporciones manométricas puede desarrollar sistemas que
beneficien la salud.
 Es una ciencia con grandes posibilidades y ventajas en la medicina y en la
biología.

Aplicación en la Computación

La nanotecnología en las computadoras proporciona la necesidad de ejecutar procesos


informáticos más rápidos a temperaturas más frías que los componentes informáticos
tradicionales basados en transistores. En la informática tradicional, los transistores han utilizado
componentes de silicio como un método asequible y de fácil fabricación para proporcionar
computadoras y dispositivos electrónicos más pequeños y rápidos, como netbooks, teléfonos
inteligentes y dispositivos de asistente personal. Sin embargo, dispositivos tan poderosos con un
tamaño tan pequeño producen demasiado calor, lo que reduce la eficacia, el rendimiento y la
longevidad de los componentes de silicio. La nanotecnología en la informática resuelve el dilema
del calor proporcionando una potencia de procesador mejorada a temperaturas más frías y pesos
más ligeros.

La nanotecnología en las computadoras hace uso de nanomateriales, pequeñas máquinas del


tamaño de una molécula que procesan información de manera similar a las intrincadas y
complejas células de un organismo vivo. Al igual que las células, los nanomateriales existen a nivel
microscópico, un nanómetro mide una mil millonésima parte de un metro, o 1 / 50,000 del grosor
de un cabello humano. Por tanto, la nanotecnología en la informática opera a un nivel minúsculo.
Los fabricantes de computadoras crean largas hebras microscópicas de átomos de carbono,
llamadas nanotubos de carbono, en diminutos transistores que proporcionan el doble de poder de
procesamiento que los chips de silicio, mientras generan mucho menos calor y componentes más
livianos. Además, las aplicaciones de nanotecnología ofrecen un rendimiento más eficiente, lo que
ahorra energía y aumenta la vida útil de la batería para dispositivos electrónicos portátiles más
pequeños.
El impulso de computadoras más potentes con mayor memoria a pesos más livianos y
temperaturas más frías es responsable del desarrollo de la nanotecnología en las computadoras.
Además de una mayor potencia de procesamiento, la nanotecnología en las computadoras
proporciona medios avanzados de almacenamiento de memoria. El «nanodot», con su capacidad
para condensar grandes cantidades de datos en un compartimento compacto, puede
eventualmente reemplazar el disco duro. Los nanomateriales son generalmente más caros que los
materiales de silicio, pero el aumento de la demanda supera la preocupación económica.

Con el desarrollo del transistor después de la Segunda Guerra Mundial, la electrónica de consumo
explotó en popularidad. En cuatro décadas, nació la computadora personal. Como dispositivo de
escritorio voluminoso, no había una necesidad inmediata de portabilidad en las computadoras. Los
ventiladores dentro de la carcasa de la computadora, un ingrediente necesario para mantener
fríos los transistores y otras partes de la computadora, ocupaban un espacio precioso. Sin
embargo, dado que estas primeras computadoras estaban estacionarias, los fabricantes no vieron
la necesidad real de reducir el tamaño de las máquinas.

El desarrollo del teléfono celular y los dispositivos informáticos pequeños creó la necesidad de
medios más inteligentes y eficientes para llevar a cabo procesos informáticos. El chip de silicio
respondió al llamado de una computación más rápida. A medida que los dispositivos se volvían
más pequeños y los consumidores solicitaban tecnología más potente, el calor producido por los
componentes de silicio abrumaba a los dispositivos electrónicos. La informática desarrolló la
nanotecnología, o nanotecnología, para adaptarse a la necesidad de dispositivos más pequeños
que funcionen a temperaturas más frías y velocidades más rápidas.
Bibliografía

https://www.diferenciador.com/dispositivos-de-entrada-y-salida/#:~:text=Los%20dispositivos
%20de%20entrada%20y,manejar%20un%20soporte%20de%20informaci%C3%B3n.

http://cidecame.uaeh.edu.mx/lcc/mapa/PROYECTO/libro26/
caractersticas_de_los_dispositivos_de_entradasalida.html

https://www.iberdrola.com/innovacion/que-es-computacion-cuantica#:~:text=%C2%BFQU
%C3%89%20ES%20LA%20COMPUTACI%C3%93N%20CU%C3%81NTICA,computaci%C3%B3n
%20distinta%20a%20la%20tradicional.

https://coworkings.co/que-es-la-computacion-cuantica-caracteristicas-y-ventajas/

https://blogs.iadb.org/innovacion/es/impacto-de-las-tecnologias-cuanticas/#:~:text=Por%20un
%20lado%2C%20la%20computaci%C3%B3n,las%20cosas%20y%20las%20redes

https://concepto.de/informatica/

https://blog.mdcloud.es/suite-ofimatica-caracteristicas-tipos-ventajas-desventajas/#:~:text=Una
%20suite%20ofim%C3%A1tica%20o%20paquete%20de%20oficina%20consiste%20en%20un,e
%20imprimir%20documentos%20y%20archivos.

https://www.iberdrola.com/innovacion/que-es-inteligencia-artificial#:~:text=La%20Inteligencia
%20Artificial%20(IA)%20es,a%20d%C3%ADa%20a%20todas%20horas.

https://www.beetrack.com/es/blog/aplicaciones-inteligencia-artificial-como-se-utiliza

https://www.ceupe.com/blog/caracteristicas-de-la-inteligencia-artificial.html

https://spiegato.com/es/cual-es-el-papel-de-la-nanotecnologia-en-las-computadoras

https://sites.google.com/site/fgtce0410tgi/caracteristicas-principales-de-la-nanotecnologia

También podría gustarte