Está en la página 1de 27

UNIDAD EDUCATIVA “HERMANO MIGUEL”

APLICACIONES DE COMPIUTADORA
SEGUNDO DE BACHILLERATO
TRABAJO DE INVESTIGACION:

¿Qué es la informática?
La informática o computación es la ciencia que estudia
los métodos y técnicas para almacenar, procesar y transmitir información de
manera automatizada, y más específicamente, en formato digital empleando
sistemas computarizados.

No existe realmente una definición única y universal de lo que la informática es,


quizá porque se trata de una de las ciencias de más reciente origen, aunque de
desarrollo más vertiginoso y desenfrenado.

Por eso en muchos espacios académicos suelen diferenciar entre esta disciplina y


las ciencias de la computación (o la ingeniería informática), considerando que estas
últimas posen un abordaje más teórico de la materia, mientras que la informática
tiene siempre un costado práctico y aplicado, vinculado con los dispositivos
electrónicos.

Otros, en cambio, consideran como subdisciplinas de la informática a las Ciencias


de la computación, la Ingeniería informática, los Sistemas de información, la
Tecnología de la información y la Ingeniería del software.

En todo caso, la informática como disciplina tiene que ver con el procesamiento
automático de la información a través de dispositivos electrónicos y sistemas
computacionales, dotados estos últimos de tres funciones básicas: el ingreso
de datos (entrada), el procesamiento de datos y la transmisión de resultados
(salida).

Características de la informática
La informática, a grandes rasgos, puede caracterizarse de la siguiente manera:

 Su objeto de estudio puede resumirse en el tratamiento automatizado de la


información mediante sistemas digitales computarizados.
 Se propone tanto el abordaje teórico como el práctico de los sistemas
informáticos, aunque no se trata de una ciencia experimental.
 Toma en préstamo el lenguaje formal de la lógica y la matemática para
expresar las relaciones entre los sistemas de datos y las operaciones que
estos ejecutan.
 Es una de las disciplinas científicas más jóvenes, surgida formalmente en la
segunda mitad del siglo XX. (Raffino, 2020)
Qué es la computación
Computación es la ciencia o tratamiento automático de la información, que
puede estar constituida por un conjunto de símbolos, números o palabras, lo que en
general lleva el nombre de expresión alfanumérica.

Además se puede decir que la computación es la tecnología que permite estudiar el


tratamiento de una información a través de máquinas automáticas computadoras,
por esta razón, se conceptualiza como la ciencia que estudia el funcionamiento de
las computadoras, así como su diseño y utilización en la gestión de información.

El término computación es proveniente del latín, según la RAE de «computatĭo»,


pero otras fuentes formulan que deriva de la voz latina «computare» formada por el
prefijo «com» igual a «con» y «putare» que quiere decir «computar, evaluar». La
definición de computación es la ciencia que se ocupa del estudio de las
computadoras, abarcando su diseño, operación y uso en el procesamiento
de datos. En otras palabras la computación alude al estudio científico que se
fundamenta sobre sistemas automáticos para el manejo de información, que
pueden realizarse por medio de herramientas pensadas para dicho fin.

La computación combina ciertos elementos teóricos y prácticos del campo de la


ingeniería, las matemáticas, la lógica, la teoría de la información, etc.(Adrián, Yirda,
2020)

¿Qué es la programación?
La programación es el acto de programar, es decir, organizar una secuencia de
pasos ordenados a seguir para hacer cierta cosa. Este término puede utilizarse
en muchos contextos, es común hablar de programación a la hora de organizar una
salida, las vacaciones o de la lista de programas con sus días y horarios de
emisión de los canales de televisión o la lista de películas de un cine.

Además, en el campo de la informática, la programación es la pieza clave en la


relación entre los ordenadores y los usuarios.

Programación en informática
En el ámbito de la informática, la programación refiere a la acción de crear
programas o aplicaciones a través del desarrollo de un código fuente, que se
basa en el conjunto de instrucciones que sigue el ordenador para ejecutar
un programa.

La programación es lo que permite que un ordenador funcione y realice las tareas


que el usuario solicita.
Lenguaje de programación

El lenguaje de programación comunica al programador con el ordenador.

El lenguaje de programación es un idioma artificial prediseñado formado por


signos, palabras y símbolos que permite la comunicación entre el programador y
el ordenador.

Las instrucciones que sigue el ordenador para la ejecución de aplicaciones


y programas están escritas en lenguaje de programación y luego son traducidas a
un lenguaje de máquina que puede ser interpretado y ejecutado por el hardware del
equipo (parte física).

El código fuente está formado por líneas de texto que expresan en lenguaje de
programación las instrucciones que debe llevar a cabo el ordenador. Este código es
creado, diseñado, codificado, mantenido y depurado a través de la programación.

Existen diferentes lenguajes de programación (Java, Pearl, Python) que se


valen de diversos programas en los que se vuelcan las instrucciones. Estos lenguajes
varían con el tiempo, se expanden y evolucionan.

¿Para qué sirve la programación?


El principal objetivo de la programación es definir instrucciones para que un
ordenador pueda ejecutar sistemas, programas y aplicaciones que sean eficaces,
accesibles y amigables para el usuario.
Los programas informáticos suelen seguir algoritmos, que son el conjunto de
instrucciones organizadas y relacionadas entre sí que permiten trabajar
al software de los equipos de computación.

Historia de la programación
Los comienzos del desarrollo de la programación informática coinciden con la
aparición de las primeras computadoras en la segunda mitad del siglo XX. La historia
de la programación se puede describir a través del desarrollo de los diferentes
lenguajes de programación:

 Lenguaje máquina. En este primer período se utilizaban lenguajes máquina


muy básicos y limitados basados en el sistema binario (uso de los números 0
y 1 en distintas combinaciones) que es el lenguaje que los ordenadores
reconocen, por lo que aún hoy todo lenguaje es convertido a este. Fue
reemplazado, ya que resultaba una forma de programación tediosa y difícil.
 Lenguaje ensamblador. Más tarde comenzaron a surgir lenguajes que
hacían uso de códigos de palabras. Se utilizaban palabras simples,
mnemotécnicas y abreviaturas que tenían su correlativo y eran traducidas al
código máquina. El lenguaje ensamblador fue incorporado porque resultaba
más fácil de recordar y realizar por el usuario que el código máquina.
 Lenguaje de alto nivel. A finales de la década del 50 surgió el Fortran, un
lenguaje de programación desarrollado por IBM que dio inicio a la aparición
de lenguajes basados en conjuntos de algoritmos mucho más complejos.
Estos lenguajes se adaptaban a distintos ordenadores y eran traducidos por
medio de un software al lenguaje de máquina.

Tipos de programación
 Programación estructurada. Busca mejorar y reducir el tiempo del
proceso al utilizar subrutinas (subalgoritmos dentro del algoritmo principal
que resuelve una tarea).
 Programación modular. Divide los programas en módulos para trabajar
con ellos y resolver los problemas de manera más simple.
 Programación orientada a objetos. Utiliza objetos (entes con
características, estado y comportamiento) como elementos fundamentales
para la búsqueda de soluciones.

Elementos de la programación
Existen ciertos elementos que son clave a la hora de conocer o ejecutar un lenguaje
de programación, entre los más representativos están:

 Palabras reservadas. Palabras que dentro del lenguaje significan la


ejecución de una instrucción determinada, por lo que no pueden ser utilizadas
con otro fin.
 Operadores. Símbolos que indican la aplicación de operaciones lógicas o
matemáticas.
 Variables. Datos que pueden variar durante la ejecución del programa.
 Constantes. Datos que no varían durante la ejecución del programa.
 Identificadores. Nombre que se le da a las diferentes variables para
identificarlas. (Maria Estela Raffino, 2020)

MEMORIA RAM:
La memoria RAM es un componente básico en cualquier equipo. Hace unos días
hablamos del procesador, os contamos qué es, vimos sus elementos clave y os
ayudamos a entender mejor por qué es importante.
Hoy queremos hacer una versión centrada en la memoria RAM. Como
anticipamos su importancia está fuera de toda duda, ya que aunque ejerce
una función distinta a la del procesador no solo resulta básico para poder utilizar un
PC (o cualquier dispositivo electrónico), sino que además juega un
papel fundamental en el rendimiento del sistema.
Además de profundizar en sus aspectos más importantes os dejaremos al final una
serie de recomendaciones de compra para que tengáis algunas referencias si
estáis pensando en ampliar la memoria RAM de vuestro equipo, o incluso en montar
uno nuevo.
Sin más preámbulos empezamos. Como siempre esperamos que este artículo os
sea de ayuda y os invitamos a dejar cualquier duda en los comentarios.

¿Qué es y por qué es importante la memoria RAM?

RAM son las siglas de «Random Access Memory» o «Memoria de Acceso


Aleatorio». Su formato más extendido es el de un PCB a modo de pastilla
rectangular sobre el que se asientan diferentes chips que contienen cantidades
determinadas de memoria RAM.
La memoria RAM siempre se ha medido partiendo de un pilar básico: su capacidad.
Los kilobytes fueron el nivel más utilizado entre finales de los setenta y principios
de los ochenta. Posteriormente dejaron paso a los megabytes y finalmente
llegamos a los gigabytes, que es la medida que utilizamos actualmente, aunque ya
empezamos a hablar de terabytes en el sector profesional.
Como el procesador la memoria RAM se inserta en la placa base y se comunica con
diversos elementos del sistema. Su función principal es almacenar datos e
instrucciones para que puedan ser accedidos por otros componentes básicos, de
manera que evita que tengan que volver a pasar por el procesador o incluso por la
tarjeta gráfica.
Podemos entender mejor su funcionamiento con un ejemplo sencillo. Cuando
encendemos el PC y arrancamos un juego éste carga una serie de datos básicos
que necesita en la memoria RAM, y se mantienen en ella de forma permanente
o hasta que necesita sustituirlos por otros datos (por ejemplo al cambiar de
misión o de mundo e iniciar un nuevo proceso de carga). De esta forma se eliminan
las cargas constantes y se consigue un rendimiento y una fluidez óptima.
La capacidad de la memoria RAM es fundamental, de hecho es lo primero que
debemos priorizar a la hora de comprar, ya que si no tenemos la capacidad mínima
que exigen determinadas aplicaciones y juegos no disfrutaremos de una buena
experiencia, y en el peor de los casos ni siquiera podremos iniciarlas. Los
sistemas operativos modernos cuentan con sistemas de memoria virtual que
permite utilizar una parte del sistema de almacenamiento (HDD o SSD) para cubrir
las carencias de memoria RAM, pero no obrará milagros si no llegamos a un
mínimo.
Es importante tener en cuenta además que la memoria RAM es un tipo de memoria
volátil, lo que significa que a diferencia de los HDDs o los SSDs pierde la
información almacenada una vez que se apaga. (Ros, 2018)

Qué es un Motherboard
Definición
De acuerdo a Wikipedia, un Motherboard es la “placa base, también
conocida como tarjeta madre, placa madre o placa principal (motherboard
o mainboard en inglés), es una tarjeta de circuito impreso a la que se
conectan los componentes que constituyen el computador.”
En pocas palabras es el esqueleto que junta todas las partes que
constituyen un computador y por este motivo es uno de los más
importantes de la CPU, llamada también la Unidad Central de
Procesamiento.
Es en esta unidad donde se procesa toda la información que el
computador recibe y si algo falla en este componente, definitivamente no
podría funcionar y podríamos perder la información que tenemos guardada
allí.

Componentes Principales
Un motherboard está compuesta por tres elementos fundamentales: el
microprocesador, la memoria RAM y el disco duro. Aquí te describimos
las funciones de cada uno de estos elementos.
1. Microprocesador:
Se encarga de recibir y procesar la información.

2. Memoria RAM:
Permite dar el soporte para que todas las funciones y las tareas se hagan
correctamente, e igualmente se hagan completamente.

3. Disco Duro:
Es el elemento o componente que guarda la información y posteriormente
brindar resultados al usuario.
Adicional a estos 3 elementos, existe una pequeña pieza que para
muchos, es un componente supremamente importante en un
computador: Bios. Es también denominado en inglés como Basic
Input/Output System, o Sistema Básico de Entrada y Salida, es un chip
donde se guarda la configuración inicial del computador. (Eder, 2017)

¿Qué es un microprocesador?

Es el corazón de nuestras computadoras, algo cuya


velocidad todo el mundo tiene claro que hay que mirar cuando se
compra un nuevo equipo. ¿Pero en qué consiste realmente un
procesador?

Un microprocesador, también conocido como procesador, micro, chip o


microchip, es un circuito lógico que responde y procesa las operaciones
lógicas y aritméticas que hacen funcionar a nuestras computadoras. En
definitiva, es su cerebro.

Pero un procesador no actúa por propia iniciativa, recibe


constantemente órdenes de múltiples procedencias. Cuando
encendemos nuestra computadora, lo primero que hace el micro es
cumplir con las instrucciones de la BIOS (basic input/output system),
que forma parte de la memoria de la computadora. Una vez
funcionando, además de la BIOS, será el sistema operativo y los
programas instalados los que seguirán haciéndose obedecer por el
microprocesador.

Pese a que los microprocesadores siempre nos hacen pensar en


ordenadores, lo cierto es que están disponibles en multitud de
'cacharros' que nos rodean habitualmente, como cámaras de fotografía
o vídeo, coches, teléfonos móviles... No obstante, es cierto que aquellos
que se emplean en las computadoras son los más potentes y complejos.

Cómo se crea un procesador


Con mucha dificultad. Para traer al mundo micros en cantidades
industriales es necesario levantar factorías que suponen una inversión
multimillonaria. Por ejemplo, una factoría que levantó hace no mucho
Advanced Micro Devices (AMD) en Dresde, Alemania, costó unos 3.000
millones de euros.

La principal característica de estas fábricas es que son


inmaculadamente limpias, ya que una simple mota de polvo podría
echar a perder millares de microprocesadores. Para evitarlo cuentan
con sistemas de filtración que renuevan el aire diez veces por minuto.
Es decir, son 10.000 veces más limpias que un quirófano. Sus
trabajadores van completamente forrados con un traje estéril que una
persona poco familiarizada tardaría más de media hora en ponerse.

Traer al mundo un procesador es sumamente complejo, pero


resumiéndolo mucho podríamos decir que se elaboran de la siguiente
manera:

1. Exposición. Se expone un capa de dióxido de silicio al calor y a


determinados gases para lograr que crezca y obtener una lámina u
oblea de silicio tan fina que es imperceptible al ojo humano.

2. Fotolitografía. Se aplica luz ultravioleta sobre la oblea a través de


una plantilla. El dibujo de dióxido de silicio resultante se fija con
productos químicos. Un procesador consta de varias de estas capas,
cada una con una plantilla distinta y cada una más fina que la
anterior.

3. Implantación de iones. La oblea es bombardeada con iones para


alterar la forma en la que el silicio conduce la electricidad en esas
zonas.
4. División. En cada oblea se han creado miles de micros. Una vez el
trazado de su circuito ha sido comprobado, se cortan
individualmente con una sierra de diamante.

5. Empaquetado. La parte más fácil. Cada micro se inserta en el


paquete protector que le da la apariencia que todos conocemos y
que le permitirá ser conectado a otros dispositivos. (Jordi, 2005)

Qué tipos de microprocesadores


existen
Hay muchos tipos de procesadores. Empero, la división más habitual es aquella que
discierne entre procesadores de núcleo simple y aquellos de múltiples núcleos.

Los procesadores de un solo núcleo hacen labores sencillas. Ese único núcleo
cumple con todas las funciones del computador. No obstante, este único núcleo
puede colapsar en caso de ser muy exigido. Sobre todo cuando la máquina debe
hacer multitasking.

Para solucionar lo anterior, se crearon los procesadores de dos núcleos. La idea


es que cada núcleo haga una tarea independiente. Es decir, los núcleos se reparten
las tareas que hacen. Es así como encontramos la más grande variedad de
procesadores en la actualidad, ya que los hay de dos, cuatro, seis y hasta ocho
núcleos. Estos últimos son en verdad muy potentes, siendo usados con fines muy
ambiciosos, tales como complejos programas de CAD, diseño gráfico o gran
cantidad de cálculos enrevesados.

Tipos de microprocesadores intel y amd


Hay una enorme cantidad de microprocesadores. En dado caso, en el mercado
preponderan los que son manufacturados por dos fabricantes principales: AMD e
Intel. Este par de fabricantes elaboran la siguiente gama de procesadores para
ofrecerlos al público en general:

LOS MICROPROCESADORES DE INTEL


Esta empresa tiene una amplia tradición. Es la más popular, por eso hemos querido
empezar versando sobre ella. Por ello, mostramos un listado con los tipos de
procesadores con los cuales se le conoce:

1) PENTIUM
Son los procesadores de un solo núcleo con los cuales empieza a darse a conocer.
La última versión es el Pentium 4. Son sencillos, aunque en su época llegan a
causar un verdadero furor. Muy bueno equipos, tienen la ventaja de que se
recalientan poco. No obstante, han quedado obsoletos pues ahora se usan
computadoras con más de un núcleo.
2) CELERON
Los microprocesadores celeron son la gama baja de Intel. Son los más económicos.
Permiten a esta empresa ganarse un mercado, ampliar sus compradores.
Comparados con potentes procesadores actuales, parece que gozan de poca
potencia.

3) CORE 2 DUO
Se trata de procesadores que tienen más de un simple núcleo. En tiempos
recientes, aparecen versiones que hasta cuentan con 6 y hasta 8 núcleos. Ideales
para el multitasking. Cuando se les agrega una tarjeta gráfica potente, logran ser de
gran potencia y se usan para la minería de monedas virtuales en la red.

4) CENTRINO Y PENTIUM M
Son procesadores pequeños y de poco calentamiento. Se usan para laptops. Muy
versátiles. No obstante, se ha logrado colocar microprocesadores de varios núcleos
en portátiles. Esto deja a estos computadores a la zaga, aunque son de mucha
demanda.

LOS MICROPROCESADORES DE AMD:


Esta empresa se yergue como la competencia de Intel. No obstante, no logra
superar a Intel en popularidad. Se dice que estos procesadores se calientan mucho.
Empero, tienen defensores entre quienes se dedican al diseño gráfico.

1) ATHLON
Son los más sencillos, equivalente a un Pentium. No son de bajo coste. Uno de los
problemas con AMD es que suele ser un tanto más costoso que los procesadores
de Intel. No obstante, hay una buena cantidad de adeptos a estos procesadores.

2) DURÓN
Es la versión de bajo coste de AMD. Equivalente a los celeron de Intel. Hay que
decir que son bastante económicos, lo cual compensa los costes del Athlon. Por
eso, dieron buena competencia a la gama baja de Intel.

3) ATHLON 64 BITS
Diseñado para trabajar con Windows de 64 bits. Un procesador muy bueno. No se
puede negar que catapulta a AMD entre los buenos estándares de rendimiento. En
buena medida, su aceptación obedece a que hace excelentes labores gráficas. Hay
que recordar que en tiempos recientes el uso de video es muy solicitado por los
usuarios.

4) SEMPRON Y TURIÓN
Son los procesadores para máquinas portátiles. Su problema es que se calientan
mucho. En este segmento, parece que Intel lleva cierta delantera.

Estos son los principales procesadores que fabrican tanto AMD como Intel. En
épocas recientes, han aparecido muchos otros. Por ejemplo, está en Phenom de
AMD. No obstante, se puede considerar como una variedad de procesador de
muchos núcleos.
Tipos de microprocesadores por velocidad
La velocidad de los procesadores es un factor determinante para su escogencia. La
gente los suele buscar con este criterio. Vale decirse que el gusto y necesidad de
procesadores rápidos aumenta cada vez más. ¿A qué obedece esto? Pues,
parece que todo se debe a las exigencias de Internet. La red digital cada vez se
inclina más por el contenido multimedia. Esto no solo amerita de velocidad de
conexión, sino de un procesador rápido.

Tenemos el caso de la gama más alta de Intel, que son los Core I3, Core I5 y los
Core I5. Se trata de un grupo de procesadores de hasta 4 núcleos. Cuentan con
arquitectura interl x 86-64. Sus velocidades oscilan entre los 1,06 Ghz hasta los 2,66
Ghz en el caso de equipos portátiles.  Vale decirse que en el caso de los PC, son en
verdad veloces. Van desde los 2,93 Ghz hasta la impresionante cantidad de 3,46
Ghz.

¿Cuál es el procesador más veloz de Intel? Se trata de Core I9. Tiene un total de 6
núcleos. Sus velocidades son de 3,2 Ghz hasta los 3,7 Ghz. Sin duda, son equipos
que marcan un verdadero hito en cuanto a su velocidad.

Por su parte, la empresa AMD también apuesta por incrementar la velocidad de sus
procesadores. Tales es el caso del AMD Phenom. Se trata de los primeros
procesadores multinúcleo de esta compañía. Aparecen así los modelos Phenom II y
el Athlon II. En particular, el Phenom pasa a tener la capacidad de 65 nm a 45
nm. Gracias a ello, se incrementa la caché.

También es posible conseguir un triple núcelo: el Athlon X3. A su vez, surge la


posibilidad de contar con el Phenom X4, de cuatro núcleos. Las velocidades de
este último procesador van más allá de los 3,2 Ghz. Sobrepasando la barrera de los
4 núcleos, está el Thurban AMD, con seis núcleos y más velocidad que su
predecesor.
Si es por velocidad, debemos decir que el AMD FX logra increíbles
velocidades de 4,7 GHz. Su arquitectura es de impresionantes 8 núcleos. Se trata
ya de velocidades extremas, que hacen sospechar que el futuro de la computación
para conllevar a procesadores de velocidades que por ahora quizás no podemos
imaginar. (Júlia Máxima Uniarte, 2020)

Qué son los periféricos


Los periféricos son una parte esencial de un PC, pues de ellos depende en gran medida
el que tengamos una buena experiencia de uso. Debido a su gran importancia, hemos
elaborado esta completa guía con todo lo que tienes que saber sobre ellos.
Los periféricos son los los dispositivos a través de los cuales el ordenador se
comunica con el mundo exterior, y también a los sistemas que almacenan la
información, sirviendo de memoria auxiliar de la memoria principal, tanto si se se
encuentre en el exterior o en el interior del ordenador.  No debemos confundir los
periféricos con los dispositivos de soporte de información, los cuales son medios
físicos sobre los que escribe la información, por ejemplo CD, DVD, disquete…
Las unidades funcionales del ordenador y los periféricos se comunican por los
buses serie (COM, USB…) y paralelo (LPT1, LPT2). La conexión de éstos al bus del
sistema se puede hacer directamente o a través de unos circuitos denominados
interfaces. La gran diversidad con características diferenciadas exige la presencia de
interfaces especiales para adaptar las características de los periféricos a las del bus
del sistema. (Miguel Ámgel Navas Carrera, s. f.)

Tipos de periféricos
Podemos clasificar los periféricos en: unidades de entrada, unidades de salida y
unidades de memoria masiva auxiliar.
Dispositivos de entrada
Los dispositivos de entrada son aquellos que permiten introducir información al
ordenador, los más importantes son:
Teclado
Se trata de un dispositivo análogo al de una máquina de escribir, en el cual cada tecla
corresponde a uno o varios caracteres, funciones u órdenes. Para seleccionar uno de los
caracteres de una tecla puede ser necesario pulsar simultáneamente dos o más teclas.
Entre las características técnicas de un teclado destacan el número de caracteres y
símbolos básicos, la sensibilidad a la pulsación, el tipo de contactos de las teclas
(membrana o mecánico), peso, tamaño, transportabilidad, ergonomía, funcionalidades
extras como lector de banda magnética, lector y grabador de tarjeta inteligente, etc).
La interfaz entre el teclado y el ordenador puede ser por cable o inalámbrica mediante
señales de infrarrojo o de radiofrecuencias. Para nosotros junto al ratón uno de los
periféricos más importantes.

Ratón o mouse
El ratón original estaba constituido por una bola que podía girar libremente y se
accionaba haciéndola rodar sobre una superficie plana. Los actuales han sustituido la
bola por un sistema óptico de diodo o láser de infrarrojo. Al activar el ratón se asocia
su posición con la del cursor en la pantalla, haciendo que éste siga los movimientos del
ratón cuando se desplaza sobre una superficie.
El concepto del ratón ha sido ampliado con la introducción de otros dispositivos
análogos como el trackball que consiste en una bola fija que se hace girar con los
dedos, el touchpad, que utiliza un panel sensible a las presiones suaves de los dedos o
el pointing stick, un pequeño cilindro vertical. Todos ellos se utilizan en teclados de
ordenadores portátiles y usan interfaces de conexión análogas a las de los teclados.
Lápiz óptico
El lápiz óptico es uno de los periféricos más modernos, al menos en el sector de uso
doméstico. Se trata de un dispositivo asociado a las pantallas táctiles, al activar el lápiz
óptico frente a un punto de la pantalla se obtienen las coordenadas del sitio donde
apuntaba el lápiz.
Pantalla sensible al tacto o táctil
Son pantallas que pueden detectar las coordenadas de la zona de la propia pantalla
que se toca con un puntero. Este tipo de pantallas puedes ser capacitivas o
resistivas dependiendo de si necesitan o no conductividad eléctrica en el puntero para
funcionar.
Digitalizador
Estos dispositivos permiten transferir al ordenador una representación digital de
gráficos, figuras, planos, mapas, o dibujos en general. Esto se consigue deslizando
manualmente una pieza móvil por encima de la línea a digitalizar que transfiere las
coordenadas de los puntos que forman la imagen.
Dispositivos de lectura
Se trata de alternativas al teclado que se usan cuando se precisa proporcionar gran
cantidad de información al ordenador de forma rápida y reduciendo el riesgo de
errores. Entre los más comunes encontramos los siguientes.
Escáner
Se trata de dispositivos que permiten el rastreo de imágenes o documentos
impresos, los cuales se procesan con un programa de reconocimiento óptico de
caracteres (OCR) y se genera el texto original en formato de los editores de texto más
habituales.
Detector de bandas magnéticas
Utiliza señales electromagnéticas para registrar y codificar información en una banda
imantada, la cual puede ser leída por una máquina. Están presentes en una gran
cantidad de objetos de la vida cotidiana como tarjetas de crédito, tarjetas sanitarias,
billetes de avión y muchos más.
Lector de tarjetas inteligentes
Las tarjetas inteligentes son tarjetas análogas en dimensiones a las de crédito, pero
que incorporan un circuito electrónico y una pequeña memoria capaz de almacenar
muchos más datos que una banda magnética.
Lectores de marcas y de códigos de barras
Permite leer códigos de barras o marcas predefinidas. Son los típicos lectores que
podemos encontrar en todos los supermercados en la sección de cajas.
Sensores
Los sensores son dispositivos electrónicos creados para captar medidas de
propiedades físicas, como temperatura, presión, humedad, etc. Son muy usados en
la industria, laboratorios, instrumentación médica y meteorología. Entre ellos destacan
los sistemas biométricos, usados para aplicaciones de control de acceso y seguridad,
estos utilizan la información sobre alguna característica fisiológica como un medio de
identificación personal.
Dispositivos de salida
Los dispositivos de salida sirven como una ventana unidireccional del ordenador hacia
el usuario.
Monitor o pantalla
Una pantalla es una superficie blanca, plana y lisa, de materia textil o plástico, sobre la
que se proyectan imágenes cinematográficas o fotográficas. Se utilizan diversas
tecnologías y características entre las que destacan las siguientes:
 Tubo de rayos catódicos (TRC).
 Cristal líquido (LCD: Liquid Crystal Display).
 Plasma.
 OLED.

Todos ellos tienen en común el que la imagen no es continua, sino que se forma por
multitud de puntos de imagen llamados píxeles. Estos píxeles se agrupan formando
una matriz regular de puntos de imagen. La resolución de una pantalla es el número de
puntos de imagen que tiene una pantalla, es un valor independiente del tamaño de esta.
Otro de los periféricos claves a la hora de elegir un buen ordenador.
Impresora
Las pantallas muestran los resultados de forma temporal, por lo que necesitamos
disponer de un sistema de impresión si queremos tener una copia permanente de los
datos. Las impresoras pueden clasificarse en función de algunas de sus características :
Según la calidad de impresión:

 Normales: impresoras de línea, de rueda y térmicas.


 Calidad media: algunas impresoras matriciales.
 Calidad alta: las de margarita, tinta y láser.

Según el sistema de impresión:

 Impresoras de impacto. Muy utilizadas tradicionalmente, pero son ruidosas por lo


que ya están en desuso. Entre ellas se encuentran las impresoras de rueda, bola,
margarita, matriciales, cilindro y cadena.
 Impresoras sin impacto. forman los caracteres sin necesidad de golpes y utilizan
otros principios físicos para transferir las imágenes al papel. Son las utilizadas en la
actualidad, entre ellas destacan las de inyección de tinta, las electroestáticas, las LED y
las láser.
o Impresoras de inyección de tinta. Son impresoras de caracteres y su problema es
la relativa lentitud.
o Impresoras electrostáticas. Son impresoras de línea muy rápidas.
o Impresoras láser. Son muy utilizadas por su elevada velocidad, calidad de
impresión, relativo bajo precio y poder utilizar papel normal.
o Impresoras LED. Son análogas a las laser, con la única diferencia que la imagen se
genera desde una hilera de diodos, en vez de un láser.
Todas las impresoras se caracterizan por una serie de parámetros, los más importantes
son los siguientes:

 Velocidad de escritura.
 Caracteres por línea.
 Ancho del papel o longitud del carro en pulgadas.
 Densidad de líneas por pulgada y espacio entre ellas.
 Tipos de letra que puede usar la impresora.
 Color o escala de grises.
 Resolución.

Las impresoras son de los periféricos más utilizados a nivel de oficina y doméstico.

Periféricos inalámbricos o con cable

Una primera duda que nos puede surgir a la hora de adquirir un nuevo periférico es si
optamos por un modelo inalámbrico o por uno con cable. A priori un periférico sin
cable es más cómodo puesto que no tendremos el problema de los enredos con los
cables y gozaremos de una mayor libertad de movimiento.
Pero no todo es de color rosa en la tecnología inalámbrica, este tipo de periféricos son
más propensos a las interferencias, su autonomía es limitada debido a que la
capacidad de la batería o las pilas es limitada, y la comunicación con el PC tiene más
retraso, lo que llamamos latencia. Durante los últimos años, todos estos problemas
se han minimizado y ya podemos encontrar ratones y teclados que duran año y medio
con dos o tres pilas, tienen una latencia igual a un modelo con cable y no sufren
interferencias.
El problema de la autonomía en los ratones se está empezando a solucionar
ahora, con alfombrillas que suministran energía al ratón para que se esté cargando
de forma continua, un ejemplo de ello es el Razer Mamba Hyperflux o el Corsair
Corsair Dark Core RGB, el inconveniente de estos dos es que el conjunto de ratón +
alfombrilla ronda los 200 euros o incluso más.
Los periféricos inalámbricos pueden funcionar con tecnología bluetooth o con un
receptor de radiofrecuencia dedicado que se conecta por USB. Los modelos
bluetooth usan menos energía y se pueden usar en varios equipos de forma más
cómoda, aunque tienen inconvenientes, como que no se pueden usar hasta que el
sistema operativo ha cargado el driver bluetooth, por lo que es imposible manejar la
BIOS con ellos por ejemplo. Esto no ocurre con los basados en radiofrecuencia, puesto
que no dependen de ningún driver. (Miguel Ámgel Navas Carrera, s. f.)

Qué es monitor
El monitor es un dispositivo electrónico de salida de la computadora en el que se muestran
las imágenes y textos generados por medio de un adaptador gráfico o de video de ésta. El
término monitor se refiere normalmente a la pantalla de vídeo, y su función principal y única
es la de permitir al usuario interactuar con la computadora. Una computadora típica presenta
un monitor con tecnología CRT (tubos de rayos catódicos), la misma que emplean los
televisores; sin embargo, hoy en día existe la tecnología TFT (transistor de película fina)
que reduce significativamente el volumen de los monitores.

Qué es monitor
Es aquel dispositivo usado por usuarios para que estos puedan comunicarse a través de
diferentes partes del ordenador usando datos. En la actualidad existen muchos tipos de
monitor de computadora y poseen funciones similares pero con una ejecución diferente.

Resulta imperativo mencionar que este término puede usarse en situaciones diferentes, por
ejemplo, monitor político, monitor para bebé, etc. La función de este dispositivo es
clara: mostrar gráficos en la pantalla. (Pérez Mariana, 2020)

TIPOS DE MONITORES
♦ Monitores CRT:
En el año 1923 se utilizó esta tecnología para los primeros televisores en blanco y
negro, mientras que la televisión a color se desarrolló en el año 1940.
Los monitores siguen este mismo proceso, primero se desarrollan en blanco y
negro y más tarde se introducen los monitores a color. Las siglas de este tipo de
monitor significan CadoticRayTube o tubo de rayos catódicos. EL monitor CRT es
un dispositivo que permite la visualización de imágenes procedentes de la
computadora por medio de un puerto de video hasta los circuitos del monitor.
Utiliza electrones para transferir imágenes de una fuente de programa
(probablemente una computadora o una antena). Para formar un color en pantalla
que no sea ninguno de los colores básicos, se combinan entre sí los
tres colores básicos. Los monitores CRT son tanto pesados como robustos, pero
eran los tipos de monitores que eran asociados con las computadoras de escritorio
por gran parte de los 80 y 90 hasta la revolución de paneles planos.

Cuando la información que procede de la computadora ha sido procesada, se crean


los gráficos por medio de un cañón que lanza electrones contra una pared de
fosforo donde chocan generando una pequeña luz de color
Son múltiples las ventajas de este tipo de monitores, entre las que cabe destacar,
que permiten reproducir una mayor variedad cromática y es posible el ajuste de
diferentes niveles de resolución.
Entre las desventajas podemos encontrar que estas más desactualizados por lo que
ocupan más espacio, debido al fondo que presentan, los modelos que son muy
antiguos tienen una pantalla curva, los campos eléctricos afectan al monitor,
produciendo que la pantalla vibre y necesitan para un buen disfrute un ajuste
realizado por parte del usuario.
♦ Monitores LCD:
Las pantallas LCD compiten en el mercado doméstico contra las pantallas de
plasma y pantallas LED, así como en el futuro contra pantallas 3D.
Cada vez más populares, los monitores LCD ya son considerados, por muchos,
indispensables para el uso de la computadora. No es para menos: además de que
ocupan menos espacio, consumen menos energía y son más confortables para la
vista que los CRT.La tecnología LCD no es empleada sólo en los monitores para
computadoras. En el mercado, es posible encontrar dispositivos portátiles (como
consolas de video, teléfonos celulares, calculadoras, cámaras digitales y
handhelds) cuya pantalla es LCD. Además de eso, vale acordarse que las
notebooks utilizan esta tecnología hace años.
ADVERTISEMENT

REPORT THIS AD

Esto sucede porque la tecnología LCD permite mostrar imágenes monocromáticas


o color y animaciones en prácticamente cualquier dispositivo, sin la necesidad de
un tubo de imagen, como sucede con los monitores CRT.
Como indica el nombre, las pantallas de LCD están formadas por un material
denominado cristal líquido. Las moléculas de ese material son distribuidas entre
dos láminas transparentes polarizadas. Esa polarización es orientada de manera
diferente en las dos láminas, de forma que se formen ejes polarizadores
perpendiculares, como si formaran un ángulo de 90º. A groso modo, es como si
una lámina recibiera polarización horizontal y la otra polarización vertical.
Las moléculas de cristal líquido son capaces de orientar la luz. Cuando una imagen
es mostrada en un monitor LCD, elementos eléctricos presentes en las láminas
generan campos magnéticos que inducen al cristal líquido a “guiar” la luz que entra
de la fuente luminosa para formar el contenido visual. Sin embargo, una tensión
diferente puede ser aplicada, haciendo que las moléculas de cristal líquido se
alteren de manera que impidan el pasaje de la luz.
En la pantallas monocromáticas (comunes en relojes, calculadoras, etc.), las
moléculas asumen dos estados: transparentes (la luz pasa) y opaco (la luz no pasa).
Para pantallas que muestran colores, diferentes tensiones y filtros que trabajan
sobre la luz blanca son aplicados a las moléculas.
La luz del dispositivo, por su parte, puede provenir de focos especiales
(generalmente fluorescentes) o de leds. Es válido recordar que, en el caso de
dispositivos LCD con bombilla, éstas tienen una duración determinada. En el
mercado, es posible encontrar monitores LCD cuyas bombillas duran 20 mil horas,
30 mil y hasta 50 mil horas.
-Tipos de LCD-
TN (Twisted Nematic): es un tipo encontrado en los monitores LCD más baratos.
En ese tipo, las moléculas de cristal líquido trabajan en ángulos de 90º. Los
monitores que usan TN pueden tener una exhibición de imagen desmejorada en
animaciones muy rápidas.
STN (Super Twisted Nematic): es una evolución del standard TN, capaz de
trabajar con imágenes que cambian de estado rápidamente. Además de eso, sus
moléculas tienen movimientos mejorados, haciendo que el usuario consiga ver la
imagen del monitor satisfactoriamente en ángulos muchas veces superiores a 160º.
GH (Guest Host): el GH es una especie de pigmento contenido en el cristal líquido
que absorbe la luz. Ese proceso ocurre de acuerdo al nivel del campo eléctrico
aplicado. Con esto, es posible trabajar con varios colores.
♦ Pantalla plana TFT:
La pantalla TFT es una variante de pantalla de cristal líquido (LCD) que usa
tecnología de transistor de película delgada TFT (Thin Film Transistor) para
mejorar su calidad de imagen.
Las pantallas de cristal líquido normales presentan píxeles excitados en forma
directa (se puede aplicar una tensión a través de un segmento sin que interfiera con
otros segmentos de la pantalla).
Esto no es posible en pantallas grandes con un gran número de píxeles, ya que se
requerirían millones de conexiones, conexiones en la parte superior e inferior para
cada uno de los tres colores (rojo, verde y azul) de cada píxel. Para evitarlo los
píxeles son direccionados en filas y columnas, lo que reduce el número de
conexiones de millones a miles. El inconveniente de esta solución es que todos los
píxeles de la misma columna reciben una fracción de la tensión aplicada, como
ocurre con todos los píxeles de la misma fila.
Para controlar la tensión aplicada a cada píxel, cada uno de ellos cuenta con su
propio transistor conmutador, lo permite un control por separado.
♦ Monitores con pantalla LED:
Una pantalla LED es un dispositivo de salida, que muestra datos o información al
usuario, que se caracteriza por estar compuesto por diodos emisores de luz o ledes,
palabra adaptada al español y derivada de las siglas inglesas LED (Light Emitting
Diode). Es un elemento semiconductor capaz de emitir luz. Este tipo de pantallas
no deben ser confundidas con las pantallas LCD con retroiluminación LED, muy
usadas actualmente en ordenadores portátiles, monitores y televisores. LED se
presenta como una tecnología nueva y se cambia LCD por LED en la designación
de estos aparatos, sin que esto en realidad suponga un cambio tecnológico
realmente relevante. El uso de pantallas de ledes se ha extendido y masificado en la
actualidad. Su uso principal es mostrar información y publicidad visible desde
grandes distancias. En comparación con los paneles publicitarios o los carteles, las
pantallas de ledes ofrecen un dinamismo y un medio de información más rápido,
fácil de sustituir y atractivo para el destinatario.

  –Pantalla LED gigante de exterior


Estas han sido diseñadas para el uso en exteriores han sido diseñadas para resistir
todo tipo de inclemencias meteorológicas adversas.
La tecnología led de alta potencia permite que estas pantallas puedan reproducir
videos e imágenes plenamente visibles a la luz de día.
Es por ello que este tipo de pantallas son las más demandas para uso publicitario y
gracias a la reducción de precios actual, en un breve plazo de tiempo van a sustituir
a los carteles publicitarios convencionales.
♦ Monitores de pantalla plasma:
Los monitores de pantalla plana (también llamados FPD que significa pantallas de
panel plano) Un panel de pantalla de plasma es un tipo de pantalla plana común a
gran televisor muestra 30 pulgadas o más grandes. Se les llama “pantallas de
plasma” porque la tecnología utiliza células pequeñas que contienen gases
ionizados con carga eléctrica, o lo son en cámaras esencia más comúnmente
conocido como las lámparas fluorescentes. Se popularizan cada vez más, ya que
ocupan menos espacio y son menos pesados que las tradicionales pantallas
CRT. Además la pantalla no se actualiza, sino que permanece estática hasta que la
computadora envíe señal de cambios de color a cada celda, por esta característica
es que se cansa menos la vista al trabajar. Compite actualmente contra las  pantallas
LCD y los monitores CRT. La pantalla de plasma es una tecnología desarrollada en
el año de 1964 en la universidad de Illinois en USA; está basada en una minúscula
celda con fósforo y gas especial (formado de electrones, iones y partículas neutras),
que al entrar en contacto con un cátodo (un pequeño conductor con el polo
negativo), se convierte en plasma y genera en el fósforo tres colores: azul, verde y
rojo.
El contraste es la diferencia entre la parte más brillante de la imagen y la más
oscura, medida en pasos discretos, en un momento dado. Generalmente, cuanto
más alto es el contraste más realista.

Los fabricantes pueden mejorar artificialmente el contraste obtenido


incrementando el contraste y el brillo para lograr los valores más altos en las
pruebas. Sin embargo, un porcentaje de contraste generado mediante este método
sería engañoso, ya que la imagen sería esencialmente imposible de ver con esa
configuración. Se suele decir a menudo que las pantallas de plasma tienen mejores
niveles de negros (y relaciones de contraste), aunque tanto las pantallas de plasma
como las LCD tienen sus propios desafíos tecnológicos. Un defecto de la
tecnología de plasma es que si se utiliza habitualmente la pantalla al nivel máximo
de brillo se reduce significativamente el tiempo de vida del aparato. Por este
motivo, muchos consumidores usan una configuración de brillo por debajo del
máximo, pero que todavía sigue siendo más brillante que las pantallas CRT. Pero
entre las ventajas destacan que tienen Mayor ángulo de visión frente a las pantallas
de LCD y ausencia de tiempo de respuesta, lo que evita el efecto «estela» o «efecto
fantasma» que se produce en ciertos LCD debido a altos tiempos de refresco
(mayores a 12 ms). No contiene mercurio, a diferencia de las pantallas LCD.
-HISTORIA DE LA PANTALLA DE PLASMA-
El origen se remonta al año 1936 en  Kálmán Tihanyi, donde un ingeniero húngaro
describió el principio de la “televisión de plasma” y concibió el primer sistema de
visualización de una pantalla de plasma. La pantalla de vídeo plasma
monocromática fue co-inventada en 1964 en la Universidad de Illinois en Urbana-
Champaign por Donald Bitzer, H. Slottow, y el estudiante graduado Robert
Willson para el sistema informático.

♦ Monitores táctiles:
Una pantalla táctil  es una pantalla que mediante un toque directo sobre su
superficie permite la entrada de datos  y órdenes al dispositivo, y a su vez muestra
los resultados introducidos previamente; actuando como periférico de entrada y
salida de datos, así como emulador de datos interinos erróneos al no tocarse
efectivamente. En otras palabras, la pantalla táctil permite que el usuario
introduzca información al sistema y también se encarga de mostrar el resultado del
procesamiento de dicha información. Las  personas tocan la superficie de la
pantalla para interactuar con el aparato en cuestión. Este contacto también se puede
realizar por medio de un lápiz óptico u otras herramientas similares.
Actualmente hay pantallas táctiles que pueden instalarse sobre una pantalla normal,
de cualquier tipo (LCD, monitores y televisores CRT, plasma, etc.). Las pantallas
táctiles se hicieron populares por su uso en dispositivos de la industria,
ordenadores públicos (como exposiciones de museos, pantallas de
información, cajeros automáticos de bancos, etc.) donde los teclados y
los ratones no permiten una interacción satisfactoria, intuitiva, rápida, o exacta del
usuario. Hay cajeros automáticos (ATMs) con pantalla táctil, a través de la cual el
usuario puede ingresar información sobre su cuenta bancaria, elegir el tipo de
operación que desea realizar, etc. También es posible encontrar pantallas táctiles en
los museos (destinadas a presentar información de manera interactiva),
en computadoras portátiles, en teléfonos móviles y en muchos otros dispositivos.
Desde finales del siglo XX y especialmente en los comienzos del XXI alcanzan un
uso habitual en la mayoría de los dispositivos con pantalla: monitores de
computadora, teléfonos móviles, tabletas, etc.

-TIPOS DE MONITORES TÁCTILES- 
Resistivas: Son más baratas y no les afectan el polvo ni el agua, y además de ser
más precisas pueden ser usadas con un puntero o con el dedo. Sin embargo,
pierden hasta un 25% del brillo y son más gruesas, por lo que están siendo
sustituidas por otras en los dispositivos móviles que precisan un tamaño y un peso
ajustados y mayor brillo en la pantalla por la posibilidad de estar expuestos a la luz
directa del sol.
Capacitivas: La calidad de imagen es mejor, tienen mejor respuesta y algunas
permiten el uso de varios dedos a la vez (multitouch). Sin embargo, son más caras
y no se pueden usar con puntero normal, sino con uno especial para las pantallas
capacitivas.
Infrarrojas: La tecnología infrarroja basa su funcionamiento en el uso de emisores
y receptores de infrarrojos instalados a lo largo de los ejes X e Y. Esto genera una
matriz de luz infrarroja en toda la superficie de la pantalla táctil, de manera que
cuando un punto es tocado, el haz infrarrojo se interrumpe en ambos ejes
detectando el controlador la coordenada donde se produce el toque. Entre las
ventajas está que se puede tocar además de con el dedo, con cualquier otro objeto o
con guantes. También son multitouch aunque son más caras. Lo último son
las pantallas LED infrarrojas. (Pablo Garcia Robledo, 2014)

REFERENCIAS BIBLIOGRAFICAS:
 Adrián, Yirda, A., Yirda. (2020). Concepto Definicion.

https://conceptodefinicion.de/computacion/

 Eder. (2017). Compuline. https://compuline.com.mx/blog/que-es-un-

motherboard/
 Jordi. (2005). Consumer.

https://www.consumer.es/tecnologia/hardware/que-es-un-

microprocesador.html

 Júlia Máxima Uniarte. (2020). Caracteristicas.

https://www.caracteristicas.co/microprocesador/

 Maria Estela Raffino. (2020). Conceptode.

https://concepto.de/programacion/

 Miguel Ámgel Navas Carrera. (s. f.). Profesional Review. Recuperado 5 de

noviembre de 2020, de https://www.profesionalreview.com/perifericos/

 Pablo Garcia Robledo. (2014). WORDPRESS.

https://pablogarciarobledo.wordpress.com/2014/12/18/tipos-de-monitores/

 Pérez Mariana. (2020). Concepto definicon.

https://conceptodefinicion.de/monitor/

 Raffino, M. E. (2020). Concepto de.

https://concepto.de/informatica/#ixzz6cxGg2KAm

 Ros, I. (2018). MC. https://www.muycomputer.com/2018/11/04/memoria-

ram-que-es-recomendaciones/

También podría gustarte