Está en la página 1de 11

1.

HISTORIA

ORIGEN
EVOLUCIÓN

2. ESTRUCTURA

IDENTIFICACIÓN DE LAS PARTES QUE COMPONEN AL OBJETO


REPRESENTACIÒN GRÀFICA
CARACTERÍSTICAS DE LOS MATERIALES
ORÍGEN DE LOS MATERIALES
PROPIEDADES GENERALES
PROCESOS DE FABRICACIÓN
PRINCIPALES HERRAMIENTAS UTILIZADAS EN LA FABRICACIÓN

3. FUNCIONALIDAD

FINALIDAD POR LA QUÉ FUE CONSTRUIDO


POSIBLES USOS Y AMBITOS DE APLICACIÓN
UTILIDAD DE USO CON RELACIÓN A LA SATISFACCIÓN DE LA NECESIDAD

4. FUNCIONAMIENTO

FUNCIONAMIENTO EXTERNO
FUERZAS Y TIPOS DE ENERGÍA QUE HACEN FUNCIONAR EL OBJETO
PROPUESTAS DE INNOVACIÒN
IMPACTO SOCIAL
REPERCUSIONES
OBJETIVO:

En este trabajo se hablara sobre el tan sofisticado y utilizado Touchscreen, en el


cual explicaremos las ideas o motivos del surgimiento de esta aplicación, que en
los últimos años se ha vuelto indispensable en la vida diaria, así como también de
su historia y evolución que ha tenido desde su aparición .

Además se dará a conocer detalladamente la forma en que funciona este


dispositivo, así como de las utilizaciones que se le ha dado tanto en el Pasado,
Presente y Futuro a este dispositivo y que ha revolucionado la forma de vida y de
control de los seres humanos del siglo XXI

Otro punto ha tratar será la estructura que conforma dicha aplicación así como de
los materiales empleados para su construcción y la forma de programación que se
le da a este tipo de tecnologías.
1 HISTORIA

ORIGEN

Conforme la humanidad en su afán de hacer la vida mas cómoda y practica a


mano de la tecnología por parte de los usuarios han convertido el touchscreen
como el sentido del tacto mecanizado a la vida diaria desarrollado a partir de
1971,aunque podríamos decir que los primeros días de contacto electrónicos de
los atribuimos a la música electroacústica ya que Una serie de principios y
sintetizador electrónico de los fabricantes de instrumentos de música utilizados
sensibles al tacto capacitancia-sensores para controlar el sonido y la música,
estos fueron teclas, en vez de pantallas táctiles, posteriormente el primer sensor
de toque, desarrollado por el doctor Sam Hurst , mientras que fue instructor en la
Universidad de Kentucky. Este sensor, denominado "Elograph", fue patentado por
la Universidad de Kentucky, la Fundación de Investigación. El "Elograph" no era
transparente como pantallas táctiles moderna, sin embargo, fue un hito importante
en la tecnología de pantalla táctil. En 1974, la pantalla táctil primera verdadera
incorporación de una superficie transparente fue desarrollado por el doctor Sam
Hurst y Elographics. En 1977, Elographics desarrollado y patentado de cinco
cables de tecnología resistiva.

EVOLUCION

Durante los primeros 20 años de su existencia, la tecnología de pantalla táctil


única alusión a lo que su potencial podría ser cajeros automáticos y la exposición
ocasional museo interactivo permite a los usuarios elegir su propio camino, pero le
faltaba en el departamento de creatividad que revolucionen las tecnologías es asi
que los innovadores fueron descubriendo varias funciones para esta tecnología
aplicadas mas en un entorno socialmente activo.

Una vista cronológica de la evolución de la pantalla táctil;

1972: PLATO IV de pantalla táctil del terminal (PC basado en la Educación


Laboratorio de Investigación de la Universidad de Illinois, Urbana-Champain)

 Las pantallas táctiles se comenzaron a desarrollar en la segunda mitad de


la década de 1960.
 Los primeros trabajos se hizo en la IBM, la Universidad de Illinois, y Canadá
en Ottawa.
 En 1971 una serie de diferentes técnicas ha sido divulgado
1978: Punto de entrada táctil-Uno de Información de Vectores  (Herot Chris &
Weinzapfel Guy, Grupo de Arquitectura de la máquina, el MIT).

 La pantalla demuestra Herot y Weinzapfel podía sentir 8 señales diferentes


desde un punto de contacto único: la posición en X & Y, la fuerza en X, Y, y
(pura, es decir, en X & Y y de presión en Z) Z, y el par en X , Y y Z.
 Mientras celebramos lo inteligente que vamos a tener sensores multi-touch,
es bueno tener este recuerdo que hay muchas otras dimensiones de las
pantallas táctiles que se pueden explotar con el fin de proporcionar una
interacción rica

1981: matriz de sensores táctiles de Robótica (Rebman Jack, Lord


Corporation).

 Un multi-touch sensor diseñado para la robótica para permitir la detección


de la forma, orientación, etc
 Consistió en una matriz de 8 x 8 de sensores en un cojín de 4 "x 4"
cuadrado
 Uso describen en: Wolfeld, Jeffrey A. (1981).  Control en tiempo real de un
robot sensor táctil . Tesis de Maestría. Filadelfia: Escuela Moore de
Ingeniería Eléctrica.

1982: Máquina de Interfaz Flexible (Nimish Mehta, de la Universidad de


Toronto).

 El primer sistema multi-touch, que yo sepa de diseño de la intervención


humana a un sistema informático.
 Consistió en un panel de cristal esmerilado, cuyo local de las propiedades
ópticas eran tales que cuando se ve detrás de una cámara con un punto
negro, cuyo tamaño depende de la presión del dedo apareció sobre un
fondo blanco de otro modo. Esto con el procesamiento de imágenes
simples permitió la entrada de múltiples toque de dibujo de imagen, etc En
el momento en que discutimos la idea de un proyector para definir el
contexto, tanto para la cámara y el ojo humano. 
 Menta, Nimish (1982) una interfaz de máquina flexible, Tesis, Departamento
de Ingeniería Eléctrica de la Universidad de Toronto, dirigida por el profesor
KC Smith.

1983: Máquinas suave (Bell Labs, Murray Hill)

 Este es el primer trabajo que yo tengo conocimiento de la literatura en la


interfaz de usuario que intenta proporcionar una discusión completa de las
propiedades de las interfaces de usuario de pantalla táctil, lo que ellos
llaman "máquinas suave".
 Si bien no se trata de multi-touch en concreto, este documento se indica
que muchos de los atributos que hacen esta clase de sistema atractivo para
ciertos contextos y aplicaciones.
 Nakatani, LH y Rohrlich, Juan A. (1983). Máquinas suave: Una filosofía de
la Computación Diseño de Interfaces de Usuario. Actas de la conferencia
de ACM sobre Factores Humanos en Sistemas Informáticos 

1983: Lugar de vídeo / Video Información (Myron Krueger)

 Un sistema de visión basada en que dio seguimiento a las manos y permitió


que varios dedos, las manos y las personas a interactuar con un rico
conjunto de gestos.
 Implementado en un número de configuraciones, incluyendo la tabla y la
pared.
 No sentir el tacto, de por sí, por lo que en gran medida se basó en el tiempo
de permanencia para activar los eventos previstos por la pose.
 Por otra parte, en la configuración de escritorio horizontal,
inherentemente se basa el tacto, desde la perspectiva del usuario.

1984: pantalla táctil multi (Boie Bob Bell Labs, Murray Hill NJ)

 Un toque táctil multi pantalla , no comprimido. 


 La primera pantalla táctil muti
 Se utiliza una matriz transparente capacitiva de sensores de contacto
superpuestos en un CRT. Podría manipular objetos gráficos con los dedos
con excelente tiempo de respuesta
 Desarrollado por Bob Boie, pero me fue mostrado por Lloyd Nakatani
 Dado que la tecnología Boie fue transparente y más rápido.

1985: Multi-Touch Tablet (Entrada Grupo de Investigación de la Universidad de


Toronto)
 Desarrollado una tableta táctil capaz de detectar un número arbitrario de
entradas toque simultáneo, la presentación de informes tanto por su
ubicación y el grado de contacto para cada uno.
 Para poner las cosas en perspectiva histórica, este trabajo se realizó en
1984, el mismo año la primera computadora Macintosh fue presentado.
 capacitancia usados, en lugar de detección óptica por lo más delgado y era
mucho más simple que los sistemas basados en cámaras.

1985: Marco de sensor   (de la Universidad Carnegie Mellon


 Desarrollado una tableta táctil capaz de detectar un número arbitrario de
entradas toque simultáneo, la presentación de informes tanto por su
ubicación y el grado de contacto para cada uno.
 Para poner las cosas en perspectiva histórica, este trabajo se realizó en
1984, el mismo año la primera computadora Macintosh fue presentado.
 capacitancia usados, en lugar de detección óptica por lo más delgado y era
mucho más simple que los sistemas basados en cámaras.

1986: Bi-Manual de entrada (Universidad de Toronto )

 En 1985 hicimos un estudio, publicado al año siguiente, que examinó los


beneficios de dos tareas diferentes compuestos bi-manual que implicaba el
control continuo con cada mano
 El primero fue un emplazamiento y la ampliación de tareas. Es decir, había
que mover una forma a un lugar determinado en la pantalla con una mano,
mientras se ajusta su tamaño para que coincida con un objetivo particular,
con la otra.
 La segunda fue una selección / tarea de navegación. Es decir, había que
desplazarse a un lugar determinado en un documento que estaba fuera de
la pantalla, con una mano, a continuación, con la otra.

1986: Apple Bus Desktop (BAD) y el Scroller inicialización trackball (Apple


Computer / Universidad de Toronto)
 El Macintosh II y Macintosh SE fueron puestos en libertad con el Bus de
escritorio de Apple. Esto puede considerarse como una primera versión del
USB.
 Apoyó plug-and-play, y también permitió a varios dispositivos de entrada
(teclado, trackball, joysticks, ratones, etc) para ser conectado en el mismo
equipo al mismo tiempo.
 El único inconveniente era que si se ha conectado en dos dispositivos de
señalamiento, de forma predeterminada, el software no los distinguen. Los
dos hicieron lo mismo, y si un ratón y un trackball se operan al mismo
tiempo (que podría ser) una especie de tira y afloja resultado para el
símbolo de seguimiento en la pantalla.
 Debido a los esfuerzos de Gina Venolia y Michael Chen, produjeron un
simple "init" que podrían ser dejados en la carpeta de los sistemas de
llamada de inicio trackballscroller. 

1991: Muestra bidireccional (Buxton Bill y colegas, Xerox PARC)


 El primer lugar las discusiones sobre la viabilidad de hacer una pantalla
LCD que fue también un dispositivo de entrada, es decir, donde se píxeles
de entrada, así como dispositivos de salida. Llevó a dos
iniciativas.   (Piense en el   papel de taza y la cadena de "walkie-talkie" que
todos los hechos como para niños:   las copas eran bidireccionales y
funcionó simultáneamente como un altavoz y un micrófono.)
·      Tomó el 2D de alta resolución   del escáner a-Si la tecnología utilizada en
nuestros lectores y la adición de capas para hacer exhibiciones.   La
motivación bi-direccional se perdió en el proceso, pero el resultado fue la
exhibición DpiX.

1991: Información digital (Wellner Pierre, EUROPARC Rank Xerox, Cambridge)

 Un artículo clásico en la literatura sobre la realidad aumentada.


 Wellner, P. (1991). La calculadora de escritorio digital: la manipulación táctil
en una pantalla de escritorio.  Actas del IV Simposio Anual sobre la interfaz
de usuario de Software y Tecnología (UIST 91) , 27-33.
 Uno de los primeros sistemas de proyección frontal tableta superior que
utiliza técnicas ópticas y acústicas para detectar las dos manos y los dedos,
así como algunos objetos, especialmente los controles, basados en papel y
los datos.

1992: Flip teclado (Bill Buxton, Xerox PARC)

 Una superficie táctil multi-integrado en la parte inferior de un teclado. Le da


la vuelta el teclado para acceder a la plataforma multi-táctil para el control
gestual rica de aplicaciones

1992: Wacom (Japón)

 En 1992, Wacom presenta su serie UD de tabletas digitalizadoras. Estos


eran especiales en que habían mutli-dispositivo / capacidad de detección de
múltiples puntos. Se podía sentir la posición de la aguja y la presión punta,
así como al mismo tiempo detectar la posición de un disco de ratón-
como. Este bimanual permitido la entrada.
 Trabajar con Wacom, mi laboratorio en la Universidad de Toronto
desarrollado una serie de formas de aprovechar esta tecnología para
mucho más allá de la aguja y el disco. Ver el trabajo en las interfaces
aprehensible / tangibles, a continuación.
 Sus próximas dos generaciones de comprimidos, la Intuos 1 (1998) y la
Intuos 2 (2001) amplió la capacidad de la serie multi-punto. Esto permitió la
detección de la ubicación de la aguja en x e y, además de la inclinación en
x e inclinación en y (lo que el lápiz de un joystick sensible a la ubicación, en
efecto), la presión de la punta, y el valor de un lado-montado en su línea
aguja del aerógrafo. Además, uno podía sentir al mismo tiempo la posición
y la rotación del disco, así como la rotación de una rueda de su lado. En
total, se pudo tener el control de 10 grados de libertad con las dos manos
1994-2002: Investigación bimanual (Alias | Wavefront, Toronto)
 Desarrollado una serie de técnicas innovadoras para múltiples puntos de
entrada / múltiple mano para la manipulación de gráficos y otros objetos
visualmente representados.

1995: aprehensible / interfaces tangibles (Grupo de Investigación de entrada de


la Universidad de Toronto)
 Demostrado concepto y la aplicación posterior de la detección de la
identidad, ubicación e incluso la rotación de varios dispositivos físicos en
una de escritorio pantalla digital y su utilización para el control de objetos
gráficos.
 Mediante el artículo resultante y tesis asociados introdujo la noción de lo
que ha llegado a ser conocido como "aprehensible" o "tangibles" de
computación.

1995-1997: Zona Activa (Grupo de Investigación de entrada/Proyecto de tele


presencia de Ontario, Universidad de Toronto)}

 Alrededor de 1992 se hizo una mesa de escritorio de tamaño de la


redacción que tenía una pantalla de retro-proyección de datos, donde la
pantalla de proyección trasera / de mesa era un lápiz translúcido
controlado tableta gráfica digital (Scriptel). El lápiz fue operado con la
mano dominante. Antes de 1995 se montó una cámara Bove la mesa. Es
un seguimiento de la posición de la mano no dominante en la superficie de
la tableta, así como la actitud (de ángulo abierto) entre el pulgar y el dedo
índice. La mano no dominante puede agarrar y manipular objetos en
función de lo que había pasado y abrir y cerrar el control sobre el objeto
virtual. Este trabajo se llevó a cabo la visión de un estudiante, Yuyan Liu

1998: Fingerworks (Newak, Delaware)

 Hicimos una gama de tabletas de contacto con tacto que detecta las
capacidades multi-, incluida la almohadilla iGesture .Apoyaron una rica
colección bastante de múltiples puntos / dedo gestos multitáctiles.
 Fundada por dos académicos de la Universidad de Delaware, John Elias y
Wayne Westerman

1999: Portafolio de pared (Alias | Wavefront, en Toronto, Canadá) }

 Un producto que fue un corcho digital de a bordo en el que las imágenes


podrían ser presentados como un grupo o individualmente. imágenes de
animales para ser ordenados, con anotaciones, y se presentan en
secuencia.
2001: Touch Diamond (Mitsubishi Research Labs, Cambridge, MA)

 ejemplo capaz de distinguir que los dedos de los / las manos que, así como
la ubicación y la presión
 varios gestos y gestos dinámicos.

2002: junio Rekimoto Sony Computer Science Laboratories (Tokio)

 SmartSkin : una arquitectura para la fabricación de superficies interactivas


que son sensibles a la mano humana y movimientos del dedo. Este sensor
reconoce la mano varias posiciones y sus formas, así como calcular las
distancias entre las manos y la superficie mediante el uso de detección
capacitiva y una antena en forma de malla. 

2003: Jazz mutante (Burdeos, Francia)

 Haga una de las primeras transparente multi-touch, que se convirtió - a lo


mejor de mi conocimiento - la primera que se ofrece en un producto
comercial.
 El producto del que se utilizó la tecnología fue el Lemur, un controlador de
música con un toque de pantalla de la interfaz de múltiples verdad.
 Una primera versión de la Lemur fue mostrado por primera vez en público
en Los Ángeles en agosto de 2004.

2004: TouchLight (Andy Wilson, de Microsoft Research)

  TouchLight (2004).   Una pantalla táctil que emplean el sistema de


visualización trasera y pantalla de proyección digital de procesamiento de
imágenes una que transforma una hoja normal no de plástico acrílico en un
gran ancho de banda de entrada / salida de la superficie adecuada para la
interacción basada en gestos.   demostración de video en el sitio web.
 Capacidad de detección de varios dedos y las manos, de uno o más
usuarios.

2005: Blasko y Steven Feiner (Univercidad de Columbia)

 Uso de presión para acceder a los dispositivos virtuales de acceso por


debajo de los dispositivos de capa superior

2005: PlayAnywhere (Andy Wilson, de Microsoft Research)

 Contribución: detección e identificación de objetos, así como el tacto. 


·     Un equipo de primera proyectada interactivo basado en la tabla del sistema
de visión.
 Direcciones de instalación, calibración y portabilidad de los temas que son
típicos de la mayoría de mesa de los sistemas basados en visión.
·     Utiliza un mejor   toque de detección de algoritmo basado en la sombra
para detectar tanto los dedos y las manos, así como objetos.

2006: Plastic Logic (Cambridge, Reino Unido)

 Una pantalla flexible de tinta electrónica montada sobre un teclado táctil


multi-punto, con lo que la creación de una pantalla interactiva multi-táctil.
 Fue un prototipo de su QUE nefasto e-reader

2006: Synaptics y Pilotfish (San José)

 Desarrollado conjuntamente Onyx,   un concepto de teléfono móvil multi-toque


suave con Synaptics sensor táctil transparente.   Puede detectar la
diferencia de tamaño de contacto.   Por lo tanto, la diferencia entre el dedo
(pequeño) y la mejilla (grande), para que pueda contestar el teléfono con
sólo la celebración de la mejilla.
2007: Apple iPhone
 Al igual que el Simón de 1992 (véase más arriba), un teléfono móvil con
una interfaz basada en tacto suave.
 Excelente diseño industrial y la interacción muy suave.
 Empleado multi-touch capacidad en un grado limitado
 Lo utiliza, por ejemplo, para apoyar el "pellizco" técnica introducida por
Krueger, es decir, usando el pulgar y el dedo índice de una mano para
acercar o alejar de un mapa o una fotografía.
 Funciona especialmente bien con las páginas web en el navegador
 Utilización de alias cartera gestos tipo de pared a película hacia delante y
hacia atrás a través de una secuencia de imágenes.
 Inicialmente no permitir el uso de multi-touch para sostener la tecla shift con
un dedo con el fin de escribir un carácter en mayúsculas con otro con el
teclado virtual suave.Esto no llegó a cabo hasta un año después de su
lanzamiento.

2007: ThinSight, (Microsoft Research Cambridge,UK)

 la tecnología Thin perfil multi-táctil que se puede utilizar con pantallas LCD.
 Por lo tanto, puede incluirse dentro de los ordenadores portátiles, por
ejemplo
 La tecnología óptica, por lo tanto capaz de detectar tanto los dedos y
objetos
 Por lo tanto, puede acoger tanto tacto y estilos concretos de interacción
 Las investigaciones realizadas y publicadas por Microsoft Research

2008: N-trig  2011: Superficie 2.0 (Microsoft y Samsung)

 Comercialmente multi-sensor de contacto


 ¿Puede el dedo sentido y al mismo tiempo lápiz
 a diferencia de la mayoría de sensores de tacto que apoyan un lápiz óptico,
este sensor incorpora lápiz especializados
 resultado es mucha tinta de alta calidad digital de lápiz
 Incorporado en algunos recientes Tablet PC
 Tecnología de las escalas más grandes formatos, tales como el tamaño de
mesa

La evolución de la tecnología touch va a la vanguardia como podemos ver ya que


las compañía cada ves se preocupa por hacer un usuario mas versátil e
independiente de algún otro dispositivo como lo eran las teclas así también nos
permite hacer operaciones mas complejas al mismo tiempo con el desarrollo de la
tecnología muliti-touch.

Ahora, las nuevas superficies de mesas con paneles de vidrio en suspensión son
presa fácil para los interactivos con pantalla táctil que puede ser utilizado por
varias personas al mismo tiempo. Pantallas que reconocen los objetos colocados
sobre o cerca de ellos, y la tecnología basada en gestos que los usuarios
controlan, el contenido son ya una realidad en la vida asi es que los diseñadores
cada año nos sorprenderán con sus nuevas ideas llevándonos cada vez mas a
esas panorámicas futuristas que en algún dia el cine nos hizo soñar.

También podría gustarte