Está en la página 1de 10

MARKETING DIGITAL

El marketing digital es la aplicación de las estrategias de comercialización


llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-
line son imitadas y traducidas a un nuevo mundo, el mundo online. En el
ámbito digital aparecen nuevas herramientas como la inmediatez, las
nuevas redes que surgen día a día, y la posibilidad de mediciones reales
de cada una de las estrategias empleadas. Se conocen dos instancias:

La primera se basa en la web 1.0, que no difiere de la


utilización de medios tradicionales. Su mayor
característica es la imposibilidad de comunicación y
exposición de los usuarios. Solamente la empresa
tiene el control de aquello que se publica sobre sí
misma.

Con la web 2.0 nace la posibilidad de compartir


información fácilmente gracias a las redes sociales y a
las nuevas tecnologías de información que permiten el
intercambio casi instantáneo de piezas que antes eran
imposibles, como videos, gráfica, etc. Se comienza a
usar internet no solo como medio para buscar
información sino como comunidad, donde hay
relaciones constantemente y feedback con los
usuarios de diferentes partes del mundo.
En este nuevo ámbito se desarrolla la segunda instancia del marketing
digital ya que los usuarios pueden hablar de la marca libremente. Ellos
tienen un poder importantísimo que antes sólo se le permitía a los medios:
La opinión.

Las técnicas de comercialización deben entonces cambiar su paradigma.


Si antes los distribuidores, los medios, y los productores eran los que
tenían el poder de la opinión, ahora el foco debe cambiar al usuario. Este
es capaz de buscar aquello que quiere gracias al poder de los search
engines (Google, Yahoo, Bing, etc.), y no sólo preguntar a los medios
dados si su decisión es correcta, también tiene la posibilidad de leer
reseñas, comentarios y puntuaciones de otros usuarios.

Cómo nació el marketing online: de la


web 1.0 a la web 2.0
En sus inicios, el marketing online se basaba en las páginas web 1.0 y
venía a ser una translación de la publicidad de los medios
tradicionales (televisión, radios, medios en papel...) a las primerizas
páginas web, las cuales no permitían una bidireccionalidad en la
comunicación con los usuarios. Las empresas anunciantes
controlaban totalmente el mensaje y se limitaban a exponerlo a la
audiencia.
Además, la publicidad de la etapa web 1.0 se limitaba, en la mayoría
de las ocasiones, a reproducir un escaparate de productos o
servicios en forma de catálogo online. Aun así, este tipo de
publicidad ya apuntaba interesantes virtudes, como el alcance
potencialmente universal, la posibilidad de actualización de los
contenidos y la combinación de textos, imágenes y, poco a poco,
también formatos multimedia.
Pero, en pocos años, llegó la revolución. Un frenético desarrollo
tecnológico permitió la introducción masiva de un internet de nivel
superior. Nacía la web 2.0 y, con ella, el marketing 2.0 (como
también se conoce al marketing digital u online actual). ¡Y menudo
cambio!
A partir de ese momento, empezó a ser posible que todos los
usuarios compartieran información fácilmente gracias a las redes
sociales, foros o plataformas, permitiendo el intercambio casi
instantáneo de piezas que antes eran imposibles, como fotos y vídeo.
Internet de las cosas (IoT)
La internet de las cosas (IoT, por sus siglas en inglés) es un sistema de
dispositivos de computación interrelacionados, máquinas mecánicas y
digitales, objetos, animales o personas que tienen identificadores únicos y la
capacidad de transferir datos a través de una red, sin requerir de interacciones
humano a humano o humano a computadora.

Definición original
Bill Joy imaginó la comunicación D2D (del inglés: Device to Device, dispositivo a dispositivo)
como parte de su estructura de las "Seis Webs" (en 1999 en el Foro Económico
Mundial de Davos);20 pero hasta la llegada de Kevin Ashton, la industria no dio una segunda
oportunidad al internet de las cosas.
En un artículo de 2009 para el diario RFID, "Esa cosa del 'internet de las cosas'", Ashton
hizo la siguiente declaración:
Los ordenadores actuales —y, por tanto, internet— son prácticamente dependientes de los seres
humanos para recabar información. Una mayoría de los casi 50 petabytes (un petabyte son 1024
terabytes) de datos disponibles en internet fueron inicialmente creados por humanos, a base de
teclear, presionar un botón, tomar una imagen digital o escanear un código de barras. Los diagramas
convencionales de internet, dejan fuera a los routers más importantes de todos: las personas. El
problema es que las personas tienen un tiempo, una atención y una precisión limitados, y no se les
da muy bien conseguir información sobre cosas en el mundo real. Y eso es un gran obstáculo. Somos
cuerpos físicos, al igual que el medio que nos rodea. No podemos comer bits, ni quemarlos para
resguardarnos del frío, ni meterlos en tanques de gas. Las ideas y la información son importantes,
pero las cosas cotidianas tienen mucho más valor. Aunque, la tecnología de la información actual es
tan dependiente de los datos escritos por personas que nuestros ordenadores saben más sobre ideas
que sobre cosas. Si tuviéramos ordenadores que supieran todo lo que tuvieran que saber sobre las
“cosas”, mediante el uso de datos que ellos mismos pudieran recoger sin nuestra ayuda, nosotros
podríamos monitorizar, contar y localizar todo a nuestro alrededor, de esta manera se reducirían
increíblemente gastos, pérdidas y costes. Sabríamos cuándo reemplazar, reparar o recuperar lo que
fuera, así como conocer si su funcionamiento estuviera siendo correcto. El internet de las cosas tiene
el potencial para cambiar el mundo tal y como hizo la revolución digital hace unas décadas. Tal vez
incluso hasta más.7

Los estudios relacionados con el internet de las cosas están todavía en un punto muy
temprano de desarrollo. Como resultado carecemos de una definición estandarizada para
este término. Una encuesta realizada por varios investigadores resume de alguna manera
el término.

Aplicaciones
Las aplicaciones para dispositivos conectados a internet son amplias. Múltiples categorías
han sido sugeridas, pero la mayoría está de acuerdo en separar las aplicaciones en tres
principales ramas de uso: consumidores, empresarial, e infraestructura.2223 George
Osborne, ex miembro del gabinete encargado de finanzas, propone que la IoT es la próxima
etapa en la revolución de la información, refiriéndose a la interconectividad de todo: desde
el transporte urbano hasta dispositivos médicos, pasando por electrodomésticos.
Aplicaciones de consumo
Un porcentaje creciente de los dispositivos IoT son creados para el consumo. Algunos
ejemplos de aplicaciones de consumo incluyen: automóviles conectados,
entretenimiento, automatización del hogar, tecnología vestible, salud conectada y
electrodomésticos como lavadoras, secadoras, aspiradoras robóticas, purificadores de aire,
hornos, refrigeradores que utilizan Wi-Fi para seguimiento remoto.
Empresarial
El término "IoT empresarial" (EIoT, por sus siglas en inglés) se usa para referirse a todos los
dispositivos en el ambiente de los negocios y corporativo. Para 2019, se estima
que EIoT comprenderá cerca de un 40% o 9.1 millardos de dispositivos.
Medios
Los medios utilizan el internet de las cosas principalmente para mercadeo y estudiar los
hábitos de los consumidores. Estos dispositivos recolectan información útil sobre millones
de individuos mediante segmentación por comportamiento.40 Al hacer uso de los perfiles
construidos durante el proceso de segmentación, los productores de medios presentan al
consumidor publicidad en pantalla alineada con sus hábitos conocidos en el lugar y momento
adecuados para maximizar su efecto.41 42 Se recolecta más información haciendo un
seguimiento de cómo los consumidores interactúan con el contenido. Esto se hace midiendo
indicadores de desempeño como la tasa de abandono, proporción de clics, tasa de registro
o tasa de interacción. La cantidad de información que se maneja representa un reto, ya que
empieza a adentrarse dentro de los dominios del big data. Sin embargo, los beneficios
obtenidos de la información superan ampliamente las complicaciones de su uso.
Administración de infraestructura
El seguimiento y control de operaciones de infraestructura urbana y rural como puentes, vías
férreas y parques eólicos, es una aplicación clave de IoT.45 La infraestructura de IoT puede
utilizarse para seguir cualquier evento o cambio en las condiciones estructurales que puedan
comprometer la seguridad e incrementar el riesgo. También puede utilizarse para planificar
actividades de reparación y mantenimiento de manera eficiente, coordinando tareas entre
diferentes proveedores de servicios y los usuarios de las instalaciones.26 Otra aplicación de
los dispositivos de IoT es el control de infraestructura crítica, como puentes para permitir el
pasaje de embarcaciones. El uso de dispositivos de IoT para el seguimiento y operación de
infraestructura puede mejorar el manejo de incidentes, la coordinación de la respuesta en
situaciones de emergencia, la calidad y disponibilidad de los servicios, además de reducir
los costos de operación en todas las áreas relacionadas a la infraestructura.46 Incluso áreas
como el manejo de desperdicios 47puede beneficiarse de la automatización y optimización
que traería la aplicación de IoT

¿Qué es y cómo funciona el Internet de las cosas?


El Internet de las Cosas es un concepto que cada vez toma más relevancia, pero
aún no termina de cuajar en los hogares. Descubre exactamente de qué se trata.
Es un término del que escuchamos hablar constantemente. Internet de las
cosas, Internet of Things o IoT por sus siglas en ingles, es un concepto un poco
abstracto pero que ha estado ganando bastante popularidad en los últimos
meses. La idea que intenta representar queda bastante bien ilustrada por su
nombre, cosas cotidianas que se conectan al Internet, pero en realidad se trata
de mucho más que eso.
¿Qué es el cloud computing?
El nuevo concepto de negocio en Internet también conocido como
"computación en la nube"
Debitoor es una sistema intuitivo y rápido que trabaja con la tecnología cloud
computing. Empieza hoy a usarlo.
Procedimiento
Toda la información, procesos, datos, etc., se localizan dentro de la red de
internet, como en una nube, así todo el mundo puede acceder a la
información completa, sin poseer una gran infraestructura.
Ventajas del cloud computing
 Bajo coste. Productos gratuitos o pagos mensuales fijos por utilización, sin
costes adicionales, dado que no hay que invertir en gran infraestructura, ni en
licencias.
 Seguridad. Los datos siempre están seguros (lee la política de seguridad de
Debitoor).
 No hay necesidad de poseer una gran capacidad de almacenamiento.
 Mayor rapidez en el trabajo al estar basado en la web.
 Información a tiempo real.
 Fuerte inversión en innovación.
 Acceso a toda la información.
 Acceso cuando quieras y donde quieras, sólo con una conexión a Internet.
SAAS (Software as a Service)
El software como servicio es una de las modalidades más importantes de la
computación en la nube. Consiste en una aplicación de software ofrecida
totalmente por Internet, con todas las funcionalidades y para todos los
clientes que lo soliciten.
Debitoor es un programa 100% online de facturación y contabilidad
simple:
 Envía facturas, presupuestos y albaranes.
 Crea plantillas profesionales para facturas en menos de 1 minuto.
 Gestiona tu lista de clientes y productos.
 Exporta tus facturas a PDF y Excel.
 Almacena automáticamente todos tus documentos.
 Gestiona tus gastos sin límite.
Más de 300.000 pymes y autónomos gestionan ya su negocio con Debitoor.
Computación en la nube
Comienzos
El concepto de la computación en la nube empezó en proveedores de servicio de Internet a
gran escala, como Google (Google Cloud Services), Amazon AWS (2006), Microsoft
(Microsoft Azure) o Alibaba Cloud y otros que construyeron su propia infraestructura. De
entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos
horizontalmente, introducidos como servicios virtuales de TI escalados masivamente y
manejados como recursos configurados y mancomunados de manera continua. Este modelo
de arquitectura fue inmortalizado por George Gilder en su artículo de octubre de 2006 en la
revista Wired titulado «Las fábricas de información». Las granjas de servidores, sobre las
que escribió Gilder, eran similares en su arquitectura al procesamiento “grid” (red, rejilla),
pero mientras que las redes se utilizan para aplicaciones de procesamiento técnico
débilmente acoplados (loosely coupled), un sistema compuesto de subsistemas con cierta
autonomía de acción, que mantienen una interrelación continua entre ellos, este nuevo
modelo de nube se estaba aplicando a los servicios de Internet.

Fundamentos
El concepto fundamental de la entrega de los recursos informáticos a través de una red
global tiene sus raíces en los años sesenta. La idea de una "red de computadoras
intergaláctica" la introdujo en los años sesenta JCR Licklider, cuya visión era que todo el
mundo pudiese estar interconectado y poder acceder a los programas y datos desde
cualquier lugar, según Margaret Lewis, directora de mercadotecnia de producto de AMD.
«Es una visión que se parece mucho a lo que llamamos cloud computing».

Características
La computación en nube presenta las siguientes características clave:

 Agilidad: capacidad de mejora para ofrecer recursos tecnológicos al usuario por parte
del proveedor.
 Costo: los recursos en la nube suelen tener costos menores a los que un
aprovisionamiento físico local podría representar. Generalmente, la inversión inicial que
representaría tener un aprovisionamiento local se ve anulada debido a la naturaleza bajo
demanda de la nube.

 Escalabilidad y elasticidad: aprovisionamiento de recursos sobre una base de


autoservicio casi en tiempo real, sin que los usuarios necesiten cargas de alta duración.
 Independencia entre el dispositivo y la ubicación: permite a los usuarios acceder a los
sistemas utilizando un navegador web, independientemente de su ubicación o del
dispositivo que utilice (por ejemplo, PC, teléfono móvil).
 La tecnología de virtualización permite compartir servidores y dispositivos de
almacenamiento y una mayor utilización. Las aplicaciones pueden ser fácilmente
migradas de un servidor físico a otro.
 Rendimiento: los sistemas en la nube controlan y optimizan el uso de los recursos de
manera automática, dicha característica permite un seguimiento, control y notificación
del mismo. Esta capacidad aporta transparencia tanto para el consumidor o el proveedor
de servicio.
 Seguridad: puede mejorar debido a la centralización de los datos. La seguridad es a
menudo tan buena o mejor que otros sistemas tradicionales, en parte porque los
proveedores son capaces de dedicar recursos a la solución de los problemas de
seguridad que muchos clientes no pueden permitirse el lujo de abordar. El usuario de la
nube es responsable de la seguridad a nivel de aplicación. El proveedor de la nube es
responsable de la seguridad física.4
 Mantenimiento: en el caso de las aplicaciones de computación en la nube, es más
sencillo, ya que no necesitan ser instalados en el ordenador de cada usuario y se puede
acceder desde diferentes lugares.

Desventajas
 La centralización de las aplicaciones y el almacenamiento de los datos origina una
interdependencia de los proveedores de servicios.
Impresión 3D
La impresión 3D es un grupo de tecnologías de fabricación por adición donde un
objeto tridimensional es creado mediante la superposición de capas sucesivas de material.1
2
Las impresoras 3D son por lo general más rápidas, más baratas y más fáciles de usar que
otras tecnologías de fabricación por adición, aunque como cualquier proceso industrial,
están sometidas a un compromiso entre su precio de adquisición y la tolerancia en las
medidas de los objetos producidos. Las impresoras 3D ofrecen a los desarrolladores de un
producto la capacidad para imprimir partes y montajes hechos de diferentes materiales con
diferentes propiedades físicas y mecánicas, a menudo con un simple proceso de ensamble.
Las tecnologías avanzadas de impresión 3D pueden incluso ofrecer modelos que pueden
servir como prototipos de producto.

Historia
En el año 1976 se desarrollaron equipos y materiales de fabricación de aditivos tempranos.
En 1981, Hideo Kodama, del Instituto Municipal de Investigaciones Industriales de Nagoya,
inventó dos métodos de fabricación AM de un modelo de plástico tridimensional con un
polímero fotoendurecible, en el que el área de exposición a rayos ultravioleta era controlada
por un patrón de máscara o transmisor de fibra de barrido.45. El 16 de julio de 1984, Alain
Le Méhauté, Olivier de Witte y Jean Claude André presentaron su patente para el proceso
de estereolitografía.6. Esto fue tres semanas antes de que Chuck Hull presentase su propia
patente de estereolitografía. La aplicación de los inventores franceses fue abandonada por
la compañía General Electric francesa (ahora Alcatel-Alsthom) y CILAS (The Laser
Consortium). La razón aducida fue "por falta de perspectiva empresarial". Luego, en 1984,
Chuck Hull de 3D Systems Corporation desarrolló un sistema prototipo basado en el proceso
conocido como estereolitografía, en el que se añaden capas mediante el curado
de fotopolímeros con láseres de rayos ultravioleta. Hull definió el proceso como un «sistema
para generar objetos tridimensionales mediante la creación de un patrón transversal del
objeto a formar».

Principios generales
El aditivo de fabricación se lleva a planos virtuales de diseño asistido por ordenador(CAD) o
el software de modelado y animación, se encuentran en secciones digitales para la máquina
para utilizar sucesivamente como una guía para la impresión. Dependiendo de la máquina
que se utiliza, el material o un material de unión se deposita sobre el lecho de construcción
o de la plataforma hasta que el material de estratificación / aglutinante se completa y el
modelo 3D final ha sido "impreso". Una interfaz estándar de datos entre el software CAD y
las máquinas de impresión es el formato de archivo STL (STL (siglas provenientes del inglés
"'STereo Lithography'"') es un formato de archivo informático de diseño asistido por
computadora (CAD) que define la geometría de objetos 3D, excluyendo información como
color, texturas o propiedades físicas que sí incluyen otros formatos CAD). Un archivo STL se
aproxima a la forma de una pieza o un ensamblaje utilizando facetas triangulares. Facetas
más pequeñas producen una superficie de mayor calidad. CAPA es un formato de archivo
de entrada analizador generado, y VRML (WRL) o archivos a menudo se utilizan como
entrada para las tecnologías de impresión 3D que son capaces de imprimir a todo color.

Métodos
Existe un gran número de tecnologías disponisbles para la impresión 3D que están en
competencia.9 Sus principales diferencias se encuentran en la forma en la que las diferentes
capas son usadas para crear piezas. Algunos métodos usan fundido o ablandando el
material para producir las capas, por ejemplo sinterizado de láser selectivo (SLS)
y modelado por deposición fundida (FDM), mientras que otras depositan materiales líquidos
que son solidificados con diferentes tecnologías. En el caso de manufactura de objetos
laminados, se cortan capas delgadas para ser moldeadas y unidas juntas.
Impresión por inyección
Un método de impresión 3D consiste en el sistema de impresión por inyección. La impresora
crea el modelo de capa en capa esparciendo una capa de la sección de la pieza. El proceso
es repetido hasta que todas las capas han sido impresas. Esta tecnología es la única que
permite la impresión de prototipos a todo color, permitiendo además, extraplanos o salientes.
Modelado por deposición fundida
Usando filamentos previamente extruidos, el modelado por deposición fundida, una
tecnología desarrollada por Stratasys12, usa una tobera para depositar material fundido
sobre una estructura soporte, capa a capa. Es muy usada en prototipado rápido tradicional
y, dado su bajo coste, se ha popularizado mucho a nivel doméstico.

Robótica
La robótica es la rama de la ingeniería mecánica, de la ingeniería eléctrica, de la ingeniería
electrónica, de la ingeniería biomédica, y de las ciencias de la computación, que se ocupa
del diseño, construcción, operación, estructura, manufactura, y aplicación de los robots.

Historia de la robótica
La robótica va unida a la construcción de "artefactos" que trataban de materializar el deseo
humano de crear seres a su semejanza y que al mismo tiempo lo descargasen de trabajos
tediosos. El ingeniero español Leonardo Torres Quevedo (que construyó el primer mando a
distancia para su automóvil mediante telegrafía, el ajedrecista automático, el
primer transbordador aéreo y otros muchos ingenios), acuñó el término "automática" en
relación con la teoría de la automatización de tareas tradicionalmente asociadas.

Clasificación de los robots


Según su cronología.- La que a continuación se presenta es la clasificación más
común:
1.ª Generación.- Robots manipuladores. Son sistemas mecánicos multifuncionales con un
sencillo sistema de control, bien manual, de secuencia fija o de secuencia variable.
2.ª Generación.- Robots de aprendizaje. Repiten una secuencia de movimientos que ha
sido ejecutada previamente por un operador humano. El modo de hacerlo es a través de
un dispositivo mecánico. El operador realiza los movimientos requeridos mientras el robot
le sigue y los memoriza.
3.ª Generación.- Robots con control sensorizado. El controlador es un ordenador que
ejecuta las órdenes de un programa y las envía al manipulador o robot para que realice los
movimientos necesarios.
Según su estructura.- La estructura es definida por el tipo de configuración general
del robot, puede ser metamórfica. El concepto de metamorfismo, de reciente aparición, se
ha introducido para incrementar la flexibilidad funcional de un robot a través del cambio de
su configuración por el propio robot. El metamorfismo admite diversos niveles, desde los
más elementales (cambio de herramienta o de efecto terminal), hasta los más complejos
como el cambio o alteración de algunos de sus elementos o subsistemas estructurales.
1. Poliarticulados.- En este grupo se encuentran los robots de muy diversa forma y
configuración, cuya característica común es la de ser básicamente sedentarios.
2. Móviles.- Son Robots con gran capacidad de desplazamiento, basados en carros o
plataformas y dotados de un sistema locomotor de tipo rodante. Siguen su camino por
telemando o guiándose por la información recibida de su entorno a través de sus sensores.
3. Androides.- Son los tipos de robots que intentan reproducir total o parcialmente la forma
y el comportamiento cinemático del ser humano. Actualmente, los androides son todavía
dispositivos muy poco evolucionados y sin utilidad práctica, y destinados.
4. Zoomórficos.- Los robots zoomórficos, que considerados en sentido no restrictivo.
5. Híbridos.- Estos robots corresponden a aquellos de difícil clasificación, cuya estructura.
Inteligencia artificial
La inteligencia artificial (IA), es la inteligencia llevada a cabo por máquinas. En ciencias
de la computación, una máquina «inteligente» ideal es un agente flexible que percibe su
entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo
o tarea.1 Coloquialmente, el término inteligencia artificial se aplica cuando una máquina imita
las funciones «cognitivas» que los humanos asocian con otras mentes humanas, como por
ejemplo: «percibir», «razonar», «aprender» y «resolver problemas».2 Andreas Kaplan y
Michael Haenlein definen la inteligencia artificial como "la capacidad de un sistema para
interpretar correctamente datos externos, para aprender de dichos datos y emplear esos
conocimientos para lograr tareas y metas concretas a través de la adaptación flexible".3 A
medida que las máquinas se vuelven cada vez más capaces, tecnología que alguna vez se
pensó que requería de inteligencia se elimina de la definición. Por ejemplo,
el reconocimiento óptico de caracteres ya no se percibe como un ejemplo de la «inteligencia
artificial» habiéndose convertido en una tecnología común.4 Avances tecnológicos todavía
clasificados como inteligencia artificial son los sistemas de conducción autónomos o los
capaces de jugar al ajedrez o al Go.

Categorías de la inteligencia artificial


Búsqueda heurística. Podemos definir una heurística como un truco o estrategia que limita
grandiosamente la búsqueda de soluciones ante grandes espacios de problemas. Por lo
tanto, ante un problema, nos ayuda a seleccionar las bifurcaciones dentro de un árbol con
más posibilidades; con ello se restringe la búsqueda, aunque no siempre se garantiza una
solución adecuada. Todo lo que se debe tener en cuenta para que una heurística sea
adecuada es que nos proporcione soluciones que sean lo suficientemente buenas. Además,
con la utilización de la búsqueda heurística, no será necesario replantear un problema cada
vez que se afronte, ya que si ya ha sido planteado anteriormente, esta sugerirá la forma en
que se ha de proceder para resolverlo.
Representación del conocimiento. La representación es una cuestión clave a la hora de
encontrar soluciones adecuadas a los problemas planteados. Si analizamos más
detenidamente el término encontramos varias definiciones: según Barr y Feigenbaum, la
representación del conocimiento es una combinación de estructuras de datos y
procedimientos de interpretación que, si son utilizados correctamente por un programa, este
podrá exhibir una conducta inteligente; según Fariñas y Verdejo, la Inteligencia Artificial tiene
como objetivo construir modelos computacionales que al ejecutarse resuelvan tareas con
resultados similares a los obtenidos por una persona, por lo que el tema central de esta
disciplina es el estudio del conocimiento y su manejo; y según Buchanan y Shortliffe, la
Representación del Conocimiento en un programa de Inteligencia Artificial significa elegir
una serie de convenciones para describir objetos, relaciones, y procesos en el mundo. Gran
parte del esfuerzo realizado en la consecución de ordenadores inteligentes, según Rahael,
ha sido caracterizado por el intento continuo de conseguir más y mejores estructuras de
representación del conocimiento, junto con técnicas adecuadas para su manipulación, que
permitiesen la resolución inteligente de algunos de los problemas ya planteados. Otra
característica importante es la inclusión en los programas de Inteligencia artificial, aunque
por separado, de los conocimientos y la unidad que controla y dirige la búsqueda de
soluciones. Dada esta disposición, en estos programas la modificación, ampliación y
actualización de los mismos es sencilla.
Lenguajes, entornos y herramientas de Inteligencia Artificial. En la Inteligencia Artificial,
se han desarrollado diferentes lenguajes específicos para los diferentes campos de
aplicación. Estos lenguajes en su mayoría cuentan con una serie de características comunes
que podemos resumir de la siguiente forma: Este tipo de software ofrece una gran
modularidad. Poseen gran capacidad de tomar decisiones de programación hasta el último
momento, es decir cuando el programa ya está ejecutándose. Ofrecen grandes facilidades
en el manejo de listas, y esto es importante, ya que las listas son la estructura más habitual
usada para la representación del conocimiento en la Inteligencia Artificial. Facilitan la
realización de ciertos tipos de deducción automática permitiendo también la creación de una
base de hechos (lugar donde se recogen los datos iniciales del problema a resolver y los
resultados intermedios una vez obtenidos). Permite el uso simultáneo de estructuras que
incorporan conocimiento declarativo y conocimiento procedimental. Tienen una marcada
orientación gráfica. Además, las herramientas de Inteligencia Artificial permiten hacer un
seguimiento de todos los cambios realizados a lo largo de toda la sesión. Disponen
herramientas capaces de desarrollar programas que son capaces de comprender otros
programas y también de realizar modificaciones sobre ellos.

 Sistemas que piensan como humanos.- Estos sistemas tratan de emular el


pensamiento humano; por ejemplo las redes neuronales artificiales. La automatización
de actividades que vinculamos con procesos de pensamiento humano, actividades como
la toma de decisiones, resolución de problemas y aprendizaje.9
 Sistemas que actúan como humanos.- Estos sistemas tratan de actuar como humanos;
es decir, imitan el comportamiento humano; por ejemplo la robótica. El estudio de cómo
lograr que los computadores realicen tareas que, por el momento, los humanos hacen
mejor.10
 Sistemas que piensan racionalmente.- Es decir, con lógica (idealmente), tratan de
imitar el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos.
El estudio de los cálculos que hacen posible percibir, razonar y actuar.11
 Sistemas que actúan racionalmente (idealmente).– Tratan de emular de forma
racional el comportamiento humano; por ejemplo los agentes inteligentes. Está
relacionado con conductas inteligentes en artefactos.

Escuelas de pensamiento.- La IA se divide en dos escuelas de


pensamiento:

 La inteligencia artificial convencional.


 La inteligencia computacional.
Inteligencia artificial convencional
Se conoce también como IA simbólico-deductiva. Está basada en el análisis formal y
estadístico del comportamiento humano ante diferentes problemas:

 Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos


problemas concretos y, aparte de que son muy importantes, requieren de un buen
funcionamiento.
 Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto
en que se aplica y ocupa de ciertas reglas o relaciones.
 Redes bayesianas: Propone soluciones mediante inferencia probabilística.
 Inteligencia artificial basada en comportamientos: Esta inteligencia contiene autonomía y
puede auto-regularse y controlarse para mejorar.
 Smart process management: Facilita la toma de decisiones complejas, proponiendo una
solución a un determinado problema al igual que lo haría un especialista en dicha
actividad.
Inteligencia artificial computacional
La Inteligencia Computacional (también conocida como IA subsimbólica-inductiva) implica
desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas de los
parámetros en sistemas de conexiones). El aprendizaje se realiza basándose en datos
empíricos.

Historia
El término «inteligencia artificial» fue acuñado formalmente en 1956 durante la conferencia
de Dartmouth, pero para entonces ya se había estado trabajando en ello durante cinco años.