Está en la página 1de 94

1 semestre

ISSN 2215-8391
Universidad Pedagógica y Tecnológica de Colombia
Avenida Central del Norte
PBX (8) 7422175-76 Fax (8) 7436205
www.uptc.edu.com

Alfonso López Días


Rector

Wilson Valenzuela Pérez


Vicerrector Académico

Manuel Humberto Restrepo


Director de Investigaciones

Elkin Colmenares Dulcey


Diseño y Diagramación

Elkin Colmenares Dulcey


Fotografía

Victor Gamboa
Director

Arnold Velandia
Editor

Alexandra Puerto
Camila González
Elkin Colmenares Dulcey
Eliana Marcela Tunarrosa
José Misael Páez
Jully Paola Peña
José David Mestizo
Leydi Paola Páez
Miguel Ignacio Vargas
Mateo Roa
Comite editorial Revista Semilleros de Investigación UPTC

Revista Semilleros de Investigación Uptc


ISSN 2215-8391
revista.semilleros@uptc.edu.com
ISSN 2215-8391
Contenido
SER SEMILLERO ES DAR UN PASO ADELANTE.......................................4

EDITORIAL………………………………...…………………………….................8

U
Descripción General Del Modelo De Comportamiento Del Consumidor De
Engel – Blackwell – Miniard
Edgar Sanabria…….....………………………………….....……………………....12

La Estrategia De Bpo&o (tercerización) ¿una Opción De Servicios Para


Colombia?
Camilo Rojas…......………......………………….……………………….…….......17

Reflexiones Entorno A La Investigación En Turismo


Paola Gama, Bibiela Mojica....................................……..................................23

P
La Expedición Botánica De 1783 Y El Inicio De La Botánica Moderna En
Colombia
Eliana Tunarosa……………...…………………………………………………..….34

Evaluaciòn Del Efecto Sanitizante De Un Extracto Biodegradable Obtenido De


La Especie Solanum Marginatum, De Uso Etnobotànico En Boyacà.
Mauricio Garcia, Maria Cristina Castellanos....................................................41

Bioinformática, Más Que Una Herramienta De Investigación


Camilo Medina…………………………………………………………...................47
Contenido
T
Descripción Fenomenológica De La Ecolocalización, Imágenes A Partir De
Sonidos
Jully Peña...............………………………………………………………..………..52

Aplicación Del Algoritmo Runge – Kutta En La Obtención De Órbitas Estelares


En Galaxias Espirales.
Fonseca, Eulises A..........................................................................................57

Microscopia De Fuerza Atómica: Técnica, Equipo Y Aplicaciones


Santiago Sandoval……………………………..........………….......................….63

Modelo De La Gota Líquida Con Pequeñas Deformaciones


Hernández Yenny, Higuera Sindy……..............................................................69

Propiedades Estructurales Y Electrónicas Del Ti Calculadas Mediante La Dft


María A. Puerto, William O. Sosa, Jairo A Rodríguez......................................73

Estudio A Las Imagenes Religiosas De Santa Clara La Real: San Gabriel


Elkin Colmenares…...…...………………………………………….......................80

El Espacio Expositivo, Una Ventana Abierta Al Conocimiento


José Páez ..................…...................................................................................86

¿Qué He Aprendido Al Pertenecer A Un Semillero De Investigación?


Diana Díaz........................................................................................................92
RevistaSemilleros

.
SER SEMILLERO ES DAR UN PASO ADELANTE

Otra vez los jóvenes agrupados en la investigación en calidad de semilleros,


continuaron la ruta de la publicación de apartes de los resultados, de los que
van siendo participes, junto con el profesorado que alienta el espíritu
investigativo de ellos y de los jóvenes becados en formación.

Ser semillero implica dar un paso adelante en la condición de estudiante.


Pues sus compromisos con el conocimiento y a través de este la libertad, se
amplían. Sus horas de estudio aumentan y las fuentes de búsqueda
bibliográfica, de experiencias, de talleres, de laboratorios, de discusiones,
crece significantemente. Las capacidades de argumentar y construir
fundamentos debe ser la respuesta esperada a la función del semillero.

Asumir por cuenta propia la condición de semillero, obedece a


oportunidades, deseos, condiciones propicias y de manera especial, al
compromiso del profesorado que investiga y que al hacerlo engrandece el
sentido mismo de la universidad. Las motivaciones para ser semilleros,
resultan de la conjugación entre lo que busca el estudiante y lo que facilita el
profesorado más las garantías institucionales. El profesorado que investiga
hace de la universidad un taller o un laboratorio del conocimiento, al servicio
ya no solo de la reproducción de contenidos y asignaturas, si no de la
transformación y creación, que es la mayor contribución presenta a la hora
de conformar semilleros.

Un semillero es el estudiante que no solo hace parte numérica de un grupo


de investigación, si no que tiene sus primeras responsabilidades concretas
frente a la investigación. La primera responsabilidad es consigo mismo, al
asumir que investigar tiene un proceso de formación, esto es, dedicar
tiempos y esfuerzos a comprender qué es la investigación, para qué sirve y
cuando y cómo se realiza, en qué circunstancias, en qué contexto social,
económico, político y cultural se realiza, saber distinguir los medios de los
fines, etc. Ello implica leer críticamente, asistir a cursos sobre investigación,

4
RevistaSemilleros

.
aprender en los debates sobre la ciencia, su contexto, sus alcances. El
segundo compromiso es con la sociedad, con el entorno, con los otros, el
punto de partida es formarse en el ámbito de una ética de la vida y de la
ciencia. Un investigador debe tener como primer principio el de la
honestidad intelectual, responsabilidad con la verdad, dar crédito a lo que
han creado otros, no cambiar los resultados para favorecer ningún interés,
no falsear la realidad.

El trabajo en equipo hace parte del proceso y este indica también entender
que la realidad se construye socialmente a partir de enfoques, de formas de
mirar y de interpretar, a sabiendas que no hay verdades únicas, ni
inmodificables y que la tarea del investigador/a solo mira una o más aristas
pero difícilmente logra observar o contener el todo, allí comienza la
interdisciplinariedad, el trabajo entre varios quienes se agrupan para
producir resultados más completos. El investigador formado encuentra
rápidamente la diferencia entre los enunciados de otros y los suyos propios y
precisa más fácilmente que es lo que sabe y por ello no pretender abarcar
todos los temas. El semillero que trabaja con ese investigador aprende a
medida que hace y reflexiona y viceversa.

Aparte de las contribuciones con el desarrollo del pensamiento mismo, un


semillero se adentra el reconocimiento de la complejidad social tanto global
como local, entendiendo el momento que vivimos y el papel de la ciencia en
las transformaciones de la sociedad y del sujeto y en esa dirección el papel
de la universidad como organismo vivo capaz de producir impactos
favorables a formas de organización social más equitativas, más justas, mas
responsables con el entorno, más humanas. El semillero, es entonces,
mucho más que un estudiante inscrito en un grupo de investigación que se
encarga de las tareas administrativas de llevar registros o ayudar a hacer
encuestas. Un semillero, es ante todo un estudiante de pregrado, en
proceso de formación para cambiar el estado de las cosas a través de sus
avances como investigador/a y contribuir de esa manera a ampliar las
fronteras de la ciencia, a la vez que buscar salida mediante el conocimiento

5
RevistaSemilleros

. I
que genera a las situaciones adversas que atraviesa nuestra sociedad.
Las paredes universitarias aun señalan la idea de que los estudiantes deben
estar preparados para estudiar y luchar para modificar la realidad nacional,
pues he ahí la condición del semillero, iniciarse en la formación que
conduzca a transformar la realidad y proponer modos de convivencia. Está
llamado a comprender mejor la diversidad de opiniones que conviven en un
lugar, la multiplicidad de formas de resolver una situación y del conjunto que
se produce cuando varias capacidades se encuentran para crear y recrear
con conocimientos orientados por el mismo fin: crear conocimiento para
crear otras realidades diversas, plurales, más nuestras.

Bienvenida esta segunda edición de la revista semilleros, pensada,


diseñada y hecha en su totalidad con el espíritu de los semilleros. Por parte
del equipo de Dirección académica de la universidad nuestro
reconocimiento y felicitación a este esfuerzo colectivo, joven, estético.

Para la Dirección de Investigaciones DIN, este SEGUNDO MAGAZIN EN


FORMATO DE REVISTA DE SEMILLEROS, es otro aporte significativo, de
lo que a diario hacen los colectivos de investigación y enriquece toda la vida
universitaria. La revista de semilleros, lleva aparte de textos de resultados y
reflexiones, el espíritu de sus estudiantes que dieron el paso hacia su
condición de investigadores/as en formación quienes mediante esta
publicación materializan la articulación entre lo que piensan y hacen
nuestros jóvenes y el fomento de la política institucional en este campo. En
los semilleros, encontramos un pilar esencial para dejar avanzar la
universidad hacia otros estadios más flexibles, más heterogéneos, más
plurales, que rebasen las formas de la vieja universidad que tiende a sujetar
y organizar en torno a la homogeneidad, la centralización y los modos
tradicionales de hacer la vida, la academia y la investigación.

Como un homenaje a los semilleros, se han realizado desde 2009 los


martes, más de 60 sesiones del “Coloquio de Formación Investigadora,
Orlando Fals Borda”, que es un escenario de comprensión, análisis y

6
RevistaSemilleros

.
reconocimiento sobre el qué, cómo y para qué investigar. Otro escenario
colectivo preparado en coordinación con las Universidades Pedagógica
Nacional, Distrital Francisco José de Caldas, Colegio Mayor de
Cundinamarca y la UPTC a través de la DIN, es el CAMPAMENTO
NACIONAL DE SEMILLEROS, que se realizará los días 29,30 y 31 de
agosto de 2010, en la UPTC, Tunja y dentro de este el II Congreso
Internacional de Semilleros de Hotelería y Turismo, en Paipa. En el
Campamento Nacional de semilleros, esta publicación podrá convertirse en
ejemplo de autonomía del trabajo estudiantil y en punto de encuentro para
fortalecer los espacios organizativos de esta fuerza académica y social que
crece en el país y se llama: SEMILLEROS.

Manuel Humberto Restrepo Domínguez.


Director de Investigaciones. Julio de 2010.

7
RevistaSemilleros

.
REVISTA SEMILLEROS DE INVESTIGACIÓN, UN ESPACIO
COLECTIVO EN CONSTRUCCIÓN PERMANENTE.

Solo hay dos cosas que podemos perder:


El Tiempo y la Vida;
La segunda es inevitable y el primero imperdonable.
José María Franco Cabrera.

Desde frases que para algunos representan verdad, para otros sabiduría,
para muchos otros motivo de reflexión, debo decir enfáticamente, que esta
publicación, es la clara muestra de que los semilleros de investigación de la
U.P.T.C no pierden el tiempo, no lo desperdician, todo lo contrario, pues
gracias al apoyo institucional promovido desde la DIN, encuentran la
grandiosa oportunidad de exponer ante la comunidad académica a la que se
deben, algo de su producción intelectual, dé su sentir, de su manera de
percibir la realidad que les corresponde y asumen, en un espacio ideado y
manejado por otros semilleros.

En este número, la Revista Semilleros de Investigación busca a través de su


diseño, enunciar la continuidad en el proceso de creación y consolidación de
la revista, proceso de por sí enriquecedor en cuanto diversas son las fuentes
que alimentan su espíritu y dan fuerza a su razón de ser; visibilizar el trabajo
de nosotros, los semilleros de investigación upetecistas.

Estudiantes de diversas áreas del conocimiento, con concepciones,


aspiraciones e ideologías diferentes, representan la oportunidad única de
hacer explícitos, los alcances de la formación en investigación,
evidenciando que ésta, traspasa el plano de lo disciplinar y estricto, llegando
a lo cotidiano, a lo esencial, a lo humano. Todo ello bajo el titulo de Revista
Semilleros de Investigación, contenedor que en el alma de sus páginas y
secciones deja inscrito el nombre de nuestra universidad y el valor de lo
común.

Pero nada de lo mencionado antes sería posible si no existiera gente


sensible y comprometida que de manera voluntaria ha querido asumir el

8
RevistaSemilleros

.
compromiso de construir colectivamente, pensando en la otredad, un
espacio para contar y decir, ya sea con imágenes, formulas o textos, todos
ellos pretextos, el valioso potencial contenido en los estudiantes, sus letras
y la otra cara de nuestra academia.

Severo Ochoa decía que “en principio la investigación necesita más


cabezas que medios” y tiene razón, pero considero que somos afortunados
pues gracias a este medio que ya ha adquirido la responsabilidad de tener
un ejemplar semestralmente, se pueden hacer visibles las ideas de esas
cabezas, que gestan, promueven y alientan los nuevos rumbos de la
investigación.

Tan solo resta decirles desde el Comité Editorial de ésta, su revista, que las
puertas están abiertas y en espera de todos aquellos que quieran aportar
con sus ideas, iniciativas y consejos al fortalecimiento de este espacio, dé y
para semilleros de investigación y así reafirmar al profesor Manuel Restrepo
director de investigaciones de nuestra universidad cuando dice, que los
semilleros vamos un paso adelante.

ARNOLD VELANDIA MATEUS.


EDITOR

9
RevistaSemilleros

Titulo: De la serie “Rayando la Ruina”


Fotrográfia: Elkin Colmenares Dulcey
Colectivo: En la Ruina
Integrantes: Elkin Colmenares,
Manuel Barrera, Wilman Zabala.
2010
DESCRIPCIÓN GENERAL DEL MODELO DE COMPORTAMIENTO DEL
CONSUMIDOR DE ENGEL – BLACKWELL – MINIARD.

SANABRIA, EDGAR.

Grupo De Investigacion Management Uptc – Semillero Seges.


Escuela De Administracion De Empresas.
Facultad Seccional Sogamoso.
edsanabriat@gmail.com – edgar.sanabria@uptc.edu.co

RESUMEN

El presente artículo se enmarca en las ciencias administrativas, más exactamente el


mercadeo y el comportamiento del consumidor. Continúa la exploración de los
consumidores en hipermercados y supermercados indagando el perfil de los mismos en la
ciudad de Sogamoso (Boyacá), partiendo del análisis del más importante modelo de
comportamiento del consumidor, visto desde la perspectiva del mercadeo como es el de
Engel, Blackwell y Miniard. Se entrega este artículo a la comunidad académica, como
avance del proyecto titulado “IDENTIFICACIÓN DEL PERFIL DEL COMPRADOR DE
BIENES Y SERVICIOS ADQUIRIDOS EN SUPERMERCADOS E HIPERMERCADOS
ESTABLECIDOS EN LA CIUDAD DE SOGAMOSO”

PALABRAS CLAVES: Perfil, Consumidor, Hipermercado, Supermercado, Sogamoso,


modelo, mercadeo.

INTRODUCCIÓN.

El presente artículo desarrolla brevemente uno de los más importantes modelos de


comportamiento del consumidor existentes desde el punto de vista del mercadeo, como es
el modelo de Engel – Blackwell – Miniard, desde su funcionamiento hasta los principales
factores que inciden en la adquisición de información para que el consumidor lleve a cabo la
elección de compra más apropiada. Se inicia con la descripción de aspectos generales del
mercadeo, así como con la mención de algunos de los modelos más importantes que,
desde el mercadeo, buscan analizar el comportamiento del consumidor de una forma
organizada, sistemática y científica. Seguido esto, se inicia la descripción del modelo,

12
partiendo de la una breve descripción de su origen. También se presenta una ilustración que
resume el comportamiento del mismo, continuando con la explicación de su funcionamiento
y los modos de decisión bajo los cuales este modelo puede ser utilizado por parte de los
consumidores.

DEFINICIÓN DE MERCADEO

El mercadeo puede ser definido como el…


Proceso que comprende todas las actividades mercantiles relacionadas con el flujo de
productos de la fábrica al consumidor poniendo los productos en contacto con los
mercados, a fin de lograr una distribución racional del producto, su relación estabilidad de
precio para el consumidor, y, la garantía de ingreso para el productor con obtención de
utilidades (JANY CASTRO, 2005).

Puede verse aquí que es necesario para las empresas el gestionar sus recursos con el fin
de obtener los resultados esperados, a partir de la correcta planeación y ejecución de las
actividades empresariales, incluidas las de mercadeo. Sin embargo, es importante
entender los gustos y/o necesidades del consumidor. Solomon (2001), simplifica o reúne
este proceso en los siguientes pasos: Reconocimiento del problema, Búsqueda de la
Información, Evaluación de las Alternativas, Elección del producto y Evaluación post –
compra. Estos pasos están incluidos en modelos especializados que buscan entender
desde un punto de vista científico el desarrollo de la voluntad de compra del consumidor,
logrando de esta forma influir en la misma para poder llevar al consumidor a la compra de un
determinado producto. Existen modelos globales y parciales que detallan cómo el
consumidor actúa en algunas partes o en el total del proceso de decisión de compra,
respectivamente. Dentro de los modelos globales más importantes encontramos el Modelo
de Nicosia, Modelo de Howard – Seth, Modelo de Engel – Blackwell – Miniard y Escuela
de la GESTALT; y entre los parciales se encuentran el Modelo de Bettman y el Modelo de
Fishbein. (Dirección Nacional de Servicios Académicos Virtuales DNSAV – Universidad
Nacional de Colombia, 2009; RIVERA CAMINO, MOLERO AYALA, ARELLANO CUEVA,
2009).

MODELO DE ENGEL – BLACKWELL – MINIARD.

Este modelo se empieza a desarrollar en 1968 bajo el nombre “Modelo de Engel – Blackwell
– Kollat”, y cambia su nombre debido al fallecimiento de David Kollat, coautor del mismo, y
los aportes que Paul W. Miniard hace al equipo de trabajo ya constituido. Este es un modelo
que, aunque tiene limitaciones, es de los pocos que se renueva constantemente y ofrece

13
una pauta relevante, actualizada y que trata de incluir de una forma coherente los diversos
aspectos que incurren en el proceso de comportamiento del consumidor. A continuación se
observa una representación del modelo en la Ilustración 1.

Este modelo utiliza los elementos que configuran el proceso de comportamiento del
consumidor en la siguiente forma: Reconocimiento de la motivación y la necesidad,
Búsqueda de información, Evaluación de alternativas, Compra y Resultados (Dirección
Nacional de Servicios Académicos Virtuales DNSAV – Universidad Nacional de
Colombia, 2009). Estos constituyen los pasos fundamentales que componen el proceso de
decisión. El modelo parte del reconocimiento de la necesidad, que nace de la diferencia
percibida entre el estado ideal en el que el consumidor desearía estar y el estado real en el
cual se encuentra, diferencia ésta que es influenciada por estímulos agrupados en tres
categorías definidas: la información que se posee en la memoria sobre el elemento
analizado, los factores ambientales y las características individuales del individuo. Una vez
ocurre este proceso, se dice que la necesidad ha sido activada.

Fuente: BLACKWELL, MINIARD, ENGEL. (2003). Modelo de comportamiento del


consumidor de ENGEL - BLACKWELL - MINIARD.

14
El siguiente paso es la Búsqueda de Información. Primero se acude a la información que el
individuo tiene en la memoria interna sobre el elemento analizado, para determinar qué se
conoce sobre las diferentes alternativas y cómo se debe elegir entre ellas. Si esa
información no es suficiente, se activa la búsqueda externa para recopilar nueva
información. Esta búsqueda también se ve afectada por factores individuales en donde
aquellos individuos que “corren poco riesgo” suelen buscar una mayor cantidad de
información y también consideran en mayor medida los factores ambientales. Todo esto
expuesto al análisis que pueda efectuar las actividades procesadoras de información para
la extracción de los significados de los estímulos recibidos. El primero de éstos es la
exposición a los estímulos, de forma voluntaria o estimulada por una búsqueda activa de
información; el segundo es una atención consciente del consumidor admitiendo solamente
aquellos que se juzgan como importantes.

La siguiente etapa, denominada Comprensión, se encarga de la extracción del significado


de la información a la que se le ha prestado atención y su posterior almacenamiento en la
“memoria de corto plazo” para que pueda llevarse a cabo con ésta un procesamiento
posterior. El siguiente paso es el proceso de Evaluación de alternativas, donde se compara
la información que se tiene y se ha podido recuperar de las diferentes marcas y/o
alternativas, con los criterios de evaluación para el juzgamiento del producto, que se
encuentran almacenadas en la memoria permanente. Pero éste proceso también se divide
en otros sub pasos; el primero es la Aceptación, que surge de la modificación, cambio o
refuerzo de los criterios evaluativos como consecuencia de la comparación de éstos con la
información recientemente adquirida, y en cualquier caso se genera la retención de la
información en la memoria permanente. Esta comparación hará que se consoliden o que se
cambien dichos parámetros de medición según se ajusten o no a la nueva información
recibida, y según la actitud de apoyo o rechazo que genere el individuo hacia la nueva
información. Sin embargo, la falta de aceptación ocasiona una pérdida de información. En
general, el camino más común es que con la información obtenida se entre en un proceso
de juzgamiento de las opciones presentadas, considerando aquellos aspectos que pueden
ser apreciados como positivos y negativos, lo que a la postre puede cambiar las actitudes e
intenciones de compra. (BLACKWELL, MINIARD, ENGEL, 2003).

Este proceso entrega un resultado: la intención de compra de la marca que recibió la mayor
valoración. Si no se presenta la intervención de otras situaciones ajenas al
comprador/consumidor, como por ejemplo falta de dinero, incertidumbre sobre futuros
resultados u otros, que obliguen a posponer el acto de compra, éste se llevará a cabo.
Posterior a este paso se encuentra el uso del producto, donde su evaluación continua
compara las expectativas con los resultados obtenidos. Pueden presentarse tres estados:

15
descarte, satisfacción o insatisfacción con el producto. En la primera opción, se descarta el
uso de l producto por no cumplir las expectativas del producto; si se elige la segunda opción
se continúa la evaluación del producto y las diferentes alternativas para cuando sea
necesario realizar una nueva compra, pero teniendo en cuenta el aprendizaje previo y la
satisfacción lograda con el producto actual, que seguramente tendrá mayores opciones de
repetir la compra; en cambio, si el resultado es el segundo, esto puede llevar a una nueva
búsqueda de información sobre la marca y/o al cambio de de las creencias sobre la marca y
el producto Este proceso se considera continuo y que opera sobre todas las compras. Es de
aclarar que este modelo puede operar bajo dos tipos de modos o configuraciones por parte
del consumidor, denominados ASP (Comportamiento amplio de solución de problemas) y
LSP (Comportamiento limitado de solución de problemas). En el primero, se asume que en
este modelo el individuo tendrá una amplia participación en la decisión y el riesgo percibido,
es decir, el individuo se informará adecuadamente sobre el producto y, de ser necesario, lo
buscará tienda por tienda; para el segundo, el individuo funciona en dos niveles de
participación y/o de riesgo percibido: Hace una evaluación poco rigurosa de los productos, y
tiene una baja motivación para ir a muchas tiendas, es decir, no tiene lealtad con la marca.
Sin embargo, se menciona que este modelo sirve para el análisis de ambos modos de
comportamiento. Lo que cambiaría para cada uno de ellos es el grado de involucramiento
que los consumidores aplican en una o varias etapas del modelo. (BLACKWELL, MINIARD,
ENGEL, 2003).

CONCLUSION

La importancia del análisis del modelo de comportamiento de consumidor de Engel –


Blackwell – Miniard, o de cualquier otro modelo es que a partir de la comprensión de los
procesos que están implícitos en su funcionamiento, se pueden entender las diferentes
fases que un consumidor debe atravesar para hacer la elección del producto o servicio que
ha elegido como idóneo para satisfacer sus gustos o necesidades. Para las empresas,
instituciones, publicistas o cualquier otro interesado, el aprender a manejar este o cualquier
modelo implica el conocimiento sobre cómo influir en los consumidores para que acepten y
elijan el producto, servicio o idea que pretenden ofrecer, para así llegar al cierre de la
compra y, más allá de esto, la fidelización del cliente por, al menos, hasta la siguiente
compra. Este modelo parte del conocimiento o experiencia del consumidor almacenado en
la memoria, así como diferencias individuales y la influencia del entorno sobre el
consumidor. Estos contienen las variables que determinan la elaboración de un perfil,
aunque éste puede variar en su complejidad según las variables o aspectos a analizar,
derivados de la información que se requiera para poder influir en el modelo que el
consumidor aplica en sus decisiones de compra.

16
BIBLIOGRAFÍA

?
JANY CASTRO, José Nicolás. (2005). Gerencia Comercial: UN Enfoque Operativo. Bogotá, D.C. Fondo
Educativo Panamericano. p. 840.
?
SOLOMON, Michael R., STUART, Elnora. W. (2001). Marketing: Personas Reales, Decisiones Reales 2ª Ed.
Bogotá, D.C. Pearson Educación de Colombia, LTDA. p. 146 – 150.
?
Dirección Nacional de Servicios Académicos Virtuales DNSAV – Universidad Nacional de Colombia (2009).
Comportamiento del consumidor. Capítulo 3., Extraído 2009, 29 octubre de:
http://www.virtual.unal.edu.co/cursos/economicas/2005362/docs_curso/contenido.html
?
BLACKWELL, Roger D., MINIARD, Paul W., ENGEL, James F. (2003). “Proceso de decisión del consumidor”
en: Comportamiento del Consumidor 9º Ed. México, D.F. Cengage Learning Editores. p.p. 69 – 96.
?
RIVERA CAMINO, Jaime., MOLERO AYALA, Víctor, ARELLANO CUEVA, Rolando. (2009). “Modelos de
comportamiento del consumidor” en: Conducta Del Consumidor, 2º Ed. Pozuelo de Alarcón (Madrid, España).
ESIC Editorial. p. 51.

LA ESTRATEGIA DE BPO&O (TERCERIZACIÓN)


¿UNA OPCIÓN DE SERVICIOS PARA COLOMBIA?

ROJAS, CAMILO.

Grupo De Investigación: Poder (proyectos Organizacionales Para El Desarrollo


Empresarial De La Región)- Escuela Administración De Empresas – Tunja
Camilo.rojas@uptc.edu.co

RESUMEN

El artículo muestra el significado, antecedentes e importancia de la tercerización ó BPO &


O, traducidos en menores costos y mayor eficiencia para las empresas. Cuál es su
importancia en los países asiáticos, europeos y latinoamericanos. Finaliza haciendo una
breve presentación de la tercerización en Colombia y, particularmente, en Boyacá.

PALABRAS CLAVES: Boyacá, BPO&O, Colombia, Desventajas, Estrategia, Empresario,


Países tercerizadores, Tercerización, Ventajas.

17
INTRODUCCIÓN

El presente artículo tiene el propósito de presentar un panorama general sobre el tema de


los servicios BPO & O (tercerización), sus antecedentes y mostrar cómo se encuentra este
tipo de servicios en Colombia. La tercerización es una práctica que empieza a desarrollarse
después de la segunda guerra mundial en la denominada era post-industrial, cuando los
empresarios encontraron innecesario abarcar todas las áreas de la empresa, por la
necesidad de disminuir costes en sus procesos de producción, pues notaron que la
tecnología y la actualización en la misma resultaba muy costosa, de forma que evidenciaron
la conveniencia de entregar ciertos trabajos a empresas especializadas (FERNÁNDEZ,
Ruddy , 2002).

Esta práctica, igualmente conocida BPO&O por sus siglas en inglés (Business Process
Outsourcing and Offshoring), significa el hecho de contratar y delegar a largo plazo uno o
más procesos no críticos para un negocio, diferentes de los relativos al “core business” o
estrategia central de la empresa, para que un proveedor más especializado los realice con
mayor efectividad y reducción de costos que permita orientar los mejores esfuerzos de una
compañía (Quinn, 2000). En los últimos años el Ministerio de Comercio Industria y Turismo
(Mincomercio 2008) está llevando a cabo un plan con el cual pretende ubicar a Colombia
como un país de alto rendimiento en el servicio BPO & O, plan que se adelanta
1 2
conjuntamente con el grupo MIDAS y la organización USAID , en un programa
denominado “Desarrollando el Sector de BPO&O como uno de Clase Mundial”.

Antecedentes y significado de la tercerización

Por los años cincuenta después de la reconstrucción de Europa por parte de los
Americanos, se dio un fenómeno donde por exceso de demanda sobre la oferta, la
subcontratación se hizo para garantizar que algunos proveedores surtieran las materias
primas que se requerían y en el momento oportuno. En los años sesenta los empresarios
europeos se fueron para el norte de África a buscar mano de obra barata, lo mismo que
hicieron los japoneses con el oriente de África y los americanos con el sur de América. Los
tres lograron contratar con empresas conocedoras del medio, para que se les redujeran los
costos, contratando la producción de algunos bienes. El término nace en realidad a inicios
de la década de los 70's enfocado, sobre todo, a las áreas de información tecnológica en
las empresas. Las primeras empresas en implementar modelos de Outsourcing fueron

1
Más Inversión para el Desarrollo Alternativo Sostenible
2
Agencia de Estados Unidos para el Desarrollo Internacional

18
empresas como EDS, Arthur Andersen, Price Waterhouse entre otros. Pero fue en los años
ochenta cuando el mundo empezó a ver cómo era más conveniente entregar ciertos
procesos a terceros, que hacerlos la misma empresa y el caso más relevante se da cuando
KODAK cedió a IBM su centro de data y sistemas de telecomunicaciones (Fernández
2002).

El avance de la tercerización, como es lógico, ha dependido del momento económico, y el


enfoque ha ido cambiando. Pasó de ser meramente táctico a convertirse en un enfoque
estratégico. Las empresas hoy parten de un análisis de su visión, de su misión, de su
cadena de valor y de cuáles deben ser sus procesos centrales y cuales se pueden
subcontratar. Dentro de los países más destacados en el desarrollo de servicios de
tercerización en Asia, que trabajan como destino de externalización, se encuentran China,
India y Filipinas.

China se ha convertido en el principal destino para empresas que han querido relocalizar
plantas de producción de sus productos. Hoy en día China fabrica ropa, equipos, artefactos
3
electrónicos, juguetes y un sinfín de otros productos (ICEX) . India es líder en relocalización
de servicios y procesos administrativos, como centros de atención al cliente y procesos
financieros. Dentro de las ventajas que se reconocen de India se cuentan el dominio del
idioma inglés (un 20% de su población) y la cantidad de ingenieros en computación que se
gradúan cada año (300.000 graduados). Entre los obstáculos que podrían enfrentar las
empresas se destaca las diferencias culturales; la empresa nacional más relevante en este
país es NASSCOM (Mckensey, Mincomercio 2008). Filipinas surge como alternativa a
India, por su infraestructura y conocimiento del inglés. Por otro lado, carece de las
habilidades que posee India y existe preocupación por actividades de terrorismo; para este
país la empresa líder en la industria es BPA (Mckensey, Mincomercio 2008).
En Europa existen varios países que consideran la industria de gran importancia y
estratégica como negocio. Rusia cuenta con una gran fuerza laboral en las áreas de ciencia
y matemáticas, procesos y metodología. Su debilidad es el escaso dominio del inglés y la
inestabilidad política

Latinoamérica, en los últimos años emerge como una posibilidad de inversión en BPO&O.
Chile se destaca por su estabilidad económica, política y social, además de por su moderna
infraestructura, apertura a los mercados y fuerza laboral capacitada. Empresas como
Oracle, Sinopsis, Evaluaserve han apostado por Chile como plataforma de negocios. Para
consolidar esta iniciativa, se anunció la conformación de un Consejo Estratégico Público-

3
Instituto Español de Comercio Exterior

19
Privado, el que tendrá como misión diseñar e implementar acciones para fortalecer las
condiciones país para el desarrollo y expansión de este sector, seleccionado por el Consejo
Nacional de Innovación como uno de los cluster con mayor potencial de crecimiento durante
la próxima década (wikipedia 2008).
Costa Rica se ha destacado en los últimos 10 años como un fuerte destino de Inversión
Extranjera Directa, IED, proveniente mayormente de Estados Unidos, y aún más
recientemente de Europa y China. El país recibe unos 600 millones de dólares
estadounidenses por año en IED. La inversión se ha concretado en diversos proyectos
turísticos, desarrollo de bienes raíces, en industria electrónica y médica de alta tecnología.
Estas inversiones se han logrado por su tradición democrática y estabilidad social, apertura
comercial y fuerza laboral bien educada y bilingüe (wikipedia 2008).

La tercerización en Colombia

Colombia es un país debutante en el sector. Aquí la tercerización se encuentra en un uso y


nivel distinto a los niveles encontrados y existentes. Según PROEXPORT, LOGYCA y GS1
(Ignacio Gómez, 2009) existen diferentes modelos de tercerización para el ámbito de
4
logística o producción: PL 1, PL2, PL3 Y Pl4 . Según la Encuesta Nacional Logística
(Ignacio Gómez, 2009), la opción del operador PL 2 es definitivamente la más usada por las
empresas colombianas, en el ámbito nacional como internacional; Para la operación
nacional, tienden a usarse más las opciones de PL 1, PL 2 o ninguna opción, mientras que
en la operación internacional las empresas buscan socios de negocio con más
participación, como los PL 2, PL 3 y PL 4.

Colombia puede ser un fuerte competidor, sin trabajo de fondo aún en el tema ; aún así , en
los últimos años el Ministerio de Comercio Industria y Turismo está llevando a cabo un plan
con el cual pretende ubicar a Colombia como un país de alto rendimiento en el servicio

4
- TWO PARTY LOGISTICS 2PL: Es un proveedor que presta servicios independientes y ocasionales, se enfoca
exclusivamente a una sola actividad, por ejemplo, transporte o trámites aduaneros y/o almacenamiento. Su objetivo es
reducir costos al cliente o proveer de capacidad extra cuando sea necesario, evitando una inversión innecesaria.
- THIRD PARTY LOGISTICS 3PL: Es un operador logístico que realiza todas o una porción de las actividades logísticas
bajo un contrato o tarifa, de manera que permita y mejore el cumplimiento de metas y objetivos definidos. Estos servicios
pueden ser operativos, administrativos o ambos, pero deben de incluir más que un simple transporte de carga o
almacenamiento de mercancías.
El 3PL debe considerarse como una extensión del área de logística de las empresas. Se enfoca en actividades de transporte
y almacenamiento, apoyándose en las tecnologías de la información y alcanzando mejoras en términos de costos de
operación.
- FOURTH PARTY LOGISTICS 4PL: Ejerce la actividad de planeación y coordinación del flujo de información desde
proveedores hasta clientes. Diseña la arquitectura logística y el sistema de información para integrar los procesos sin
ejecutar necesariamente los flujos físicos. El 4PL construye y ejecuta soluciones globales combinando su propia
experiencia con la de los proveedores de servicios complementarios, de manera que se comparten riesgos y beneficios con
base en una relación directa e intercambio de conocimientos e información.

20
BPO&O, este trabajo se lleva de forma conjunta con el grupo MIDAS y la organización
USAID, programa al cual denominan “Desarrollando el Sector de BPO&O como uno de
Clase Mundial”, según el informe aportado por el ministerio, las regiones que tienen mayor
disposición para este trabajo son: la Región Cafetera, Cundinamarca, Bogotá (por la
creación de zonas francas de servicios), la costa Atlántica y Norte de Santander; lo anterior
debido a que hay menor rotación del recurso humano dado que las oportunidades
laborales resultan poco atractivas, igualmente, mano de obra calificada gracias a la alta
presencia de universidades regionales, infraestructura adecuada y mejor calidad de vida ,
entre otros aspectos que generan ventajas para estos sectores regionales (Mckensey,
Mincomercio 2008)

La tercerización en Boyacá

En el plan (Mckensey, Mincomercio 2008) se menciona la forma en que se segmenta la


industria de BPO&O y en cuáles sectores Colombia ha trabajado o en los que puede
generar estrategias competitivas. En el estudio se menciona a Tunja como ciudad
promedio, pero no se la tiene en cuenta como estratégica para el plan adelantado, pues la
madurez que se tiene en la región acerca de la industria de BPO&O es casi nula, igualmente
los costos generales son equivalentes a los del promedio del país y tomando en cuenta los
resultados del DOING BUSINESS (Banco Mundial 2010) para el 2010 esta ciudad no sale
muy bien librada; por otra parte la preparación del recurso humano en la ciudad es muy baja
en cuanto a la disponibilidad para este tipo de negocios o en el manejo de idiomas,
necesario para el mercado de OFFSHORING.

Para Boyacá la tercerización es una industria de muy poco desarrollo según Mckensey
(2008), de acuerdo a los estudios del Doing Business para el 2009 Boyacá no cuenta con
las herramientas suficientes para lograr desarrollar niveles de BPO&O muy destacados
pues los costos de la región, el ambiente de negocios, el recurso humano altamente
calificado y dispuesto, los riesgos de llevar a cabo la industria, el conocimiento en este tipo
de servicios y exceptuando la infraestructura que posee el departamento; no son los más
efectivos para llevar a cabo industrias del tipo.

CONCLUSIONES

La tercerización es el medio por el cual significa el hecho de contratar y delegar a largo


plazo uno o más procesos no críticos para un negocio, diferentes de los relativos al “core
business” o estrategia central de la empresa, para que un proveedor más especializado los
realice con mayor efectividad y reducción de costos que permita orientar los mejores
esfuerzos de una compañía. Las ventajas más relevantes que se evidencian en la
aplicación de BPO&O son, el ahorro en inversión en tecnología, consecución de la misma

21
sin altas inversiones, reducción en de preocupación en áreas que menos generan valor
agregado y flexibilidad de la organización para cambios continuos.

En Asia, Europa y América Latina el BPO&O ha creado ingresos de gran relevancia ya que
debido a los modelos de desarrollo económico que se presentan en estos países son
distintos a los países desarrollados, es decir que aprovechando los recursos de los países
potencia, los países emergentes pueden crear valor agregado para sí y sin necesidad de
capitales golondrina.

La precariedad de la tercerización en Colombia y, particularmente, en Boyacá son temas de


gran preocupación para el gobierno, esto consecuencia de las actitudes expeditas de los
países vecinos, es necesario entender esta herramienta como desarrollo industrial, aunque
la economía que predomine del sector primario. Por otra parte es ineludible que los
empresarios nacionales y regionales entiendan la necesidad del uso de este tipo de
estrategias, como la forma de gestión eficiente de las organizaciones y como hecho
inevitable para lograr competir con las organizaciones extranjeras que manejan
ampliamente esta herramienta; teniendo en cuenta las próximas aperturas económicas, no
se puede seguir pensando en las herramientas tradicionales.

BIBLIOGRAFÍA

Revista DINERO, especial comercial tercerización. Julio 10 de 2009 edición n°329


l

Ministerio de Comercio Industria y Turismo Colombia. Invierta en Colombia, Sector Call Center/BPO. Mayo de
l

2009
Banco Internacional para la Reconstrucción y el Desarrollo / Banco Mundial. Doing business Colombia 2010.
l

2010. Washington, D.C. 20433.


Ministerio de Comercio Industria y Turismo. Desarrollando el Sector de BPO&O como uno de Clase Mundial.
l

Bogotá octubre de 2008


HERNÁNDEZ, Sampieri Roberto, Fernández Collado Carlos, Baptista Lucio pilar. Metodología de la
l

investigación. Mc Graw Hill cuarta edición, 2007. Páginas 205- 232.


QUINN, J.B. (2000), Outsourcing Innovation – the new engine of growth, Sloan Management Review, 41, 13-28.
l

MERTENS, D. M. (2005) research and evaluation in education and psychology: interacting diversity with
l

quantitative and qualitative approaches. Thousand Oaks: Corwin Press/Sage 7° edición.


GRINNELL, R. M. (1997) work research and evaluation: quantitative and qualitative approaches, Itaca: E.E.
l

Peacock Publishers.
RUNDQUIST, Jonás. Outsourcing en el desarrollo de nuevos productos, más allá de la participación del
l

proveedor. Universidad Autónoma de Occidente. Cali-Colombia 2007 ISSN 0121-0777.

22
REFLEXIONES ENTORNO A LA INVESTIGACIÓN EN TURISMO

“Si desde la formación de los profesionales en Turismo se tienen problemas,


es comprensible que los investigadores del turismo sean pocos.”
Rodríguez Woof.

GAMA PAOLA C.
MOJICA BIBIELA.

Grupo de Investigación para la Animación Cultural MUISUATA


paogam49@gmail.com- bibiela_7@hotmail.com

RESUMEN

Realizar un trabajo en torno a la visión de la Investigación en Turismo de la Escuela de


Administración Turística y Hotelera de la Universidad Pedagógica y Tecnológica de
Colombia (UPTC), requiere tener claridad sobre tres conceptos fundamentales: Primero,
sobre la investigación que permite dar cuenta sobre cuáles son sus conceptos e
investigación formativa, el lugar y algunas perspectivas de instituciones de orden nacional.
Segundo, sobre la Investigación en Turismo, su definición y la situación que afronta en las
Universidades, y proposiciones para fortalecer la investigación; y Tercero, sobre el Estado
del Arte, por ser la perspectiva metodológica por la cual se aborda este trabajo.

PALABRAS CLAVES: Investigación, Turismo, Estado del Arte, Formación.

LA INVESTIGACIÓN EN LA EDUCACIÓN SUPERIOR

En el contexto de la educación superior se presentan algunas concepciones de


investigación. Según Messina (2008, p. 8), investigar consiste en crear espacios donde
investigadores, maestros y miembros de las comunidades trabajen juntos, donde la
capacidad de hacer investigación deja de ser privativa de los investigadores profesionales y
donde los maestros y los miembros de la comunidad son reconocidos por ellos mismos y
por los otros como intelectuales, y en particular como investigadores tanto de su práctica
como de otras prácticas.

23
Por su parte, Reimers y Mc Ginn (citados por Messina, 2008) afirman que “la Investigación
es la actividad orientadora a la compilación y organización de hechos observables, la
organización por medio de técnicas analíticas o sintéticas y la capacidad de interpretar o
explicar los datos en términos de conceptos o construcciones no observables” (p.5).

La investigación es sinónimo de desarrollo, y en este sentido en la Constitución Política de


Colombia de 1991 se ordena fortalecer la investigación científica en las universidades
oficiales y privadas y ofrecer condiciones especiales para su desarrollo. En esa medida, el
Consejo Nacional de Acreditación (CNA) (2006) retoma la investigación como una práctica
de carácter fundamental en el proceso de formación en la educación superior, y la eleva a
una exigencia sustentando la importancia de la investigación de la siguiente manera: “no
basta asimilar los conocimientos universales sino que se requiere transformarlos,
seleccionarlos, reorganizarlos y construir nuevos nexos con la práctica, para adaptarlos a
las condiciones del aprendizaje y a las necesidades del contexto nacional, regional o local”.

Aunque por un lado la investigación es un factor de gran importancia, por el otro se reconoce
de igual manera las grandes debilidades y falencias en cuanto a la consolidación de las
comunidades académicas, la producción de conocimiento de frontera y la formación de
nuevos núcleos de investigación.

La Investigación constituye una función misional de la naturaleza universitaria. Es por ello


que dentro de la UPTC se encuentra la Dirección de Investigaciones (DIN), organismo del
gobierno universitario “encargado de la formulación, vigilancia y ejecución de las políticas
de investigación científica en la Universidad, tales como: consolidar la investigación como
eje dinamizador de la academia, garantizando recursos económicos, técnicos y humanos
para este fin; fomentar la consolidación de los grupos de investigación y propender por su
reconocimiento y escalafonamiento a nivel nacional e internacional, promover la
investigación formativa, fomentar el apoyo a los semilleros de investigación, jóvenes
investigadores y grupos nacientes, apoyar a los grupos de investigación para que se
articulen a la presentación en convocatorias nacionales e internacionales, fomentar la
interacción de los grupos de investigación el entorno social y productivo a través de
proyectos de extensión y elaborar convocatorias internas pertinentes de capital semilla, que
permita impulsar la investigación de los grupos de investigación, entre otras” (2009).
De igual manera, la DIN traza y gestiona lineamientos, estrategias, procedimientos y
acciones, para adelantar la investigación científica en todos los campos del conocimiento
que tienen que ver con la Universidad, esto es, con Artes, Humanidades, Tecnologías,
Ciencias Naturales y Sociales.

24
Además de que existan unas políticas claras sobre la investigación, es necesario tener en
cuenta el método de formación de estudiantes y docentes entorno a la misma, hablamos
entonces de la Investigación Formativa. Restrepo (2003) al respecto dice: “Allí donde no
hay buena y variada investigación formativa hoy, difícilmente florecerá mañana la
investigación productiva”. Además define la investigación formativa como aquella
investigación que se hace entre estudiantes y docentes en el proceso de desarrollo del
currículo de un programa (p.10).

LA INVESTIGACIÓN EN TURISMO

La complejidad del turismo conlleva a investigar en esta área y constituye un compromiso


por parte de los profesionales para pasar de la concepción que se tiene de lo pragmático a la
cientificidad del turismo. Promover la investigación en turismo permite la introducción de
nuevos conocimientos refutando, consolidando o confirmando o no los ya existentes,
también logra el aumento de la cantidad y calidad de publicaciones dedicados al turismo, el
crecimiento de la formación en turismo y por ende el número de escuelas y universidades,
conformación de nuevos grupos y asociaciones de estudiosos y profesionales y, lo más
importante, ayuda en la toma de decisiones del sector público y privado ya que de esto
depende el desarrollo y proyección de la actividad turística. (Rejowski, 2009 p.2)

Es importante conocer los antecedentes de la Investigación en Turismo, los países que más
se han interesado en su estudio, cuáles han sido las perspectivas y temáticas de estudio
privilegiados a lo largo de su historia y con ello poder develar que tan lejos o que tan cerca
estamos de un verdadero proceso de cientificación del Turismo.

Existen varios autores que citan la incorporación por primera vez del Turismo en las
universidades y el inicio de procesos investigativos entorno al mismo. En ese sentido,
desde México Peñaloza y Tamayo (2005, p.4) afirman que el estudio del Turismo como tal
se incorpora a las universidades como disciplina en la primera parte del siglo XX, en los
años 20 en Italia y en los 30 en Alemania y Reino Unido. Años después se incorporan los
estudios turísticos en los Estados Unidos y Canadá, cuya orientación se centra en aspectos
de gestión empresarial. Lo que ratifica que los inicios de la investigación en turismo giraron
en torno a lo pragmático respondiendo a ciertos intereses de lucro y rentabilidad.

Jafari (2005 p. 2:4), profesor de Hospitalidad y Turismo de la Universidad de Wisconsin de


los Estados Unidos, presenta una evolución del Turismo en la cual se aprecian varios
momentos que él llama plataformas que se dieron en el contexto y la época que se estaba
viviendo. Jafari lo presenta de la siguiente manera: en primera instancia la Plataforma
Favorable donde se evidencian los efectos beneficios del Turismo tanto económicos como

25
socioculturales. Componen esta plataforma los grupos de interés que sostienen que el
Turismo es una industria. Como segunda encontramos la Plataforma Desfavorable que
inicia en los setenta, donde nace la preocupación por la protección de la cultura y la
naturaleza y por ello se evidencian los costes económicos y socioculturales. La Plataforma
Conciliadora surge como debate de las anteriores y en ella se busca favorecer aquellas
formas de turismo respetuosas con las comunidades anfitrionas, su cultura y su medio
ambiente y favorece al turista con experiencias positivas. Por último, aparece la Plataforma
Científica donde finalmente surge la preocupación de ir más allá de lo pragmático y estudiar
al turismo de manera científica estructurando un corpus de conocimiento científico del
turismo que tiende puentes de conexión, no ataduras, con otros enfoque, de esta manera se
pretende contribuir a un tratamiento holístico del turismo.

Finalmente, podríamos afirmar que la investigación en turismo nunca ha sido originada por
turistólogos, no nació de la actividad turística. La preocupación por su estudio y
profundización ha venido desde otras disciplinas que se vieron involucradas con este
fenómeno, tal es el caso de geógrafos, ecologistas, mercadólogos, sociólogos y
antropólogos.

Partiendo de que el estudio del Turismo es relativamente reciente y que como se observa
más adelante existen varias deficiencias y causales para que su estudio no se haya
realizado de manera científica y que además no se haya consolidado aun un corpus teórico
que nos permita servir como fundamento teórico para emprender las investigaciones, no
hemos encontrado una definición de Investigación en Turismo que abarque todo lo que
implica investigar en este tema.

Uno de los elementos fundamentales de la universidad es la Investigación, siendo estas los


principales espacios de formación y desarrollo en investigación. Es por esto que al analizar
el estado de la Investigación en Turismo debemos remitirnos a los centros de formación, a
las universidades. En este sentido, Gómez (2005, p. 1) manifiesta la necesidad de repensar
el Turismo ante la irresistible tentación de lo pragmático y lo empírico ya que existe una
cultura anti intelectual, analfabetismo científico dentro de los sistemas universitarios con lo
que argumentan que el Turismo es visto solo como una actividad meramente económica y
practica, donde solo se estudian a turistas, hoteles, restaurantes, viajes y divisas,
enfatizados solamente en buscar la eficiencia o la utilidad y no se estudia como el fenómeno
social complejo y multideterminado que es.

Es evidente que para el desarrollo de la Investigación en Turismo todos los actores deben
darle la importancia que esta requiere, dado que el Turismo es una actividad multidisciplinar
que requiere de las ciencias sociales y naturales para su mayor comprensión.

Siguiendo con Gómez (2005, p. 5), “...es común encontrar a políticos, funcionarios,

26
directivos privados y hasta académicos que menosprecian los aportes de las disciplinas
sociales, estamos no solo ante un sistema político y productivo sino también educativo con
grandes manchas de ignorancia científica que nos hacen ver, sentir y pensar
erróneamente”.

El poco carácter científico que se le da al proceso investigativo trae como consecuencia que
se preparen estudiantes con miras solo a desempeñarse en cargos operativos, lejos de ser
generadores de proyectos y de llegar a ocupar altos cargos e incidir en la toma de
decisiones explorando, cuestionando y poniendo en discusión las acciones y discusiones
que ejercen de distinta manera las castas dominantes y de esta manera poder reorientar el
rumbo del modelo actual de la actividad turística que, así como lo afirma Gómez (2005, p.
14), “ha demostrado su deshumanización, al subordinar aspectos de la vida social y cultural
a los intereses privados y se siga considerando como la única vía para lograr el desarrollo
socioeconómico, que ha generado riqueza pero no distribución”. Este enfoque ha
privilegiado lo empírico, el hacer por encima del saber, lo que hace referencia a la herencia
de la escuela turística española de la década de los sesenta, donde la “actividad turística se
reduce a una especie de voluntarismo y vocación de servicio, de sacrificio personal y de
experiencia empírica marcada por el feeling o sentido común, el inmediatismo y la
improvisación” (Guevara, Molina, Tresserras, 2007, p.6).

La hipótesis que sostiene Gómez (2009, p.8) es que el rezago científico que presenta el
turismo en México, al igual que en Latinoamérica, se debe a la baja calidad de los
programas educativos y a la mirada distorsionada que tienen las empresas, el gobierno y
hasta la propia academia acerca de la ciencia y, peor aún, que los estudiosos en turismo “no
hagan nada, o muy poco, por rechazar el conocimiento teórico y empírico equivocado o
falso”.

La Investigación en Turismo se encuentra en una “parálisis mental epistemológica que


agobia al medio académico”, en este sentido “instituciones oficiales han sido consecuentes
con los intereses de los agentes económicos poderosos de la sociedad” y por esta razón el
“turismo continúa plagado de ineficiencias, de comportamiento depredador con el entorno
natural, de conductas irrespetuosas con los recursos culturales, así como de patrones
mercantiles de consumo que únicamente buscan el afán de lucro y de ganancia.

Finalmente, Gómez se plantea: ¿dónde queda el interés público?, es más, Figueroa citado
por CARIPAN (2008: p.2) dice: "Nuestra experiencia nos indica que los sectores turísticos o
especialmente alguna de sus ramas productivas, creen escasamente en trabajar en la
investigación y el estudio; y siguen creyendo, que todo presupuesto dedicado a ese

27
objetivo es un gasto, con poca proyección positiva en su cuenta de explotación". Mientras
no se dé un giro cultural en torno a la importancia de la Investigación será complicado lograr
la cientificidad del Turismo y seguirá sufriendo como lo afirma Vera J.F. e Ivars J. (2001)
(citado por Rejowski, 2009, p. 3) “una paradójica y poco deseable postergación.”

Una consecuencia del estado de la Investigación son las escasas si no nulas becas
referentes al Turismo. Es mucho más fácil y recomendable, afirma Trujillo (2008, p.1),
“estudiar posgrados en temas como economía, geografía, administración pública,
urbanismo, ciencia política, desarrollo rural y no propiamente turismo”. Finalmente, son
pocos y escasos los libros que tratan de los tres tópicos esenciales de la investigación
turística: su naturaleza disciplinaria, temática y metodológica. Rejowhski (2009, p.2).

Pero ante tal panorama existen de igual manera cosas por rescatar y que varios autores
consideran importantes para el desarrollo de una verdadera investigación científica del
Turismo. A continuación veremos la postura de varios de ellos.

Dado que el principal problema de la investigación en turismo radica en la calidad de


formación en Investigación de las universidades, Gómez (2008, p.5) expresa que la manera
de elevar la calidad del conocimiento científico en el turismo es “un mayor nexo entre la
ciencia y la educación superior en turismo, para no seguir proporcionando toda clase de
explicaciones absurdas sobre este fenómeno social contemporáneo”; en ese sentido, la
función de las universidades radica en “enseñar a pensar (y bien)” Gómez (2008,p. 5) y la
mejor manera de hacerlo es trabajando en torno a la formación de estudiantes críticos, con
argumentos, creativos, capacidad de análisis y de síntesis, observadores, ingeniosos e
inteligentes, pero también gente humanista, esto es egresados con amplia conciencia
social, sensibles al tema de la pobreza y de la desigualdad, pues son problemas que han
adquirido una relevancia no sólo nacional sino también global, que logren repensar y
cambiar el rumbo de la investigación y algo fundamental para lograrlo es mediante la
lectura, “la buena lectura”, es solo mediante esta que se obtiene un sólido conocimiento
capaz de generar en los estudiantes una actitud investigativa.

Es indispensable no dejar de lado la parte teórica de la Investigación, ya que se constituye


como parte fundamental en el proceso de cientificación del turismo. Al respecto Gómez
(2009, p. 8) señala que “si se quiere salir del rezago académico y de la escasa producción
de conocimiento de alto nivel, es necesario impulsar la investigación teórica en el turismo” y
más cuando se está dejando de lado practicar la epistemología en los trabajos de
investigación. Jafari (2005, p. 4) propone como meta fundamental el desarrollo de un corpus
de conocimiento que esté temáticamente organizado, coherente y sistematizado. En ese

28
sentido es necesario que el corpus teórico metodológico sea interdisciplinario, con ello se
logrará una mejor comprensión del Turismo y se dejará de evitar las simples
generalizaciones y los conocimientos obsoletos, para que se puedan comprender las
contradicciones del modelo de desarrollo e identificar los falsos estereotipos que existen
sobre este fenómeno. Gómez (2005, p. 11).

Para terminar, Urdaneta (2008, p. 1) propone tres objetivos que se deben tener en cuenta
entorno a la investigación: 1. Ser consciente de la problemática epistemológica que vivimos
en la actualidad, clarificando los conceptos básicos que dan sentido al proceso de
investigación y sustentan la legitimidad y pertinencia de los conocimientos adquiridos; 2.
Tomar conciencia de la gran variedad de métodos disponibles, y 3. La necesidad de realizar
estudios que sean útiles y prácticos para la investigación, sin que esto menoscabe su
cientificidad.

SOBRE ESTADOS DEL ARTE

Existen varios tipos de investigación y en nuestro caso retomaremos la investigación


cualitativa de carácter documental, en especial la modalidad de Estado de Arte. La
investigación documental consiste en un análisis de la información escrita sobre un
determinado tema. Su propósito es el de establecer relaciones, diferencias, etapas,
posturas o estado actual del conocimiento respecto al tema objeto de estudio. La
investigación documental es un proceso de búsqueda que se realiza en fuentes impresas
(documentos escritos), donde se realiza una investigación bibliográfica especializada para
producir nuevos asientos bibliográficos sobre el particular. (Torres, 2003, p. 8). Mediante
esta revisión se puede llegar a develar y comprender el estado de la investigación,
dependiendo del tipo de cuestionamientos que se tengan hacia el objeto de investigación.

La modalidad de Estado de Arte pretende alcanzar conocimientos acerca del nivel de


comprensión que se tiene del fenómeno de interés (cuando se ha aprendido y cuánto se
ignora) y la suficiencia o inadecuación de este conocimiento, para finalmente intentar la re
comprensión sintética del mismo. (Torres, 2003, p.10). En este sentido los Estados de Arte
son herramientas que permiten dar continuidad a las investigaciones, retomar lo que ya se
ha trabajado sin dejarlo de lado permitiendo de igual manera el direccionamiento de la
misma, es una manera de hacer investigación de la investigación. En torno a este proceso
investigativo se genera conocimiento epistemológico y metodológico que contribuye al
proceso de formación. (p.12).

En cuanto a su construcción, los Estados del Arte se ubica en el marco de la Investigación


documental como ya se enunció anteriormente.

29
Los Momentos Metodológicos del Estadodel Arte, según Alfonso, (2008), son:

Primero, Descriptivo: Visión global de la problemática abordada por otros, desde la cual es
posible observar su parte constitutiva para regresar al texto enriquecido y obtener una
visión holística de él. Para su construcción es importante partir de las siguientes
perspectivas: Histórica: permite establecer el orden cronológico de ejecución de los
trabajos y épocas o décadas en las cuales la investigación tomo más auge o por contrario
estuvo rezagada. Temática: Se agrupa la información de acuerdo a los temas que se han
privilegiado. Geográfica: establece el área de cobertura en los que se desarrollaron los
trabajos de grado.4. Organizacional: se describe hacia qué tipo de organización se dirige la
investigación. Poblacional: permite develar la población a la cual va dirigida la propuesta.
Orientadora: se establece la dirección de los trabajos de grado, por parte de los diferentes
docentes y expertos en los temas de investigación. Teórica: reconstruye los aportes
teóricos que se han recogido a través de los años a partir de la investigación documental
realizada por los autores, que sirvió de base para el desarrollo de los trabajos.
Metodológica: se establece el tipo de investigación asumida para la realización de los
trabajos.
Dos, Comprensivo. Constituye la interpretación de la descripción de la tradición
investigativa donde se pretenden resolver los interrogantes:
1-QUÉ: Cuál es el contexto histórico de desarrollo de la investigación y qué temáticas se
han abordado.
2-DESDE DÓNDE: Evidencia las tendencias teóricas (enfoques, escuelas, disciplinas) que
explican, interpretan y comprenden la tradición investigativa.
3-PARA QUÉ: Se refiere al sentido y los usos de la producción de la misma.
4-CÓMO: Representa las metodologías utilizadas en los diversas iniciativas de
investigación que se desarrollan.
5-QUIÉNES / A QUIÉNES: Hace referencia a hacia quiénes se ha orientado la investigación
en términos de la población, las instituciones, las ciudades o regiones que han privilegiado
los Trabajos de Grado.

Tres, De Constitución de Sentido, donde se desarrolla un proceso sintético que no se


constituye en una evidencia más, sino en la reconstrucción teórica del fenómeno de estudio.
Es la construcción de nuevos aspectos o relaciones del fenómeno y la elaboración de una
nueva explicación que permita comprenderlo en una perspectiva Global, de mayor
complejidad y elaboración teórica (Torres, 2003, p.13). En esta fase se busca reconstruir y
darle forma al fenómeno o situación que se está estudiando a partir de los documentos
consultados. Asimismo, permitirá develar los hallazgos, vacios y perspectivas de
latradición investigativa de la Escuela de Administración Turística y Hotelera de la UPTC.

30
BIBLIOGRAFÍA

?
GÓMEZ NIEVES, Salvador (2005). Repensar en el turismo: ante la irresistible tentación de lo pragmático y lo
empírico. En: VII Congreso Nacional y I Internacional de Investigación en Turismo. Universidad de Guadalajara.
(2009) Ciencia y desarrollo turístico en México. México (2008) La cientificidad en el discurso académico del
turismo México.
?
JAFAR, Jafari (2005). “La cientificación del turismo” en contribuciones a la economía, julio. Texto completo en:
http://www.eumed.net/ce/
?
REJOWSKI, M. (2009) “Investigación en Turismo en las Universidades Brasileñas” Universidad de Sao Paulo,
Brasil.
?
RESTREPO, Bernardo. (2000) CNA Concejo Nacional de Acreditación. “Conceptos y Aplicaciones de la
Investigación Formativa, y Criterios para Evaluar la Investigación científica en sentido estricto”.
?
GALIANO LUNA, Lucio. Investigación turística Temas globales, perspectivas locales.

31
p
RevistaSemilleros

Titulo: De la serie “Rayando la Ruina”


Fotrográfia: Elkin Colmenares Dulcey
Colectivo: En la Ruina
Integrantes: Elkin Colmenares,
Manuel Barrera, Wilman Zabala.
2010
LA EXPEDICIÓN BOTÁNICA DE 1.783 Y EL INICIO DE LA BOTÁNICA
MODERNA EN COLOMBIA

TUNARROSA, E. ELIANA M.

Estudiante de Lic. Ciencias Naturales y Educación Ambiental


Facultad de Ciencias de la Educación
Grupo de Investigación – ILAC “Ilustración en América Colonial”
echeverri77@gmail.com

RESUMEN

En los siglos XVIII y XIX se describió la biodiversidad del territorio de la Nueva Granada con
el fin de obtener beneficios económicos, sociales y científicos; estos últimos desarrollaron
una interdisciplinaridad logrando la recopilación de conocimiento acerca de la flora y fauna
presentes en la Nueva Granada, este evento se ha denominado la Expedición Botánica que
tuvo como gestor al sabio José Celestino Mutis.

La Expedición Botánica tuvo en cuenta dos factores primordiales para su realización, la


Nomenclatura científica (basada en la clasificación de acuerdo al sistema reproductor de
cada una de las plantas) realizada por Linneo naturista de Suecia y el otro es colaboración
de un conocimiento etnobotánico (conocimiento ancestral y tradicional sobre las plantas) de
las poblaciones étnicas quienes ayudaron a la recolección de la nomenclatura popular,
reflejándose en las colecciones o iconografías elaboradas por los pigmentos de la misma
especie vegetativa y que en ellas se busca destacar un efecto realista (demuestren las
imágenes el numero de hojas, las clases de hojas, los colores o pigmentos de las especies)
para mayor entendimiento y así reorganizar un herbario diferente donde la elaboración de
laminas de muestren lo que tienen los herbarios de las muestras de las plantas.

PALABRAS CLAVES: Expedición Botánica, poblaciones étnicas, colaboradores de la


expedición, especies vegetales, iconografía, Nueva Granada, época de la colonia.

34
INTRODUCCIÓN

La historia de la botánica moderna en Colombia está marcada por el desarrollo de los


trabajos de la Real Expedición Botánica de la Nueva Granada (1783-1816) que se realizo
bajo la dirección del naturalista español José Celestino Mutis durante el periodo colonial.
El rey Carlos III, permite acceder a la realización de esta expedición con el fin de describir
la biodiversidad y riqueza botánica del Reino de la Nueva Granada, con fines científicos y
comerciales.

Con el desarrollo de la expedición, una de las más importantes desarrolladas por el


Reformismo Borbónico en los territorios coloniales de ultramar, colaboraron científicos
europeos de la talla de Carl Linneo, uno de los grandes desarrolladores de la clasificación
sistemática botánica; y algunos importantes naturalistas criollos como Francisco José de
Caldas y Antonio Zea. Con la ayuda de éstos y muchos otros, la expedición botánica
dirigida por Mutis, desarrollo una intensa labor de búsqueda, identificación y clasificación
de la flora neogranadina. Desarrollando estudios sobre su utilidad comercial y medicinal,
particularmente de la quina; y realizando la más importante labor icnográfica en materia
de especies botánicas americanas que se haya realizado en todo el proceso colonial
americano. Las más de tres mil especies dibujadas por los artistas de la expedición,
constituyen el mayor legado de ilustración botánica que se haya desarrollado en el
periodo ilustrado tanto en América como en la Europa Ilustrada. (ROBLES, 1999)

¿Qué fue la Real Expedición Botánica?

1
José Celestino Mutis , (SOTO, 2005) nombrado por el rey Carlos III como director de la
expedición, fue un personaje representativo de la ilustración americana. (SOTO, 2005)
Mutis logro inducir el fomento de las exploraciones científicas y botánicas en el Nuevo
Reino de Granada no solo para el desarrollo del método de clasificación Linneano, sino
para la utilización de la flora americana como un recurso comercial y farmacéutico. La
quina, por ejemplo, se convirtió durante el siglo XVIII en uno de los productos más
requeridos y valorados por la medicina europea del momento. De esta manera, y gracias
a los estudios de Mutis y sus colaboradores, los diversas tipos de quina, inundaron el
mercado farmacéutico de la Europa del siglo Dieciocho, siendo utilizada para las más
diversas curaciones, recogiendo con ello una tradición indígena americana que se
remontaba a momentos anteriores a la presencia de los españoles y europeos en el
continente antes del siglo XV.
1
Mutis, nació el 6 de abril de 1732, en Candiz. Desde su llegada a Santafé en 1760 hasta su muerte en 1808. hay
que precisar, que Mutis se convirtió en uno de los principales difusores de la cultura Ilustrada, con incidencia
.
directa en los cambios que se dieron en los ámbitos de la cultura y la educación.

35
José Celestino Mutis, este ilustre de La Nueva Granada, arribo “en 1760 en calidad de
2
médico del nuevo virrey Pedro Messia De La Cerda , con la idea clara de continuar el
estudio de la naturaleza americana emprendido en el siglo XVI por otro naturalista español
en México, José Hernández. (SOTO, 2005). A su llegada, Mutis queda impresionado de la
majestuosidad y diversidad de la flora y fauna del territorio virreinal, sobre todo de la
existente en la zona de Mariquita (Tolima), lugar donde realiza sus primeras exploraciones
botánicas; y donde fundará su famosa “Escuela de Dibujo”, en la que trabajaran artistas no
sólo colombianos sino también del Ecuador. (ROBLES, 2009) Posteriormente, Mutis se
trasladará a Santafé de Bogotá donde continuará su labor de clasificación botánica.
(FRIAS, 1995)

En todo este proceso, la labor del sueco Carl Linneo fue fundamental tanto por su apoyo,
como por establecer las bases principales del método de clasificación naturalista seguido
por Mutis. (AMAYA, 2008)

II Lineo colaborador en La Real Expedición Botánica

Carl Linneo, (1707-1778) naturista sueco desarrolló un método de nomenclatura de


clasificación de plantas y animales de carácter binómico basado en las partes sexuales de
las plantas, el cual fue utilizado por Mutis en los trabajos de la expedición. Linneo “clasifica
las especies florísticas por medio de los sistemas reproductores de la planta y se puede
evidenciar en la observación a simple vista ó microscópica de las partes de la flor, estambre
etc., “siendo traducido e introducido en España en la época de ilustración.” (PIEDRAHITA,
2008)
Mutis realizaba continuos envíos de especímenes de las plantas recopiladas a Linneo con
dos finalidades: la primera, que el sabio sueco captase la originalidad de las especies
recopiladas; y segundo, le apoyase en su reconocimiento europeo como uno de los
mayores naturalistas españoles y americanos. De esta manera, Linneo se convirtió en el
patrocinador intelectual de la labor de Mutis; llegando a nombrarlo uno de sus “apóstoles
naturalistas” en el proceso de identificar la enorme variedad mundial de especies vegetales.

.2
Pedro Messía de la Cerda (1700-1783), militar español, marqués de la Vega de Armijo, virrey de Nueva Granada
(1761-1772). Nació en Córdoba en 1700. Ingresó en la Real Compañía de Guardias Marinas de Cádiz. Participó en
varias campañas militares (Cerdeña, Sicilia, Orán). En 1720 realizó su primer viaje a las Indias y en 1721 se dedicó
a reprimir el contrabando en Cartagena y Portobelo. Después de varios servicios a la Corona, ascendió a teniente
general en 1755. En 1760 fue nombrado virrey de Nueva Granada y tomó posesión al año siguiente. Reorganizó la
Hacienda, reforzó las fortificaciones de Cartagena y promovió obras públicas, como el camino de Santa Fe a
Caracas. Creó la Fábrica de Pólvora de Santa Fe e impulsó la enseñanza superior. Para aumentar la recaudación
monopolizó el Servicio o de Correos y gravó el consumo de aguardiente de caña, lo que provocó
desórdenes públicos (sublevación en Quito en mayo de 1765). Renunció al cargo en 1771 y entregó el mando en
1772. Murió en 1783 en Madrid. Véase en Microsoft Corporation. Reservados todos los derechos. 1993-2003.

36
El reconocimiento de su labor por parte de Linneo, le sirvió a Mutis para obtener un prestigio
ante la Corte Española y también virginal, del que carecieron otros naturalistas ilustrados; lo
que le permitió obtener recursos económicos para continuar por espacio de tiempo dilatado
su labor, y también apoyo para sus alumnos, especialmente Zea, quien gracias a su apoyo
terminó siendo nombrado director del Real Jardín Botánico de Madrid. (SOTO, 1995)

También el modelo taxonómico implementado por Linneo fue seguido por Mutis para el
desarrollo de su iconografía botánica. (ROBLES, 1995) De esta manera, en cada lámina de
dibujo se dispuso una figura tipo, a modo de un modelo ideal de representación, con sus
correspondientes despieces florales; de manera que estos despieces, en los que se
representaba las partes sexuales de la planta, permitían la clasificación según el método
binario ideado por Linneo. (ROBLES, 1999)

La iconografía desarrollada por Mutis innovo en el modelo diseñado por el naturalista


sueco, ya que los dibujantes a las ordenes de Mutis introdujeron el color de la planta, un
elemento que Linneo no tenía contemplado en su modelo, y que acercaba los
planteamientos del naturalista español, a los que por entonces desarrollaba el naturalista
Adamson, como respuesta al modelo de clasificación del sueco. (ROBLES, 2005)

Los artistas de la expedición demuestran la finura y excelencia en el trabajo icnográfico, no


sólo desarrollando excelentes láminas que han permitido se continúen hoy en día los
trabajos de clasificación botánica dejados inconclusos por Mutis; sino que desarrollaron un
tipo de trabajo en el que se puede ver de manera paradigmática la colaboración entre el arte
y la ciencia. Colaboración que ha sido fundamental para el desarrollo de ciencias como la
botánica, la zoología o la astronomía, por citar algunos casos relevantes. (ROBLES, 1999)

Fig.1 Fuente. MILLAM, Martha. Matis, dibujante de la expedición botánica: de discípulo


díscolo a difusor del saber Mutisiano. Presentada en el evento: IV Coloquio Internacional
de Historia Social y de la Ciencia “Mutis y la Ilustración”.

37
.

Fig. 2. Fuente. Representación de las clasificaciones establecidas por Linneo. DIAZ


PIEDRAHITA, Santiago. Vida y obra de Mutis. Presentada en el evento: IV Coloquio
Internacional de Historia Social y de la Ciencia “Mutis y la Ilustración”

Fig. 3. DIAZ PIEDRAHITA, Santiago. Vida y obra de Mutis. Sistema de clasificación.


Presentada en el evento: IV Coloquio Internacional de Historia Social y de la Ciencia
“Mutis y la Ilustración”.

38
Por otra parte, Mutis también desarrolló modelos de conservación de las plantas que
estaban emparentados con los desarrollados en Europa por botánicos como Linneo. Como
se ve en el anterior ejemplo la metodología de Mutis para la representación de las plantas es
muy puntual en el sentido que se detallaban la representación y al llegar las colecciones
3
complementarias a las plantas las perfeccionaban. Las plantas se clasificaron de acuerdo
a varios parámetros como la forma de la hoja “(Cinchona Lanceifolia (forma de espada))”.
(PIEDRAHITA, 2008) Las ventajas de hacer las representaciones y no tener un herbario es
que las plantas se conservan más tiempo en las láminas que en las disecadas ya que con el
tiempo se deforman y se van descomponiendo y no se ve con la misma nitidez que una
lamina.

Otra forma de clasificar la especie nueva descubierta era dándole el nombre de algún ilustre
4
naturalista botánico de la época. Tenemos el caso de la Mutisia Clematis que el mismo
Linneo le dedica al ilustre José Celestino Mutis.

III Etnobotánica factor primordial en la realización de La Real Expedición Botánica

Por último, otro factor a destacar de La Expedición Botánica fue que a lo largo de la
realización de ésta, Mutis trabajo con información proveniente del mundo indígena
americano. Ya que eran las comunidades indígenas las que poseían el conocimiento
ancestral sobre las especies vegetales y su aplicación para curar ciertas enfermedades:

“La Botánica Indígena es la relación entre la vegetación y las tribus primitivas


que poblaron el nuevo mundo contiene un justo reconocimiento del valor de la
etnobotánica precolombina y registra, sobre todo, una tendencia común, de
nuestros científicos: médicos, farmacológicos de ordinario por la etnología,
usos, costumbres, medio y recursos de nuestros aborígenes; para conservar
sus vestigios, identificar sus materias primas y elaborarlas para el bien del
mundo enfermo”. “Investigar cual fuera la extensión e importancia de los
conocimientos botánicos que tuviera los aborígenes serían ciertamente

3
Las láminas terminadas que están en el Real Jardín Botánico de Madrid guardan algunos dibujos y bosquejos de
hojas, flores y otras estructuras específicas, en ocasiones acompañadas de instrucciones que debían seguir los
artistas para una apropiada representación de las planta. Véase en Historia Natural y Política: Conocimiento y
Representaciones de la Naturaleza Americana, Botánicas y Manufactura de Especies.
http://www.lablaa.org/blaavirtual/exhibiciones/historia-natural-politica/hnp-13.html.Mauricio Nieto. Extraído
desde Internet online 29-05-09.
4
Mutisia Clematis, es un bejuco que es planta trepadora y de hojas compuestas, posee una flor muy llamativa por
que tiene un color rojo intenso y vivo en sus pétalos lo que le permite ser atractivo para los polinizadores tales como
coliflores, abejas, insectos importantes dispersores de las semillas de esta especie. Véase en: José Celestino
Mutis, “El Precursor de La Botánica en La Nueva Granada”.

39
una obra digna de toda clase de esfuerzos por el provecho incalculable que de
ella pudieran reportar la ciencias y las artes”. (VEZGA, 1971)

Los conocimientos indígenas sobre el uso medicinal de las plantas fueron descritos desde
la época de la colonización por los evangelizadores. Colaboradores de Mutis como Caldas
resaltan estos conocimientos ancestrales en su tratado sobre la picadura de serpiente (el
mismo es picado por una, poniendo en práctica sus curación), utilizando el Noanama
(ROBLES, 1999) (indígena acompañante) la Beslerias “eficaz para esta picadura y se
encuentra en países ardientes y templados y no falta en los fríos”. (ROBLES, 1999)

CONCLUSIONES

La Expedición Botánica marco la época de la colonia ya que se tomaron como referencia


varios campos de acción tales como etnobotánica, botánica, zoología, cartografía,
sociología, etc.

Linneo fue parte primordial la Expedición Botánica con su sistema de clasificación de las
especies vegetales, empleado activamente por Mutis.

Mutis toma como referencia a Linneo para realizar la respectiva iconografía de las especies
vegetales de la Expedición Botánica; aunque fue mucho más allá de lo que había ido el
naturalista sueco.

Las poblaciones étnicas desempeñaron en la Expedición Botánica un papel informativo


fundamental; aunque este papel la ciencia de la época lo desconoció en su mayor parte. Lo
que supone que nuestras investigaciones tienen que estar destinadas a restaurar esta
deuda histórica que tiene la ciencia moderna occidental con el saber indígena americano.

BIBLIOGRAFÍA

?
DE PEDRO ROBLES, Antonio E. (1999). El diseño científico: ss. XV-XIX. Madrid, AKAL.
?
PEDRO ROBLES, Antonio E. “Las imágenes de los hechos naturales: del Icono a los Cuadros de la Naturaleza”,
en: DIEZ TORRE, Alejandro y otros (coordinadores) (1995). De la Ciencia Ilustrada a la Ciencia Romántica.
Madrid, Ateneo y Doce calles., pp. 344-356.
?
FRIAS NUÑEZ, Marcelo. “Ciencia y política: el proyecto botánico de la Nueva Granada”, en: DIEZ TORRE,
Alejandro y otros (coordinadores) (1995). De la Ciencia Ilustrada a la Ciencia Romántica. Madrid, Ateneo y Doce
calles., pp. 159-167.

40
?
PINTO, Escobar Polidoro. DIAZ, Piedrahita Santiago (1973). José Celestino Mutis 1732 -1982. Bogotá D.E.
Empresa Editorial Universidad Nacional.
?
SOTO Arango, Diana, “Francisco Zea, un criollo ilustrado, director del Real Jardín Botánico de Madrid”, en: DIEZ
TORRE, Alejandro y otros (coordinadores) (1995). De la Ciencia Ilustrada a la Ciencia Romántica. Madrid, Ateneo
y Doce calles., pp. 295- 312.
?
SOTO ARANGO, Diana (2005). Mutis el Educador de la Élite Neogranadina. Tunja-RUDECOLOMBIA. Búhos
Editores, Pág. 49
?
VEZGA, Florentino (1971). La Expedición Botánica. Cali-Colombia. Editorial Carvajal & Compañía. Pág. 35

INFOGRAFÍA

?
C o m i e n z a L a E x p e d i c i ó n B o t á n i c a , E l r e d e s c u b r i m i e n t o .
http://www.colombialink.com/01_INDEX/index_historia/04_las_fundaciones_y_poblamiento/0020_expedicion_b
otanica.html. José Antonio Amaya. Extraído desde Internet online el 26-01-09
?
http://www.lablaa.org/blaavirtual/exhibiciones/historia-natural-politica/hnp13.htm.Mauricio Nieto. Extraído
desde Internet online 29-05-09.
?
La expedición Botánica. www.sogeocol.com.co/documentos/011aexp.pdf. Extraído desde Internet online el 04-
11-2008.

EVALUACIÒN DEL EFECTO SANITIZANTE DE UN EXTRACTO BIODEGRADABLE


OBTENIDO DE LA ESPECIE SOLANUM MARGINATUM, DE USO ETNOBOTÀNICO EN
BOYACÀ

GARCÍA COLMENARES MAURICIO*, CASTELLANOS C. MARÍA CRISTINA**.

*Semillero de investigación en Química Ambiental. **Directora del Grupo de


Investigación Química Ambiental. Facultad de Ciencias Básicas. Programa Química
de Alimentos. Universidad Pedagógica y Tecnológica de Colombia.
fabrycy08@gmail.com

RESUMEN

Este trabajo tiene como propósito la evaluación del extracto de “lulo de perro”, en calidad de
limpiador sanitizante biodegradable. Así contribuir a la calidad e inocuidad en la industria
alimentaria y reducir el impacto negativo del medio ambiente. El proyecto se realizo con

41
material biológico recolectado quincenalmente durante tres meses del corredor
universitario de la ciudad de Tunja. La extracción de saponinas se llevo a cabo siguiendo el
proceder de M. E. Wall 1958. Se realizo ensayos químicos cualitativos en la concentración
hidroalcohólica obteniendo pruebas positivas. El potencial sanitizante es más eficaz a una
concentración de 10% después de 6 minutos de contacto sobre microorganismos bacilos
gram negativos, presentando un porcentaje de inhibición máximo de 99.588%, datos
comparados frente a sanitizantes comerciales (Mat-98 y Germigel). La aglicona
(sapogenina) se obtuvo por hidrólisis según el proceder de R. Segal 1966; la cual se
identifico mediante espectroscopia infrarroja y punto de fusión asignando la estructura
correspondiendo a hecogenina.

PALABRAS CLAVES: solanum marginatum, saponinas, sapogenina, hecogenina


biozanitizante, porcentaje de inhibición, desinfectante, hidrólisis.

INTRODUCCIÓN

La familia de las solanáceas abarca las plantas del género Solanum que contienen
sustancias de estructura similar a las saponinas, los glucósidos de esteroides o de
triterpenoides, llamadas así por sus propiedades similares al jabón, de emulsionar la grasa
dado que cada molécula está constituida por un elemento hidrofóbico (el esteroide o el
triterpenoide) y un elemento hidrofílico (azúcar), con formación de espuma cuando son
agitadas en agua. (Fieser, L. et al. 1959). Otras regiones latinoamericanas han reportado
el uso etnobotánico de especies Solanum como agentes limpiadores. En Colombia se han
realizado estudios de la composición de este fruto, determinando y caracterizando ciertos
alcaloides, ( Sanabria 1974 y Herrera 1970) sin embargo, se desconoce la evaluación de la
especie “lulo de perro” como agente limpiador que se ha utilizado en la Provincia Norte de
Boyacá tradicionalmente. En la especie solanum se ha reportado la extracción con etanol y
butanol. (M. E. Wall et al 1958). En el desarrollo de este trabajo se realizo la extracción con
etanol al 70% y n-butanol. Mediante ensayos químicos cualitativos se identifica la presencia
del limpiador activo de interés en el trabajo. El objetivo del presente trabajo fue evaluar el
potencial sanitizante a través de una prueba estándar de desinfección, con el fin de
cuantificar el porcentaje de inhibición de microorganismos. Los resultados fueron
comparados con limpiadores comerciales de uso en la industria alimentaria. La estructura
química fue asignada teniendo en cuenta punto de fusión y espectroscopia infrarroja,
comparado con dos patrones.

42
PARTE EXPERIMENTAL
Recolección y Preparación de la muestra: El material biológico fue recolectado
quincenalmente durante tres meses (octubre y noviembre de 2008 y febrero de 2009) del
corredor universitario de la ciudad de Tunja. Se empleo técnica manual para separar la
pulpa del fruto y se redujo a trozos de 0.5 cm. Se coloco en un horno de secado (MLW) a 45
ºC, durante 9 días. El sólido se paso a través de un molino mecánico (corona). Luego se
tamizo (tamiz 17 N-100).

Extracción del Crudo de Saponinas


Se llevo a cabo siguiendo el proceder de M. E. Wall et al 1958. Se tomo 400g del material
seco tamizado y se macero en 1600 ml de etanol al 70% durante 48 horas. Se filtro y se
macero nuevamente en solvente renovado durante 24 horas. Los extractos
hidroalcohólicos se concentraron en rotoevaporador (BÛCHI R-205), el residuo se
desengraso con éter de petróleo, la parte acuosa de disolvió en 40 ml de agua destilada, se
extrajo hasta máximo agotamiento con n-butanol y se concentro hasta obtener un residuo
pastoso correspondiendo al crudo de saponinas.

Identificación e Hidrolisis de Saponinas


Se realizo ensayos químicos cualitativos para determinar posibles saponinas en el extracto
concentrado hidroalcohólico. Para la hidrólisis se realizó según el proceder descrito por R.
Segal et al. (1966) que consiste en 2 g del crudo de saponinas se disolvieron en 50 ml de
etanol al 50 %. A esta disolución se añadió 10 ml de solución de KOH 1mol/L en metanol, y
se hizo el reflujo durante 2 horas. La solución se refrescó y se acidificó ligeramente con
solución de HCl 0,5 mol\litro y se evaporó el solvente con una corriente de aire a
temperatura ambiente. El residuo se lavó 2 veces con agua y se cristalizó en metanol.

Evaluación del Efecto Sanitizante


Se llevo a cabo sobre superficies de mesones de trabajo de la cocina del restaurante
estudiantil de la Universidad Pedagógica y Tecnológica de Colombia sede Tunja. Se siguió
el proceder de A.K Carrascal Camacho, A. Páez Morales y M. Burbano Rosero. Para
evaluar porcentaje de inhibición de microorganismos: bacilos gram negativos. Comparado
con dos desinfectantes comerciales, (mat 98 y Germigel)

Asignación de Estructura Química


Los cristales (sapogenina) se identificaron por medio de espectroscopia infrarroja y punto
de fusión. Los resultados se compararon con dos patrones (diosgenina y hecogenina) y se
asigno la estructura química.

43
RESULTADOS Y DISCUSIÓN
Materia seca
Se obtuvo 42,55% ± 0,27% de pulpa fresca, pulpa seca 4,06% ± 0,97%. Luego de
tamizado el material se redujo en 1 %. El valor de rendimiento del material seco es bajo
debido al alto contenido de agua y otros sustancias volátiles que la pulpa presenta: 95,64 –
96.8109%.

Obtención del Crudo de Saponinas


Se obtuvo un residuo n-butanoico de consistencia pastosa y color rojo quemado con un
peso: 39,19 –42,2g. Que corresponde al crudo de saponinas, con rendimiento de 79%.

Identificación de Saponinas
Se realizo ensayos químicos cualitativos para determinar posibles saponinas. Con este
estudio se analizo la presencia del agente activo (saponina) en el extracto de
concentración hidroalcohólica de interés en el trabajo. Como se observa en la tabla 1.

Todos los ensayos son positivos. Para el caso de saponinas los ensayos son muy
positivos. Para espuma luego de agitar la muestra durante dos minutos se presento una
densa capa de espuma de 2.2 cm, la cual se mantuvo por más de 6 horas. Esta prueba solo
es presuntiva. Para confirmar presencia de saponinas por medio del ensayo de hemolisis el
cual es muy positivo, ya que al adicionar el extracto sobre medio de cultivo agar sangre se
presento lisis de los glóbulos rojos en el área afectada. Para el caso de antrona se presento
un leve anillo azul en la interfase indicando una reacción ligeramente positiva. En ensayos
más específicos triterpenos y esteroides (Liebermann–Burchard, Salkowski, Rosemheim)
es siempre positivo. Para el primer caso al final de la reacción aparece un color negro
indicando que hay cantidades importantes del analito de interés. Por presentar coloración
azul verdoso indica la presencia de saponinas de estructura esteroidal. Para el caso de
sapogeninas (vainillina), la reacción presento colores variables indicando una reacción
positiva.

44
Evaluación del porcentaje de inhibición

Con esta prueba se evaluó el potencial sanitizante del extracto biodegradable, comparado
con dos desinfectantes comerciales. Datos representados en la grafica 1. El porcentaje de
inhibición sobre los microorganismos gram negativos depende de la concentración del bio
sanitizante y al tiempo de contacto sobre estos. El mayor porcentaje se da a partir de los
6minutos a una concentración del 10%, logrando un máximo de 99,58% de inhibición. El pH
afecta tanto la carga neta de las bacterias como el grado de ionización del agente.
En general las formas ionizadas de los agentes disociables pasan mejor a través de las
membranas biológicas y por tanto son más efectivos. El bio sanitizante es un agente
aniónico con grupo carbonilo como porción hidrofílica, con pH ácido de 4.5. Los
desinfectantes comerciales (Mat-98 y Germigel), son agentes catiónicos con pH 11.7 y
11.9.

Hidrólisis del crudo de saponinas

A partir de 5g de crudo de saponinas tomados para realizar el proceso de hidrólisis, se


obtuvo 1,265g de sapogenina; con un rendimiento de 24,1% con respecto al crudo.
Respecto al material biológico presento un rendimiento de 0,12%, es relativamente bajo ya
que el fruto presenta un 39,846% de semillas, un 17,62% de corteza y un 42,55% de pulpa
que es donde se encuentra el analíto de interés.

Identificación de la sapogenina

Se tuvo como referencia dos patrones de saponinas: diosgenina y hecogenina. El punto de


fusión determinado del analíto de interés fue 255 -258ºC. Comparado con los patrones se
asemeja más a la hecogenina, la cual tiene p.f de 258–262ºC. Prosiguiendo con el proceso
de identificación de la saponina se obtuvo el espectro infrarrojo en un equipo shimadzu
prestige. El cual se evidencia en el espectro 1.

45
Se puede observar claramente bandas pronunciadas y limpias, indicando que la sustancia
es de buena pureza. Se presentaron las siguientes bandas de vibración y tensión: grupo
OH a una longitud de onda de 3304,06 cm-1, en teoría se reporta de 3500 – 2500 cm-1,
grupos CH a 2927,94-2852,72 cm-1, en teoría se reporta de 2850 – 3095 cm-1, grupo
carbonilo C=O a 1726,29 cm-1, teóricamente se reporta de 1690 – 1760 cm-1; Al igual se
confirma la presencia de los grupos CH: CH, CH2 Y CH3.en una longitud de onda de:
1606,92, 1446,61 y 1360,60 cm-1. Hacia 1202,66 cm-1 hay una tensión del grupo C-O, en
teoría se reporta de 1050 – 1300 cm-1. Este espectro comparado con el patrón hecogenina
de la biblioteca del equipo tiene una similitud de un 99%. Al igual el punto de fusión
coincide. La estructura de la sapogenina presente en la especie Solanum marginatum
corresponde a la hecogenina.

Estandarización

El rendimiento de los productos en las diferentes fases del proceso de obtención de


hecogenina realizadas por triplicado se muestra en la tabla 3.

El rendimiento final de sapogenina es relativamente bajo si se tiene en cuenta que la parte


del material biológico que la contiene representa el 42.55% del fruto y al ser secado
representa el 4,06% de este, que es donde se encuentra este analíto de interés.

CONCLUSIONES

El biosanitizante presenta mayor eficiencia sobre los microorganismos (gram negativos)


a una concentración del 10% y un tiempo de acción después de 6 minutos, presentando un
porcentaje máximo de inhibición de 99,58%.

Los sanitizantes comerciales (Mat-98 y Germigel), presentan un porcentaje de inhibición


superior, pero generan productos insolubles, deteriorando el medio ambiente y causando
problemas de salud a quienes lo manipulan. El biosanitizante extraído compensa la poca
diferencia de inhibición (0,412%) con su particularidad de cuidar el entorno ambiental.

46
El agente activo responsable del efecto sanitizante de la especie Solanum marginatum
según P.f y I.R corresponde a una saponina conocida como hecogenina.

El rendimiento de hecogenina en frutos de la especie Solanum marginatum fue 0,103% con


respecto al material biológico y 24,1% con respecto al material seco.

Se recomienda Llevar a cabo la extracción del compuesto activo de esta especie, en fase
húmeda con fines de comparar su eficiencia frente a la extracción seca.

BIBLIOGRAFÍA

?
A.K Carrascal Camacho, A. Páez Morales y M. Burbano Rosero. Manual de laboratorio: Microbiología de
alimentos. Colombia 1998.
?
Fieser, L et al, saponinas esteroides. Revista cubana de farmacia. Cuba 1959.
?
Herrera, A., Kecán, G. análisis fitoquímico y farmacológico del solanum marginatum, Rev. Colombiana ciencias
químico-farmacéuticas. Bogotá 1970
?
Hernández R. R. Obtención de crudos de saponinas. Cuba 1997
?
Hostettman, K., Marston, A.; "Chemistry and Pharmacology of Natural Products.
?
Martínez M. A. Saponinas esteroides. Rev. Universitaria de Antioquia. Colombia 2001
?
M. E. Wall et al. Saponinas esteroidales y triterpénicas. Anal Chem 1952;24:1337-41 1958
?
Sanabria A. alcaloides del solanum marginatum. Revista colombiana de ciencias químico-farmacéuticas.
Bogotá 1974.
?
Saponins", Cambridge University Press, New York, NY, 1995, 548 pp, ISBN 0-521-32970
?
R. Segal et al. Saponinas esteroidales y triterpénicas. USA 1966.

BIOINFORMÁTICA, MÁS QUE UNA HERRAMIENTA DE


INVESTIGACIÓN

MEDINA CAMILO A.

Grupo GEBIMOL semillero GIGA


biohazard1916@gmail.com

La bioinformática inicio con el análisis de secuencias de ADN, hoy en día maneja un océano
de información, es muy probable que en ella este la clave para entender mas ampliamente

47
los procesos evolutivos, las causas de las enfermedades, los procesos celulares, etc. De
una forma general podemos ver a la bioinformática como la tecnología de la información, la
matemática y la estadística empleadas para organizar, analizar y distribuir información
(Attwod T.K.1999) (incluyendo secuencias de nucleótidos y aminoácidos, dominios de
proteínas y estructura de proteínas) esto con el fin de dar solución a incógnitas de origen
biológico.

Debido a la gran evolución de esta disciplina se han creado diferentes centros


especializados en esta área, encontrando así: NCBI, DDBJ (DNA Database of Japan),
EMBL-EBI (Molecular Biology Laboratory). por dar un ejemplo, en el NCBI1 (centro nacional
de información biotecnológica) hallamos bases de datos especificas de ARN en donde
permiten el análisis de secuencia transcritas organizadas (unigen) de tal forma que
represente un gen; de proteínas las cuales las muestran de una forma depurada o de forma
tridimensional al igual que secuencias traductoras; de perfiles la cual realiza generalmente
alineamientos entre proteínas y perfiles de las familias de estas proteínas para encontrar
patrones (Wheeler D. et al. 2006).

Una herramienta muy empleada en estas páginas por su utilidad al comparar secuencias
es el BLAST, el cual nos permite después de realizar una búsqueda secuencias de ADN o
proteínas compararla con una secuencia de nuestro interés1. De esta forma si uno quiere
saber si el organismo con el que esta trabajando es verdaderamente la especie requerida
puede ampliar una secuencia de un fragmento corto y definido y luego de comparala con las
secuencias almacenadas en las bases de datos, dándonos similitudes y diferencias en
parámetros estadísticos. Esto es de un uso práctico enorme, un ejemplo de esto lo
demuestran las investigaciones en microbiología en las cuales se han identificado los
genes causantes de patogenicidad al comparar cepas de una misma especie bacteriana
diferenciadas una de otra por la capacidad patogénica.

Las áreas concretas de aplicación por medio de las cuales se despliega la bioinformática
encontramos la genómica, la proteogenómica, la farmacogenética y la filogenia (Wheeler
D. et al.2006). Dentro de los usos investigativos de esta disciplina esta el de comparar
especies (o cualquier taxón) por medio de alineamientos múltiples permitiéndonos saber
que funciones y estructuras presentan en común, además de descifrar que tan relacionadas
se encuentran estas especies, ver rasgos comunes, definir homologías, analogías,
caracteres plesiomórficos, etc.; esto nos permite la construcción de filogenias obteniendo
así información sobre las relaciones evolutivas y en un contexto mas amplio entender la
historia de la vidade cada organismo.

Si llevamos este conocimiento al campo de la biogeografía y si le interpretamos bien se


pueden llegar a comprender procesos geológicos de gran escala como lo son el tiempo de
separación de continentes; de la misma forma es posible rastrear el origen de un genoma en
tiempo y espacio probando así la distribución de una especie en una era definida, lo cual
sumado a un conocimiento climático nos da una amplia visión de la relación de esta especie
con su medio. un estudio de este tipo se hizo con el hombre por medio de el ADN
mitocondrial llevando el surgimiento de nuestro linaje hasta el las tierras africanas (Shreeve
J. 2006).

48
BIBLIOGRAFÍA

?
Wheeler D. et al. 2006. Database resources of the national center for Biotechnology information. Nucleic Acids
Research, 2007, Vol. 35, Database issue
?
Shreeve J. 2006. Genetic trails left by our ancestors are leading scientists back across time in an epic discovery
of human migration. National Geographic Society
?
Attwood T.K., Parris - Smith D.J. 1999. Introducción a la bioinformática. Prentice Hall

INFOGRAFÍA
? 1
http://www.ncbi.nlm.nih.gov/

49
RevistaSemilleros

t
Titulo: De la serie “Rayando la Ruina”
Fotrográfia: Elkin Colmenares Dulcey
Colectivo: En la Ruina
Integrantes: Elkin Colmenares,
Manuel Barrera, Wilman Zabala.
2010
DESCRIPCIÓN FENOMENOLÓGICA DE LA ECOLOCALIZACIÓN,
IMÁGENES A PARTIR DE SONIDOS

PEÑA JULLY P.

Grupo de Física de Materiales GFM


Escuela de Física, Facultad de Ciencias Básicas
1
jully.pena@uptc.edu.co

RESUMEN

Muchos animales utilizan el sonido como herramienta de ubicación y supervivencia, por


esta razón, sus sistemas auditivos han evolucionado eficazmente asegurando su
conservación en la naturaleza;uno de los procesos más interesantes desarrollados por
estos sistemas biológicos es la ecolocalización, fenómeno consistente en la ubicación y
reconocimiento del medio ambiente a través del análisis de ondas sonoras de alta
frecuencia y que ha alcanzado su máxima perfección, en los murciélagos. Aquí,este
fenómeno abordado en su descripción fenomenológica desde el punto de vista físico en
cuanto al estudio de las ondas mecánicas y biológico desde la recepción y análisis de
sonidos en estos animales.

PALABRAS CLAVES: Ecolocalización,


sonido, sistema auditivo.

1. INTRODUCCIÓN

El sonido es un fenómeno ondulatorio cuyas características físicas son aprovechadas por


los sistemas sensoriales de los seres vivos, en general, como medio de comunicación;sin
embargo, en algunos animales, la percepción de los sonidos se ha desarrollado alcanzando
grados de utilidad y sofisticación que aventajan en sumo grado los sentidos del ser humano.
Los sistemas biológicos son por lo general, susceptibles a la interacción con ondas sonoras
de baja frecuencia (infrasonidos), animales que utilizan esta situación son, por ejemplo, los
tigres, que hacen uso de infrasonidos ligados al rugido para confundir a sus presas o
atacantes, así mismo,los elefantes utilizan estas señales para comunicarse a grandes
distancias (que pueden llegar a ser del orden de los kilómetros)enviando infrasonidos por el
aire y el suelo;por otro lado, ondas sonoras de alta frecuencia son utilizadas por los
murciélagos, en estos, cobran la mayor importancia y utilidad pues ellos dependen casi en

52
2. DESARROLLO

La ecolocalización es un proceso físico consistente en la emisión de pulsos sónicos de alta


frecuencia por parte de un animal, este los recibe y analiza en forma de reflexiones sonoras
o ecos para formarse imágenes mentales en 3D del espacio que lo rodea [ Altringham. 1996];
esta herramienta hace uso de fenómenos físicos asociados con las ondas como la reflexión,
refracción y el efecto Doppler.

La reflexión es un fenómeno ondulatorio asociado con características físicas del sonido


como su frecuencia y longitud de onda; se produce cuando una onda incide sobre un objeto
y se devuelve al no poder atravesarlo; si el tamaño del objeto es pequeño, comparado con
la longitud de onda, esta lo rodeará,
de lo contrario,la onda se reflejará generando un eco
[Crawford.1976], este eco es recogido y procesado por los animales que utilizan
ecolocalización y de este pueden obtener información como la distancia a la que está un
obstáculo, su tamaño, forma y textura, esto lo hacen midiendo el tiempo de diferencia entre
el sonido original y su eco y el cambio en frecuencia y amplitud del mismo. El sofisticado
sistema auditivo- neuronal del murciélago le permite recoger y analizar esos reflejos para
orientarse y cazar con efectividad.

Los murciélagos emiten sonidos en un rango de frecuencias muy amplio que recorre desde
los sonidos audibles para los humanos, durante la comunicación con otros murciélagos,
hasta ultrasonidos ( sonidos de altísima frecuencia, por encima de 20 kHz)usados en la
ecolocalización [Altringham. 1996]; cuyas altas frecuencias garantizan cortas longitudes
de onda (desde unos tres milímetros hasta algunos micrómetros) capaces de reflejarse en
presencia de objetos pequeñísimos del tamaño de un mosco y del grosor de un cabello
humano.

Si se encuentran ondas cuyas frecuencias son similares e interactúan una con la otra se
modifican las características originales de ambas, este fenómeno se conoce como
interferencia; en la ecolocalización se evita al máximo que se presente este fenómeno por la
complejidad que implicaría para el animal la clasificación de ondas modificadas de este
modo y no por los objetos presentes en el ambiente. Las altas frecuencias sirven para evitar
la interferencia ya que hay pocos sonidos tan altos en la naturaleza, además, ondas de
estas frecuencias no viajan lejos antes de reflejarse y no alertan a posibles depredadores ya
que no son capaces de oír estos sonidos [ Neuweiler. 2000].

Los murciélagos producen los ultrasonidos en la laringe y controlan su frecuencia a través


de ajustes de la tensión en las cuerdas vocales. Las ondas sonoras se producen como
consecuencia de una compresión en el aire, la cuál, genera un enrarecimiento en e l aire

53
circundante y este a su vez, otra compresión, así se propaga la onda y la velocidad con que
lo hace depende de características del medio como densidad, temperatura y presión. Estas
ondas chocan con los diferentes objetos y regresan en una dirección determinada de
acuerdo con la ley de Snell de la reflexión que, para el caso del murciélago, que está de
frente al objeto,es la misma dirección de emisión, la comparación de la onda enviada con
la recibida proporcionan la información necesaria para trazar un mapa mental del medio.

Las orejas de los murciélagos tienen movimiento independiente y pabellones auditivos


grandes para enfocar la onda hacia el tímpano y aumentar en este la presión, las
vibraciones pasan por huesos del canal auditivo que finalmente generan señales eléctricas
hacia el cerebro el cuál posee dos clases de neuronas utilizadas en ecolocación: una para
activar los músculos que producen el sonido y otra para procesar los ecos, estas últimas
están distribuidas por toda la corteza cerebral y se subdividen para analizar los ecos
provenientes a tiempos diferentes, es decir, cada zona del cerebro analiza ecos con
determinado tiempo de retraso luego de la señal emitida [Neuweiler. 2000].

Estos mamíferos emiten sonidos de ecolocalización en pulsos que son diferentes para las
diferentes especies de murciélagos, en algunos, estos pulsos son de frecuencia modulada
FM y en otros de frecuencia constante FC [ Altringham.1996], sin embargo suelen
presentarse juntos, aprovechando las ventajas que cada uno ofrece.

Las ondas de frecuencia modulada tienen pulsos no constantes, es decir, su frecuencia


varía en rangos de 30 kHz a 60 kHz con una duración de 0.2 ms a 5.0 ms, esto para evitar
que la onda regrese antes que el pulso termine de ser emitido (mientras es enviado un
sonido, el canal auditivo está cerrado para evitar el daño a órganos sensibles a sonidos
muy fuertes) [ Neuweiler.2000]; los pulsos de FM se caracterizan por empezar con
frecuencias bajas en las fases de búsqueda y ubicación y un aumento gradual de la misma
cuando el animal se acerca a la presa, cuanto más cerca esté de ella el murciélago
necesita más exactitud en su ubicación, con el aumento de frecuencia evita que el sonido se
desvíe por su baja longitud de onda, así tendrá mayor poder de penetración lo cuál da
indicios sobre la composición interna del objeto próximo, de esta manera, el murciélago
varía las frecuencias para determinar posición, velocidad, tamaño, forma y textura del
blanco.

Por el contrario, los pulsos de FC, mantienen la misma frecuencia durante la emisión del
pulso, estos duran de 10 ms a 50 ms y sus frecuencias son un poco menores por lo que las
ondas cubren distancias mayores y no se atenúan tanto en el aire, por esta razón se usan en
la fase de búsqueda;sin embargo,estos no proporcionan información sobre la estructura

54
de búsqueda se introducen los armónicos (frecuencias que son múltiplos de la frecuencia
natural de oscilación de las cuerdas vocales del murciélago) para aumentar la frecuencia
[
Neuweiler. 2000].

Como en las llamadas FC los pulsos no cambian de frecuencia, los murciélagos no pueden
determinar la posición o velocidad del blanco por la diferencia en frecuencia en la onda
reflejada en sí misma, para el cálculo de estos parámetros hacen uso del efecto Doppler,
este es un fenómeno físico consistente en el cambio de la frecuencia de una onda percibida
por un observador debido al movimiento relativo entre fuente y receptor [ 4]. En el caso de
los murciélagos, estos se mueven con la misma velocidad ya que el animal cumple los dos
papeles. Cuando el murciélago está en reposo y la presa se mueve, la frecuencia de la
onda reflejada percibida por el murciélago es menor si la presa se aleja y mayor si ésta se
acerca, así puede conocer la posición y la velocidad determinando que tanto está
aumentando o disminuyendo la frecuencia percibida,es decir cuanto está variando el
tiempo de retorno de la onda reflejada.

Generalmente, los murciélagos no están en reposo sino que se mueven tras la presa, en
este caso, una señal que es emitida, llega a la presa en un tiempo t1 y se refleja volviendo al
emisor en un tiempo t11 que depende de la velocidad con la que se mueva el murciélago con
respecto al blanco, ya que este será mayor si la velocidad del murciélago es menor y menor
si este se mueve más rápido;cuando se emite una segunda señal, esta de nuevo da en el
blanco en un tiempo t2 y llega al murciélago en t22,
así el periodo medido por el murciélago es
la diferencia entre los tiempos medidos t22 y t11,y la diferencia de la frecuencia será por
supuesto el inverso de ese periodo,con esa diferencia comparada con la frecuencia de
emisión del sonido, el murciélago puede ubicar a su presa en posición y velocidad sin tener
que cambiar la frecuencia durante los pulsos;sin embargo, los murciélagos procuran
cambiarla para que la frecuencia percibida de la onda reflejada esté alrededor de los 82
kHz pues sus oídos están “ afinados”para ser más sensibles a sonidos de esta frecuencia
[Neuweiler. 2000].

La combinación efectiva de estos dos tipos de llamada garantiza la efectividad en la caza,


consecución de alimento y ubicación en absoluta ausencia de luz.

Se conocen dos mecanismos por los que los murciélagos no confunden sus sonidos con los
de otros: uno consiste en suprimir del primero de los armónicos de sus cuerdas vocales
alrededor del 1% de su energía, con esto disminuye la amplitud y el eco se hace tan débil
que no es capaz de abrir los canales auditivos de otros murciélagos;el otro método es un
complicado sistema neuronal que durante pulsos combinados de FC/FM, sólo procesa
pulsos reflejados de FM precedidos de pulsos FC con la apropiada diferencia temporal, así

55
el murciélago ignora pulsos de rangos temporales diferentes porque “ conoce”los suyos
propios y el tiempo que debe haber entre ellos; además, cada murciélago tiene un timbre
con pulsos y frecuencias propios tal como cada persona tiene una voz propia diferente a las
demás.

Hasta ahora, no se ha comprobado que al igual que las ballenas los murciélagos posean
algún sistema sensorial magnético, por lo que se asume, que aún en viajes largos, estos
usan la ecolocalización para volver a sus hábitat por el reconocimiento amplio en 3D de los
objetos familiares a la cueva de cada uno,esto pueden hacerlo aunque haya medios
diferentes por los que deban atravesar, pudiendo también reconocer e interceptar objetos
en el agua, para esto utilizan otro fenómeno típicamente ondulatorio, la refracción,
basado
en la diferencia de la velocidad de propagación en medios diferentes, este cambio de
velocidad cambia también la dirección, así la onda refractada atraviesa el medio pero se
desvía, los murciélagos son capaces de percibir ese cambio de dirección y velocidad
además de la diferencia de texturas entre el agua y la tierra [5].

El fenómeno de la ecolocalización en murciélagos ha sido estudiado por centros de


investigación en biología y física de todo el mundo desde antes de la segunda guerra
mundial,pero, aún así,son muchos los mecanismos y procesos implicados que son
desconocidos por la ciencia y son objeto de estudio en la actualidad.

3. CONCLUSIÓN

La ecolocalización puede entenderse como un sistema de percepción sensorial


dependiente de las propiedades físicas de los fenómenos ondulatorios, en particular, de la
reflexión y refracción de las ondas sonoras además del efecto Doppler, estos le permiten a
ciertos animales adecuarse al medio obteniendo de este información detallada para su
supervivencia en el mismo; aunque no todos los procesos biológicos pueden ser explicados
aún por la física, estos son tomados como base para la elaboración de sistemas artificiales
que los imiten aunque por el momento estos se encuentren ante un abismo de desventaja
con los sistemas naturales los cuales son el resultado de miles de años de evolución.

En los seres vivos los sistemas físicos y biológicos se combinan dando lugar a complejos
procesos que son base del estudio de la mayoría de las ciencias.

56
BIBLIOGRAFÍA

l
[1]
lALTRINGHAM,John (1996):
Bats, Bio logt and Behaviour.New York. Oxford University.
[2]
lNEUWEILER, Gerhard (2000):
The Biology of Bats.
New York.
Oxford University.
[3]
lCRAWFORD Jr,
Frank (1979)
Ondas, España.
Editorial Reverté S.
A.
[4]
lFRANCO Ángel, Física con ordenador
http:/www.fisica con oordenador/
l ondas/
doppler
[5]
lhttp:
/www.physics.ius.edu/argentina, reflexión y refracción de ondas sonoras

APLICACIÓN DEL ALGORITMO RUNGE – KUTTA EN LA OBTENCIÓN


DE ÓRBITAS ESTELARES EN GALAXIAS ESPIRALES

FONSECA, EULISES A.

Grupo de Física Teórica y Computacional, Escuela de Física, Facultad de Ciencias


Básicas, Universidad Pedagógica y Tecnológica de Colombia.
alejofonseca_44@hotmail.com

RESUMEN

Se hace una revisión del algoritmo de Runge – Kutta de cuarto orden, aplicado a la solución
de las ecuaciones de movimiento para una partícula moviéndose bajo la acción de un
potencial arbitrario y se da a conocer algunos resultados del empleo de este en la solución
de problemas de ubicación y estabilidad de órbitas en galaxias espirales.

PALABRAS CLAVES: Métodos Numéricos: Runge – Kutta 4° Orden, Galaxias: Dinámica,


Orbitas: Estabilidad.

INTRODUCCIÓN

En mecánica clásica uno de los problemas más comunes es encontrar el conjunto de


expresiones que relacionen la trayectoria de un sistema en el espacio de fase con el tiempo,
en otras palabras, solucionar las ecuaciones de movimiento (Goldstein, et al. 2002). Uno de
los primeros, y quizá el más conocido es el problema de los tres cuerpos (Symon. 1961),
que si bien, es relativamente simple, no ha sido posible encontrar una solución analítica,
sino aproximaciones para casos muy especiales (Hénon. 1969).
En sistemas más complejos como galaxias espirales, se hace imposible obtener una

57
solución exacta a las ecuaciones de movimiento, por lo que se recurre a los métodos
numéricos. El método más frecuentemente usado es el de Runge – Kutta de cuarto orden
(Binney & Tremaine. 2008) por su alta precisión y relativa sencillez.
En la primera parte se da un preámbulo acerca de los métodos de obtención de órbitas en
galaxias; luego se presenta el algoritmo Runge – Kutta para sistemas físicos autónomos
(No dependientes del tiempo), haciendo énfasis en la aplicación en física; a continuación se
muestran algunos resultados obtenidos y para terminar, se dan a conocer las principales
conclusiones del trabajo.

Órbitas Estelares en Galaxias


La obtención de la trayectoria de una partícula en cualquier sistema físico se puede obtener
por dos métodos:
1 Se toma como partida la segunda ley de Newton, obteniendo las ecuaciones de
movimiento, las cuales, en el caso más general forman un sistema de ecuaciones
diferenciales ordinarias de segundo orden. La solución de tal sistema constituye la
trayectoria de la partícula.

2 Se construye el Hamiltoniano para la partícula, del cual se obtiene las ecuaciones


de Hamilton, las cuales forman un sistema de ecuaciones diferenciales de primer
orden, cuya solución da la trayectoria de la partícula y el momentum canónico
asociado a cada una de las coordenadas espaciales.

Cabe destacar que al llevar a cabo una reducción de orden al sistema de ecuaciones
diferenciales del método de Newton, se obtiene el sistema derivado por medio del método
de Hamilton.
Debido a que se hace más sencillo trabajar con energías (o potenciales) que con fuerzas, el
trabajo de obtener ecuaciones de movimiento se lleva a cabo a través del método de
Hamilton.
Si se ignora la contribución vertical, una galaxia espiral puede ser modelada como un
sistema bidimensional, obteniendo así un sistema de 4 ecuaciones diferenciales en la
mayoría de los casos, no lineales, haciendo imposible la solución exacta, llevándonos a
recurrir a los métodos numéricos.

Algoritmo Runge – Kutta


Las ecuaciones de Hamilton (Goldstein, et al. 2002) están definidas como:

¶H H

p&
i =
- q&
i = (1)
¶qi pi

58
Dónde qi es la i – ésima coordenada espacial, pi el momentum asociado a la i –ésima
coordenada espacial, H el Hamiltoniano del sistema y los puntos sobre las
coordenadas canónicas indican derivadas temporales.
Si se define un vector de coordenadas canónicas wr:

r (2)
(
q1 , q2 ,..., qn , p1 , p2 ,..., pn )
w=

Entonces, las ecuaciones de Hamilton pueden ser escritas en forma vectorial como:

r r
r dw
f ( w) = q&
(
= && & & &
1 , q2 ,..., qn , p1 , p2 ,..., pn ) (3)
dt
r
Si se conoce el valor de las coordenadas canónicas w en un tiempo t (condiciones
j j
iníciales) y se introduce el valor de paso temporal o timestep h , se define los
coeficientes de Runge – Kutta como:

rr r
k1 =hf (wj ) (4.a)
r
rr ær k1 ö
k2 =hf çwj + (4.b)
÷
è2ø
r
rr r
æ k2 ö
k3 =
hf ç
wj + ÷ (4.c)
è2ø
rr r r
k4 = ()
hf w j +
k3 (4.d)

r
Conocido el valor de cada uno de estos, es posible calcular el vector w j +
1 para un tiempo
tj +
h

rr 1ærrr1 1 r ö
wj+ wj +
1 = k1 +
ç k2 + k3 +
k4 ÷ (5)
6 è2 2 ø

Así, a partir de ciclos repetitivos se puede llegar a conocer la trayectoria del sistema en el
espacio de fase para las condiciones iníciales dadas.
La precisión del método depende de la escogencia del timestep, de esta manera entre más
pequeño sea h , mejores serán los resultados obtenidos.

59
Estabilidad de Órbitas en Galaxias
A partir de la solución de las ecuaciones de Hamilton, es posible encontrar condiciones
iníciales para las cuales el sistema va a tener un comportamiento estable. Esto se lleva a
cabo usando los diagramas de Poincaré (Binney & Tremaine. 2008).
Un diagrama de Poincaré es un corte bidimensional en determinada región del espacio de
fase (usualmente qn = 0 ), en este se puede observar conjuntos de puntos que forman
curvas cerradas, estas se denominan curvas invariantes y están relacionadas con orbitas
cuasi-periódicas. Generalmente las curvas invariantes encierran puntos, estos dan cuenta
de soluciones u órbitas periódicas del sistema. Otra característica que puede observarse en
un diagrama de Poincaré es la presencia de caos, el cual se ve representado en los puntos
que se encuentran dispersos en todo el diagrama y que además no presentan ningún tipo
de regularidad.

Se desarrolló un programa en FORTRAN basado en el algoritmo Runge – Kutta para dos


casos: Una partícula de prueba bajo el potencial de Hénon – Heiles estacionario (Hénon &
Heiles. 1964) y una partícula de prueba bajo un potencial galáctico más realista rotando a la
velocidad del patrón perturbador (Elmegreen. 1998)
En la figura 1.a se muestra un diagrama de Poincaré para una partícula moviéndose bajo el
potencial de Hénon – Heiles. En este se puede observar curvas invariantes que dan cuenta
de órbitas cuasi-periódicas como la mostrada en la figura 1.b, puntos encerrados indicando
la presencia de órbitas periódicas (figura 2.a) y puntos dispersos a causa de la orbitas
caóticas (figura 2.b).
Di agram a de P oinc a ré
E = 0. 125 0

0. 6

0. 4

0. 2

P y 0. 0

- 0. 2

- 0. 4

- 0. 6
- 0. 6 - 0.4 -0 .2 0 .0 0 .2 0. 4 0 .6 0 .8

a) b)
Figura 1. a) Diagrama de Poincaré ( x = 0 ) Potencial de Hénon – Heiles. b) Orbita cuasi-
periódica para una partícula bajo el potencial de Hénon – Héiles.

60
.

Figura 2. Órbitas de una partícula bajo el potencial de Hénon – Heiles a) Órbita periódica
b) Órbita caótica.

En el caso de una partícula moviéndose bajo un potencial galáctico medianamente realista


(con contribuciones del disco, componente esferoidal, perturbación espiral e ignorando
efectos de fricción dinámica, componente gaseosa, entre otros. Véase Amaral, et al. 1997)
se obtuvo diagramas de Poincaré como el mostrado en la figura 3 y órbitas de forma elíptica
que se presentarán en un próximo trabajo.
Diagram a de Poincaré
7 00

600
500

400
300

200
100

0
p
r
-100

-200
-300

-400
5
-500 E =-3 .52 34 5*10
-600

-7 00
-2 0 2 4 6 8 10 12 14 16 18 20 22 24

r (K pc)

Figura 3. Diagrama de Poincaré (q = 0) para una partícula moviendose bajo un


potencial galáctico rotante. Nótese la presencia de una órbita periódica en
r=
6.5Kpc

61
CONCLUSIONES

El método de Runge – Kutta es de gran utilidad en la solución de problemas físicos que


involucran sistemas de ecuaciones diferenciales y mas puntualmente en sistemas
dinámicos.

El método de Runge – Kutta es una herramienta muy útil en el análisis de estabilidad de


sistemas físicos, ya que con esta se obtiene una descripción cualitativa muy precisa acerca
de las condiciones necesarias para que la solución del sistema cambie entre caótica y
periódica.

El método presenta grandes ventajas en la investigación cuando no se cuenta con equipos


capaces de llevar a cabo simulaciones de N – cuerpos, debido a que es un método muy
económico (computacionalmente hablando).

BIBLIOGRAFÍA

[1] AMARAL, L. H. & LÉPINE, J. R. D. (1997): “A self-consistent model of the spiral structure of the Galaxy.” en
l

Monthly Notices of the Royal Astronomical Society, N° 286, P 885 – 894.


nd
[2] BINNEY, James & TREMAINE, Scott. (2008): Galactic Dynamics, 2
l Edition. New York. Princeton
University Press.
[3] ELMEGREEN, Debra M. (1998): Galaxies & Galactic Structure. Upper Saddle River, New Jersey. Prentice
l

Hall.
rd
[4] GOLDSTEIN, Herbert; POOLE, Charles & SAFKO, John. (2002): Classical Mechanics, 3 Edition. San
l

Francisco. Addison Wesley.


[5] HENON, Michael & HEILES, Carl. (1964). “The applicability of the third integral of motion: Some numerical
l

experiments.” en Astronomical Journal Vol. 69, P 73 – 79.


[6] HENON, Michael. (1969): “Numerical Exploration of the Restricted Problem. V. Hill's Case: Periodic Orbits
l

and Their Stability.” en Astronomy & Astrophysics, N° 1, P 223 – 238.


nd
[7] SYMON, Keith. (1961): Mechanics, 2 Edition. Reading, Massachusetts. Addison Wesley.
l

62
MICROSCOPIA DE FUERZA ATÓMICA: TÉCNICA, EQUIPO Y
APLICACIONES
SANDOVAL SANTIAGO1, OTÁLORA JOSÉ DEL C2.
1
Grupo Física de Materiales, Estudiante Escuela de Física.
2
Grupo Física de Materiales, Docente escuela de Física.
Universidad Pedagógica y Tecnológica de Colombia
1
samos16@gmail.com, 2 jcoa3@hotmail.com

RESUMEN

Uno de los principales métodos de caracterización de superficies y películas delgadas es el


de la microscopía de fuerza atómica, el cual permite obtener la morfología de la superficie
desde el rango de los micrómetros y Armstrong donde pueden hacerse medidas de tamaño
de grano y rugosidad de la superficie, hasta bajo ciertas condiciones especiales, el nivel
atómico de especial interés en el campo de la nanotecnología. Se hace una introducción a la
técnica, se describe su electrónica y funcionamiento. Se amplía el tema de los "cantilevers"
y las puntas del equipo, describiendo su estructura, la resolución, y la curva de fuerzas
debida a las interatómicas implicadas en especial la fuerza de Van der Waals. También se
describen algunas de las aplicaciones de la microscopía de fuerza atómica, que permiten
obtener mayor información de la superficie, tales como sus propiedades magnéticas,
eléctricas y su dureza.

PALABRAS CLAVES: Microscopía de fuerza atómica, cantiléver, punta AFM,


nanotecnología.

1. INTRODUCCIÓN

La microscopía de fuerza atómica (AFM) examina la superficie de una muestra con una
punta aguda, de un par de micrómetros de longitud y menos de 100Å en diámetro. La punta
está localizada en la punta libre de un cantiléver que es de 100 a 200µm de longitud. Las
fuerzas entre la punta y la superficie de la muestra producen que el cantiléver se curve o
desvíe. Un detector mide la desviación del cantiléver a medida que la punta es barrida sobre
la muestra, o la muestra es barrida bajo la punta. Las desviaciones medidas del cantiléver
permiten a un computador generar un mapa de la superficie topográfica. Los AFM pueden
ser usados para estudiar aislantes y semiconductores tanto como para conductores
eléctricos. [2]

63
Fig. 1.1 Microscopio de Fuerza Atómica. (Sampson 1996)

2. MICROSCOPÍA DE FUERZA ATÓMICA

Un esquema de un microscopio de fuerza atómica se muestra en el diagrama. La muestra


está montada sobre un detector piezocerámico que puede moverse con precisión en las
coordenadas X, Y, y Z. La muestra es barrida en las direcciones X y Y con una punta afilada.
Esta punta está montada en el fin libre de un cantiléver sobre el que se enfoca un rayo láser.

Fig. 2.1 Esquema de funcionamiento de un AFM, en donde las desviaciones del


cantiléver son medidas por dispositivos ópticos que miden las desviaciones que sufre el
rayo láser al reflejarse en el cantiléver. [1]

El rayo se refleja en la parte trasera del cantiléver hacia un juego de cuatro diodos
fotosensibles. Éstos detectan cualquier desviación del láser que se origine en el cantiléver
que se mueve a medida que la muestra es barrida. Una realimentación actúa para mover el
piezodetector en la dirección Z que lleva el rayo láser a su posición original. De esta manera
la muestra se examina con una fuerza constante y el resultado de los movimientos del
detector en Z producen un mapa topográfico de la región barrida con una resolución
vertical menor que 1Å; en los casos favorables. El AFM puede usarse en una variedad de
ambientes, en aire, en UHV o bajo los líquidos. [1]

64
2.1 OPERACION DE REALIMENTACION

El AFM puede operar en dos modos principales: (1) Con control de realimentación y (2) sin
control de realimentación. Si la realimentación electrónica se enciende, entonces el
piezodetector que está moviendo la muestra (o punta) de arriba abajo puede responder a
cualquier cambio en la fuerza que detecte, y altera la separación de la punta-muestra para
restaurar la fuerza a un valor predeterminado. Este modo de funcionamiento es conocido
como "de fuerza constante", y normalmente permite obtener una imagen topográfica
bastante fiel.

Si la realimentación electrónica se apaga, entonces se dice que el microscopio está


operando en altura constante o modo de deflexión. Esto es particularmente útil para
visualizar muestras relativamente planas a alta definición. A menudo es mejor tener una
cantidad pequeña de ganancia de realimentación, para evitar los problemas de
fluctuaciones térmicas o la posibilidad de que una muestra áspera dañe la punta y/o el
cantiléver. Este modo también se conoce como modo de señal de error. El modo de señal de
error puede mostrase aunque la realimentación se encienda; esta imagen quitará las
variaciones lentas de la topografía pero resaltará los bordes. [4]

2.2 MODOS DE TRABAJO

Varias fuerzas contribuyen típicamente a la desviación de un cantiléver de AFM. La fuerza


más comúnmente asociada con la microscopía de fuerza atómica es una fuerza de
interacción llamada la fuerza de Van der Waals. La dependencia de la fuerza de Van der
Waals entre la distancia entre la punta y la muestra se muestra en la Figura 2.2.

Fig. 2.2. Grafica de la fuerza de Van der Waals en función de la separación en donde se
señalan las regiones para cada uno de los modos de trabajo en AFM. [3]

65
Dos regiones están señaladas en la figura 2.2: 1) La región de contacto; y 2) la región de no-
contacto. En la región de contacto, el cantiléver se mantiene a menos de unos pocos
Angstrom de la superficie de la muestra, y la fuerza interatómica entre el cantiléver y la
muestra es repulsiva. En la región de no-contacto, el cantiléver se mantiene en el orden de
diez a cien Armstrong de la superficie de la muestra, y la fuerza interatómica entre el
cantiléver y la muestra es atractiva (grandemente como un resultado de las interacciones de
Van der Waals de largo alcance). [3]
Existe otro modo que presente ciertas ventajas en el análisis, y ha superado en algunas
limitaciones de los modos de contacto y no contacto, es el modo de contacto-intermitente,
en donde la punta del cantiléver vibrante se acerca más a la muestra, así que en el fondo de
su viaje esta apenas toca, o golpea la muestra. La región de operación intermitente está
indicada en la curva de Van der Waals en la Figura 2.2. La amplitud de oscilación del
cantiléver cambia en respuesta a la distancia punta-muestra. La imagen que representa la
topografía de superficie se obtiene monitoreando estos cambios. [3]

3. CANTILEVER

Los cantilevers y las puntas son componentes críticos en un sistema AFM porque
determinan la fuerza aplicada a la muestra y en últimas la resolución lateral del sistema

Fig. 3.1. Imagen SEM de un cantiléver. (Sampson, 1996)

La punta y el ensamblaje del cantiléver puede estar fabricado de Silicio o Nitruro de Silicio
usando técnicas de fotolitografía. Más de 1000 puntas y cantilevers son producidas de una
oblea de silicio. Los cantilevers en forma V son los más populares, proporcionando baja
resistencia a la deflexión vertical, y alta resistencia a la torsión lateral. Los cantilevers
usualmente tienen un largo de 100 a 200µm, 10 a 40µm de ancho, y 0.3 a 2µm en espesor y
mantienen la constante de resorte. Las puntas de AFM son sondas micromaquinadas,
monolíticas de Silicio, que muestran una excelente uniformidad y un agudo radio de punta.
El radio de la punta de menos de 10 nm da una buena resolución. Para una información

66
detallada acerca de la forma de la punta que usted esté utilizando, además de su
morfología, se recomienda el modulo caracterización de puntas del software SPIP (The
Scanning Probe Image Processor) (Nanoscience Instruments, 2003). [2]

Fig. 5.2 (izquierda) Imagen SEM de una punta “ultratip”. (Derecha) Imagen SEM de una
punta en forma piramidal. (Sampson, 1996).

4. RESOLUCIÓN

La resolución lateral de una imagen de AFM se determina por dos factores: El tamaño del
paso de la imagen, y el radio mínimo de la punta. Las puntas más agudas disponibles
comercialmente tienen radios tan pequeños como 50Å. Debido a que el área de interacción
entre la punta y la muestra es una fracción del radio de la punta estas puntas usualmente
proporcionan una resolución lateral de 10 a 20Å. De este modo, la resolución de las
imágenes de AFM mayores que 1µm por 1µm esta usualmente determinada no solo por la
punta sino por el paso de la imagen. La mejor resolución de un AFM, sin embargo, depende
sobre cómo se define la resolución. En la comunidad de la microscopia, dos asperezas
(picos) se consideran resueltos si la imagen satisface el criterio de Rayleigh. El criterio de
Rayleigh requiere que la altura de la imagen se reduzca por lo menos 19% entre las
asperezas, como se ilustra a continuación

Fig. 4.1 Definición de la resolución lateral usando el criterio de Rayleigh. [2]

67
La separación mínima entre asperezas resueltas determina la mejor resolución lateral del
sistema. Usando esta definición, la resolución lateral de un AFM con las puntas más agudas
disponibles comercialmente es de 10 a 20Å. Un STM da la verdadera resolución atómica.
Debido a que la dependencia de la corriente de tunelamiento en la separación punta-
muestra es exponencial, sólo el átomo más cercano de una buena punta de STM,
interacciona con el átomo más cercano en la muestra, como se muestra a continuación.
Para AFM, la dependencia de desviación del cantiléver en la separación punta-muestra es
más débil. El resultado es que varios átomos en la punta interaccionen simultáneamente
con varios átomos en la muestra. [2]

Fig. 4.2 Interacción atómica para un STM (izquierda) y un AFM (centro). El sombreado
muestra la intensidad de la interacción, imagen de una muestra sometida al AFM (derecha)
(spmlab.science, 2004).

CONCLUSIONES

El AFM puede visualizar en forma de análisis de rugosidad superficies conductoras y


aislantes, a menudo con la misma resolución como el microscopio de efecto túnel.

La punta y el ensamblaje del cantiléver puede estar fabricado de Silicio o Nitruro de Silicio
usando técnicas de fotolitografía. Los cantilevers usualmente tienen un largo de 100 a
200µm, 10 a 40µm de ancho, y 0.3 a 2µm en espesor.

El tamaño del paso de la imagen, y el radio mínimo de la punta son claves en la resolución
lateral de un AFM.

La principal perspectiva de microscopia de fuerza atómica es la nanotecnología que


permitirá la miniaturarización electrónica y la manipulación de polímetros.

68
BIBLIOGRAFÍA

?
HOWLAND, Rebecca y BENATAR, Lisa, 1997, “A practical guide to Scanning probe microscopy”, Park
Scientific Instruments, pp. 1-13, 57-65, 71-73.
?
Nanoscience Instruments, 2003, “The Scanning Probe Image Processor”:
http://www.nanoscience.com/products/SPIP_download.htm.
?
SAMPSON, Allen R., 1996, “Scanning Electron Microscopy”, Advanced Research Systems:
http://www.sem.com/analytic/sem.htm
?
The Compton Group, 2001, “Chemistry at the solid-liquid interface, Atomic Force Microscopy”:
http://physchem.ox.ac.uk/~rgc/research/afm/afm1.htm. (The Compton Group, 2001).
?

MODELO DE LA GOTA LÍQUIDA CON PEQUEÑAS DEFORMACIONES

HERNÁNDEZ YENNY1
HIGUERA SINDY1

1
Grupo de Física Teórica y Computacional
Escuela de Física, Facultad de Ciencias Básicas

RESUMEN

Se presenta al núcleo como una gota líquida con una pequeña modificación. En este
sentido, principalmente se analizan los efectos sobre las contribuciones de Energía de
Coulomb y de Superficie, asumiendo pequeñas deformaciones multipolares y tratando al
núcleo con una singularidad elipsoidal, con el fin, de describir la Energía de Ligadura en
términos de los nuevos parámetros. Finalmente se realiza una comparación analítica y
gráfica en el marco del modelo original y el modelo deformado para así observar las
modificaciones que sufre la Energía de Ligadura, asociada a ella también el término de
masa nuclear.

PALABRAS CLAVES: Núcleo, modelo de gota líquida, deformaciones multipolares.

69
1. INTRODUCCIÓN

Con el modelo de la Gota Líquida se puede comprender los comportamientos de la Energía


de Ligadura, la cual se obtiene por la suma de otras contribuciones de energía, dentro de las
que se encuentra el término de la Energía de Coulomb y la Energía de Superficie. En este
modelo, el núcleo es tratado como una esfera homogéneamente cargada, ¿Pero cómo
afectaría a la energía de ligadura una pequeña deformación de esta gota? En este artículo
se presenta al núcleo como una gota líquida con una pequeña modificación. Uno de los
sistemas físicos más complejos en toda su área de estudio es precisamente el núcleo
atómico, dadas sus propiedades e interacciones descritas por las fuerzas de corto alcance,
y la adecuada descripción de una simetría que manifieste resultados semejantes a los
observados experimentalmente. Así pues, se plantea el estudio del bien conocido modelo
de la gota líquida, ésta vez, se asocia al mismo, un término de deformación multipolar que
asemeja una simetría elipsoidal, con el cual se detalla un acercamiento hacia uno de los
modelos más acertados, que toma en cuenta expansiones multipolares: el denominado
Modelo de Nilsson. De ésta forma se parte de un sistema sencillo y empírico a la vez, y se
modifica, teniendo presente al núcleo no como un mecanismo estático sino que se
encuentra sujeto a excitaciones que provocan oscilaciones o vibraciones y por tanto alteran
su simetría.

2. REFERENTE TEÓRICO

Modelo de la Gota Deformada

(1)

Los valores de las constantes se obtienen realizando el ajuste de los datos


experimentales a una curva, esto produce que los resultados obtenidos tengan un carácter
semiempírico. Para núcleos que no asemejan una forma esférica, se presentan
correcciones para la Energía de Superficie y la Energía de Coulomb que se manifiestan en
términos de pequeñas deformaciones multipolares (tal como el Modelo de Nilsson):

(2)

En la expresión (2) , representa el término cuadrupolar, y ,


representa el término hexadecapolar. Una simple ilustración de estas modificaciones, es
obtenida para una deformación elipsoidal en donde se toma el eje mayor a y el eje menor b
como:

70
.

(3)

Usando el parámetro de deformación los términos de energía de superficie y de Coulomb se


convierten en:

(4)

Por tanto la ecuación modificada para la energía de ligadura en términos de la expansión


multipolar es:

(5)

3. RESULTADOS

Empleando la expresión completa para la fórmula de masas o fórmula semiempírica de


Bethe-Weizsäcker y haciendo uso de lenguaje de programación en c++ se obtiene la
siguiente gráfica que describe la energía de ligadura por nucleón en función de la masa
atómica, de los resultados experimentales estudiados en el desarrollo de la física nuclear se
obtiene que la curva aumenta proporcionalmente y luego, para una energía de 8 MeV se
estabiliza y cae nuevamente. Tal como se puede observar en gráfico 1:

Figura 1. Energía de Ligadura por nucleón en función de masa atómica sin deformación.

71
Ahora, a la fórmula semiempírica de Bethe-Weizsäcker se adiciona, el término de
deformación multipolar, que se describió en el formalismo planteado, obteniendo la
siguiente gráfica que describe igualmente la curva para la energía de ligadura.

Figura 2. Energía de Ligadura por nucleón en función de la masa atómica con deformación.

De ésta forma, se observa, que el efecto de la deformación sobre la fórmula de masas


produce que el valor para la energía de ligadura por nucleón se estabilice en un valor menor
comparado al modelo sin deformación, esto se debe, a que la interacción entre nucleones
se reduce levemente, a causa de la misma, y por tanto la energía de ligadura tendrá un valor
más pequeño.

CONCLUSIONES

El comportamiento de la energía de superficie y la energía de Coulomb han sido


estudiados como una generalización del modelo de la gota líquida, tomando en cuenta la
influencia de pequeñas deformaciones. Se ha analizado, un procedimiento simple para
describir la influencia sobre la energía de ligadura nuclear que viene de una deformación
multipolar, con la ayuda de un lenguaje de programación (c++) y de ´esta manera dar una
descripción más realista del núcleo expresado como un elipsoide en revolución.

BIBLIOGRAFÍA

[1] BURCHMAN, W.E (1974): Física Nuclear. Editorial Reverté.


l

[2] FERRER, A (3006): Física Nuclear y de Partículas, Universitat de Valencia.


l

[3] CRISTANCHO, F. Física Nuclear, Universidad Nacional de Colombia


l

[4] KUCKUK, M (1993): Física Nuclear. Funda¸cao Calouste Gulbenkian.


l

[5] FRIEDMAN, BATTY E., GILS C.J., REBEL H.J. (1989): Adv.Nuclear Physics
l

72
PROPIEDADES ESTRUCTURALES Y ELECTRÓNICAS DEL Ti
CALCULADAS MEDIANTE LA DFT

MARÍA A. PUERTO 1
WILLIAM O. SOSA1
JAIRO A RODRÍGUEZ2

1
Grupo Física de Materiales (GFM). Escuela de Física. Facultad de Ciencias Básicas.
2
Grupo de Estudio de Materiales (GEMA). Departamento de Física. Universidad
Nacional de Colombia. Bogotá-Colombia.
alexandrapuerto@gmail.com
woscydm@hotmail.com

RESUMEN

Se han realizado cálculos para determinar las propiedades estructurales y electrónicas del
Titanio. En el cálculo teórico se empleó el método de Ondas Planas Aumentadas
linealizadas dentro del formalismo de la Teoría del Funcional de la Densidad (DFT)
implementado en el código WIEN2k. La energía total del Ti se calculó como una función del
volumen y así, los datos encontrados se ajustaron a la ecuación de estado de Murnaghan,
obteniendo parámetros estructurales tan relevantes como: constantes de red (a=5,5042
bohr; c/a=1,6266), la energía de cohesión (Eo= -0,8628 Ry), y el módulo de volumen (B0= 438
GPa). Además, se realizó un estudio detallado de las propiedades electrónicas, por medio
del cálculo de la densidad de estados y la estructura de bandas de energía.

PALABRAS CLAVES: Titanio, estructura de bandas, DOS, DFT

1. INTRODUCCIÓN

El Titanio es un metal ligero de color gris plata, abundante en la naturaleza. Posee gran
firmeza y dureza, es de baja densidad, presenta alta temperatura de fusión y ductibilidad, y
muestra muy baja corrosión frente a químicos y al medio ambiente, es un buen conductor
del calor y de la electricidad. (Zhen. 2000)

73
Por esto, el interés en su estudio y utilización en el desarrollo de la tecnología aeroespacial,
donde el titanio es capaz de soportar las condiciones extremas de frío y calor que se dan en
el espacio al igual que en la industria química, medica y automotriz.

a) b)
Fig 1. a) Titanio en forma natural. b) Modelo de la estructura cristalina

Debido a la gran importancia que tiene este elemento en la actualidad por sus aplicaciones
tecnológicas, se pretende calcular algunas de sus propiedades estructurales y electrónicas.
Un sólido está formado por núcleos de átomos localizados y electrones libres dentro de una
red periódica. Para analizar las propiedades físicas del sólido es necesario resolver la
ecuación de Schrödinger. Esto se convierte en un problema común de muchos cuerpos.
La teoría del Funcional Densidad (DFT), es un formalismo para tratar el problema de
muchos cuerpos a través de aproximaciones. La metodología asociada a la DFT permite
introducir los efectos de intercambio y correlación electrónica. Las bases de esta teoría
fueron establecidas por Hohenberg-Kohn en 1964 (Hohenberg. 1964) y por Kohn-Sham en
1965 (Kohn .1965), en ellas se establece un sistema de ecuaciones de uni-partícula no
interactuante inmersa en un potencial efectivo para solucionar el problema de muchas
partículas interactuantes.
La estrategia de la DFT es escribir las propiedades de un sistema mediante funcionales de
la densidad. Para definirlo, aparecen propuestas iniciales como La Aproximación de la
Densidad Local (LDA) en donde la idea central para definir el funcional es la hipótesis de un
gas uniforme de electrones; y la Aproximación de Gradiente Generalizado (GGA), una
aproximación más sofisticada que incorpora el gradiente de esta densidad. Por otro lado, la
DFT es un método de potencial completo el cual usa como funciones solución ondas planas
aumentadas y linealizadas FP-LAPW y el método de orbitales locales.
Mediante DFT es posible calcular la energía total del sistema para luego ajustarla a una
ecuación de estado conocida como ecuación de estado de Murnaghan, que viene dada por
la expresión: æ BV ö é(
V V)
B '0
ù æ BV ö
0 0 0 0 0
E(V ) =+
E (V0 ) ç +
֐ +

-ç ÷
B
è ' 0 ø B
ê0 ' -
1 úB
è ' 0-1ø
ë û

74
Donde V es el volumen de la celda primitiva, V0 es el volumen en equilibrio, B0 es el módulo
de volumen y B0' es la derivada del módulo de volumen respecto a la presión calculada en V0.

2. DETALLES DEL CÁLCULO

El titanio presenta una estructura cristalina hexagonal del tipo P 6(3)/mmc, cuyas
posiciones atómicas se muestran en la tabla 1.
Tabla No. 1 Posiciones atómicas para el Titanio.

Átomo x y z
Ti 1/3 2/3 1/4

En el cálculo se implementó el programa Wien 2K (Blaha. 2001) utilizando la aproximación


de gradiente generalizado (GGA) con la parametrización Pedew-Burke-Ernzerhof (Perdew.
1996) para tratar los efectos de correlación e intercambio. Se tomo un valor de energía para
separar los estados del core y valencia de -6,0 Ry. Como criterio de convergencia para la
energía se uso un valor de 0,0001 Ry. Se utilizó un Gmax=12 Ry1/2, Gmin=8,42 Ry1/2 y Lmáx=10.
Se usaron 5000 vectores K en la primera zona de Brillouin. Los valores de energía se
ajustaron mediante la ecuación de estado de Murnaghan. Adicionalmente, se realizó un
cálculo de estructura de bandas de energía y la densidad de estados en el volumen de
equilibrio.

3. RESULTADOS Y DISCUSIÓN

El ajuste de la energía vs volumen, a partir de la ecuación de estado de Murnaghan, permitió


calcular los valores para los parámetros estructurales del Ti que se muestran en la tabla 2.

Tabla No. 2 Parámetros estructurales correspondientes al ajuste de la ecuación de estado


de Murnagahan para el Ti.

La Figura 2, muestra el ajuste a la ecuación de estado de Murnaghan, para la energía en


función del volumen.

75
-0,80

-0,81

.
-0,82
Energía (Ry)

-0,83

-0,84

-0,85

-0,86

-0,87
180 200 220 240 260 280 300 320
3
Volumen (a.u )

Fig. 2. Energía total en función del volumen de la celda para el Ti.

En la figura 2 se indica el valor para la energía de cohesión y el valor para el volumen que
minimiza esta energía. El valor de la energía mínima verifica la estabilidad de la estructura
del Ti y el valor del volumen indica el valor del volumen de la celda primitiva del cristal.

En lo referente a las características electrónicas, las bandas de energía y la densidad de


estados se muestran en la Figura. 3. Aquí, se observa la energía en función del vector de
onda k para algunas direcciones de alta simetría. La escala de energía cero corresponde a
la energía del nivel de Fermi que dio un valor de EF= 0,56738 Ry

Fig. 3. Estructura de bandas de energía y densidad de estados para el Ti.

76
En esta figura se pueden identificar dos regiones principales: de -9 eV a 0eV la región de
valencia y la región de la banda de conducción, ubicada sobre el nivel de Fermi.
De esta manera, se evidencia el carácter conductor del Ti debido a la concentración de un
gran número de estados alrededor del nivel de Fermi (no existe ningún gap de energía), las
cuales también pueden asociarse con la densidad de estados alrededor del mismo valor de
energía de Fermi.

CONCLUSIONES

A través de la DFT y el método FP-LAPW se calcularon las propiedades estructurales del Ti


en su fase P 6(3)/mmc, obteniéndose un parámetro de red óptimo con el cual se determinó
la densidad de estados y la estructura de bandas de energía. Estas permiten evidenciar el
carácter conductor de este elemento. También se demostró el carácter estable de esta
estructura, debido a que se obtuvo un valor negativo para la energía de cohesión E0=-0,86
Ry.

BIBLIOGRAFÍA

l [1]Luo Guo Zhen and Liu Run Ze. (2000): “Non-aerospace application of Ti materials with a great many social
and economic benefits in China”, Materials Science and Engineering Nº A280. P 25–29.
l [2]Hohenberg, P and Kohn, W.(1964): “Iinhomogeneous Electron Gas”, Physical Review. Vol 136. P B864-
B871.
l [3]Kohn, W and Sham, L. J. “Self-Consistent Equations Including Exchange and Correlation Effects”. Physical
Review. Vol 140. P A1133-A1138.
l [4]P. Blaha, K. Schwarz, G. K. H. Madsen, D. Kvasnicka and J. Luitz (2001): WIEN2k An Augmented Plane
Wave + Local Orbitals Program for Calculating Crystal Properties. Karlheinz Schwarz, Techn. Universitat Wien,
Austria) ISBN 3-9501031-1-2.
l [5]J. P. Perdew, K Burke, M. Ernzerhof. (1996) “Generalized Gradient Approximation Made Simple”. Physical
Review. Vol 77. P 3865-3868.

77
c
Titulo: De la serie “Rayando la Ruina”
Fotrográfia: Elkin Colmenares Dulcey
Colectivo: En la Ruina
Integrantes: Elkin Colmenares,
Manuel Barrera, Wilman Zabala.
2010
.
ESTUDIO A LAS IMAGENES RELIGIOSAS DE SANTA CLARA LA REAL:
SAN GABRIEL

ELKIN COLMENARES DULCEY

Grupo de investigación Creación y Pedagogía.


nares15@hotmail.com

RESUMEN

El presente trabajo es el resultado de un proceso de investigación que tuvo origen en una


clase de artes plásticas. Su fin tiene que ver con un ejercicio en el cual se abordaron temas
relacionados con la ciudad de Tunja, más específicamente con vinculo a la iglesia Santa
Clara la Real. El estudio se enfoco en una pintura del arcángel San Gabriel, dicho objeto fue
analizado desde dos visiones o conceptos: el tautológico y de creencia.

PALABRAS CLAVES: Santa Clara la Real, Creencia, Tautología, Imágenes, Parodia,


Mass Media, Reproductividad.

Para la religión católica los ángeles han sido de gran importancia. Desde una concepción
sagrada han sido considerados como aquellos seres más cercanos a Dios. Desde la edad
media dichos arcángeles han sido tema de representación, pues la religión busco la
manera de sembrar en los devotos a través de las imágenes mayor grado de credibilidad,
así la idolatría formo parte de dichos cambios, permitiendo que las imágenes entraran en el
campo de la fe e incursionaran en el mundo de la creencia de manera visual. Dichas
imágenes son la consecuencia de un pasado ideológico, iconográfico y religioso, que
encontró en su tiempo la mejor forma de alusión desde la pintura o la escultura. Entre
alguna de esas imágenes sagradas encontramos la del Arcángel San Gabriel, proveniente
del seno de una concepción dogmatica (religiosa) en la cual se le ha denominado arcángel
mensajero, este posee cualidades en sus representaciones que nos ayudan a su
reconocimiento1 e identificación desde un punto de vista iconográfico.
1
“Gabriel es el príncipe del fuego y el espíritu que predomina sobre los truenos y la maduración de la fruta. Es un
hábil políglota, que enseñó a José las 70 lenguas que llegaron a hablarse en Babel. En arte se le representa casi
siempre portando un lirio, la flor de María en la Anunciación, o la trompeta que sonará para anunciar la segunda
venida de Cristo”.

80
La pintura de san Gabriel encierra varias posibilidades de significancia que tienen que ver
con el contexto y que solo viven en la medida en que las recordemos. Sucede algo similar
con los mitos y las leyendas, ellos solo aparecen y desaparecen mediante su
pronunciación, ellos existirán hasta que el hombre deje de contarlos o deje de creer en
ellos, pero en este transcurso, su contenido será alterado por la misma reinterpretación que
se les dé “-dado que el destino mismo de las leyendas es ser declinadas en versiones que
las modifican-”2 (GEORGES DIDI-HUBERMAN. 2004).

Ahora bien, dicha pintura de San Gabriel, conforme pasa el tiempo, va perdiendo sus
cualidades de significado debido a su intermitencia, (intermitencia: por su poca
asequibilidad con el mundo; esto por la condición de Santa Clara la Real y de su relación
con el visitante, ya que dicha iglesia sólo abre al público sus puertas de dos maneras, como
museo, y como iglesia para eventos especiales, es decir no es de manera constante su
ingreso), pues la misma interpretación del mundo se va transformando, haciendo que la
imagen vaya quedando en el olvido (un olvido de significados) convirtiéndose en una
imagen sin pasado, es decir ella queda huérfana debido a su época ya extinta, viéndose
afectada por las corrientes del tiempo. Parafraseando a Walter Benjamín su origen es un
remolino en el rio del devenir de las interpretaciones que se hagan del objeto, un rio donde
todo puede ser posible, tal vez, la de la imagen y sus posibles significados, o solo sea la del
objeto que pierde su contenido por el desgaste que el tiempo le va brindando, reduciéndolo
únicamente a un objeto antiquísimo, dañado, sin pigmento, viejo y desgastado.

Así notamos que en nuestra actualidad, desde una perspectiva artística y de fe, la pintura
de San Gabriel ha variado con relación al tiempo del que data, pues hay una brecha que
divide a dos tipos de personas: las de creencia y las de tautología3, la primera, forma parte
de aquel imaginario colectivo, pertenece a la tradición arraigada en la fe y a ese gran cuerpo
político que era la iglesia. La tautológica por su parte se funda con el hoy, la iglesia
sufrió cambios con el mismo pasar del tiempo, las imágenes dejaron de significar y dejaron
de representar esa ficción (el declinar de la imagen religiosa se funda en el auge que devino
de la ciencia en el renacimiento), ficción de la que también se vale el arte en el museo. Así la

2
GEORGES DIDI-HUBERMAN. ( 2004) Lo que vemos lo que nos mira, Ediciones Manantial.
3

.- GEORGES DIDI-HUBERMAN, Lo que vemos lo que nos mira. pp.127 Creencia: como menciona Didi-
Huberman, consiste en querer sobrepasar la cuestión, querer trasladarse más allá de la escisión abierta por lo que
nos mira en lo que vemos. Consiste en querer superar –imaginariamente- tanto lo que vemos como lo que nos
mira. En cuanto al objeto este pierde su características materiales, y pasa a ser un modelo ficticio en el que el todo
puede subsistir en un gran sueño despierto. Tautología: en palabras de Huberman equivale a pretender atenerse a
lo que se ve, creer- que todo el resto no nos mirará más, significa ante un objeto no ir más allá del volumen como tal;
la pantalla de la tautología: una finta en la forma de mal truismo o perogrullada, una victoria maníaca y miserable
del lenguaje sobre la mirada, en la afirmación fijada, cerrada como una empalizada, de que no hay allí nada más
que un volumen, y que ese volumen no es otra cosa que él mismo; “lo que veo es lo que veo y con eso me basta”.

81
tautología forma parte de ese segundo grupo de personas que entiende que hay en frente
suyo: como la pintura de San Gabriel –una simple obra artística de siglo XVII que impacta
por su conservación, mas no por lo que dice o representa tradicionalmente; esto nos indica
cómo las personas que le rezan a dichas deidades son creyentes fervientes que fueron
arrastrados por el rio del tiempo, y que dejaron todo menos su pasado, aquel pasado que
aun tiene sus cimientos en la fe.
Es así como vemos la variedad de interpretaciones y reinterpretaciones que dan cuenta de
un san Gabriel distinto desde su apropiación, pero que puede ser igual en su significado; La
historia del arte nos muestra versiones de obras como: El Arcángel Gabriel de Masolino da
Panicalede 1420, la pintura Merode Altarpiece de Robert Campin de 1425, las escultura de
san Gabriel de Agostino di Duccio de1450. Esta variedad puede comprobarse en las dos
pinturas de la Anunciación, una pintada por Leonardo Da Vinci en 1475 (fig. a) y la otra por
Sandro Botticelli de 1489 (fig. b), si analizamos las pinturas, ambas difieren en cuanto a
sus poses y ambientes, su vínculo es solo dar cuenta de la anunciación de Gabriel a la
virgen María sobre el hijo que tendrá. Al observar el uno y el otro, tienen representaciones
diferentes, a manera de esbozo se puede decir que la pintura de Leonardo se sitúa afuera
de un templo, el arcángel esta arrodillado sobre un jardín frente a María, y en la mano
izquierda lleva un lirio, y con la otra indica, expresa o cuenta su encomienda, tiene un
paisaje de fondo con varios árboles, María está sentada y tiene una biblia sobre una mesa.
En cuanto al de Botticelli, el arcángel también esta arrodillado, en la mano izquierda lleva
una rama de lirio de tamaño mayor, en la otra mano, aunque indica también su
encomienda, ésta no es igual a la de Leonardo en cuanto a pose, también se puede ver un
paisaje de fondo pero sólo desde una puerta, ya que, tanto Gabriel como María permanecen
dentro de una habitación, donde ya no hay jardín, aquí María lo observa de pie junto a una
biblia, y no sentada como en el cuadro de Leonardo.

Fig. a) Leonardo Da Vinci de 1475

82
Fig. b) Sandro Botticelli, Anunciación de 1489

Ahora bien, si analizamos la pintura de San Gabriel


que se encuentra en Santa Clara la Real, al mirar
minuciosamente se puede ver que está sólo, él es el
único punto de referencia, aquí no es ni la anunciación
del nacimiento de Jesús o la de Juan el bautista, San
Gabriel es el tema principal. La descripción de la
pintura como imagen a manera tautológica: Mide
1.58 metros de largo por 1.11 metros de ancho, la
técnica empleada es oleo sobre tela y data del siglo
XVII. Es una pintura elaborada desde una perspectiva
clásica, los colores del fondo son de tonalidad pastel
(en una atmosfera de nubes que lo anteceden), por
otro lado su vestimenta es de tipo renacentista, los
colores de su atuendo varían según su prenda, su
capa es de color rojo y tiene flores bordadas y el largo
va hasta el suelo, su atuendo consta de una camisa
negra, en sus mangas tiene encajes, también esta
vestido con un chaleco largo de color ocre y dorado que llega hasta la mitad del muslo, este
lleva unos bordados a manera de puntos que crean detalles simétricos, también se puede
apreciar una falda de tono café que va hasta más abajo de la rodilla, de frente esta parece
tener tres puntas, la del medio se encuentra entre las dos piernas, y las otras dos terminan
rodeándole el resto de su cintura , en la parte inferior lleva unas botas a manera de
sandalia. Por otra parte su mano derecha esta levantada casi a la altura de su rostro,

83
pareciese que estuviera saludando, su otra mano esta hacia abajo en una posición no rígida
que va en dirección de su muslo derecho, y esta sostiene un lirio de color amarillo, su rostro
está inclinado, a manera de ademan, como si saludara, pero su mirada tiene una dirección
indeterminada que sobrepasa lo que muestra la pintura, y pareciese como si apuntara hacia
el altar.

Por consiguiente , con lo expuesto antes, y en relación a la imagen dogmatica y la imagen


presente acumulada de san Gabriel, encontramos que en nuestra época, provista de
contenidos legibles, indescifrables o simplemente contrapuestos, se requiere, o hay que
tomar consciencia de las parodias que usa el arte, y se entiende la parodia “como una
técnica auto reflexiva que llama la atención hacia el arte como arte, pero también hacia el
arte como fenómeno ineludiblemente ligado a su pasado estético e incluso social”4, esta
parodia lo que busca no es una amistad del pasado y el presente, “la ruptura de la tradición,
que para nosotros es un hecho consumado, abre una época en la que entre lo viejo y lo
nuevo ya no hay ningún vinculo posible mas que la acumulación de lo viejo en una especie
de archivo monstruoso”5, tampoco pretende dar una nueva creencia del mismo, solo
intenta mostrar la forma de representar que se tenía en el siglo XVII, fecha en la que fue
elaborada la pintura, el sentido artístico propio de ese tiempo que estaba ligado a la religión
y al apropiarnos de su contenido nos hace posicionar ese pasado en nuestro presente,
donde la imagen de San Gabriel funciona ahora diferente , ya no con un mayor
arraigamiento y relevancia de la imagen con relación a la fe, pues dichas imágenes eran la
manera de conectar o hacer un puente entre Dios y el hombre, las imágenes eran las
ventanas que conectaban al mundo espiritual con el terrenal, el creer dependía del ver y
esto terminaba fortaleciendo la fe, teniendo en cuenta que en ese tiempo las imágenes eran
escasas y la mayoría se encontraban en las iglesias y formaban parte de ese espacio y
ritual, dichas representaciones eran inherentes a aquella ilusión que la iglesia creaba a
través del arte, por lo tanto no existían de manera abominable como lo son los iconos que
presentan actualmente los medios de comunicación, la televisión, internet y cine, que en
cierta medida se convirtieron en nuestro nuevo creer, nuestro nuevo distractor, son la nueva
imagen que se nos ha impuesto y en la que debemos creer. Ya no la sagrada, sino la
cambiante, ya no la eterna y divina, sino la convincente, la reproductible. Según Walter
Benjamin, en la época de la reproductividad técnica, la obra de arte reproducida se
convierte, en medida siempre creciente, en reproducción de una obra artística dispuesta
para ser reproducida6. Cita a la cual Linda Hutcheon refutaría diciendo -no a ser

4
- LINDA HUTCHEON. La política de la parodia postmoderna. pp.8
5
-GEORGIO ABAMBEN. El hombre sin contenido. pp. 174
6
- WALTER BENJAMIN. “Discursos interrumpidos” en la obra de arte en la época de su reproductibilidad técnica.
Recuperado de internet en http://www.philosophia.cl/biblioteca/Benjamin/la%20obra%20de%20arte.pdf

84
reproducida, sino a ser parodiada- esta forma masiva de reproducción y parodia, impone y
altera lo cotidiano, haciendo que el arcángel san Gabriel sea objeto e imagen del pasado, él
estará a la espera en un claustro, apolillado, con el tiempo carcomiéndole su color, con los
años despigmentando su forma, mientras que las demás imágenes, pertenecientes a los
mass media rodaran y volaran en el amanecer de los días, diseminándose y fundiéndose
con otras, para ir renovándose, parodiando el pasado, tomando solo lo necesario.

Pretender ser lo que está en boga, es un ejemplo de nuestro mundo adepto a las masas,
esto trajo consigo la reevaluación de la fe, ya que a través de los nuevos ídolos a seguir,
ídolos que son de carne y hueso como artistas, deportistas, modelos etc, que son el
estereotipo actual al que se quiere ser o parecer, y en esta búsqueda y afán de ser el otro
olvidamos nuestra propia identidad, es decir nuestro valor propio, connatural y cultural.

BIBLIOGRAFÍA

1- Microsoft Encarta 2009. 1993-2008 Microsoft Corporation. Reservados todos los derechos
l

2- GEORGES DIDI-HUBERMAN. ( 2004) Lo que vemos lo que nos mira, Editorial Manantial.
l

l 3- HUTCHEON LINDA.(1993). La política de la parodia postmoderna. Criterios, La Habana, edición


especial de homenaje a Bajtín, pp. 187

4- ABAMBEN GEORGIO. ( 2005) El hombre sin contenido. Editorial Altera pp. 174
l

5- WALTER BENJAMIN. “Discursos interrumpidos” en la obra de arte en la época de su reproductibilidad


l

técnica. Recuperado de internet en http://www.philosophia.cl/biblioteca/Benjamin/la%20obra%20de%20arte.pdf

85
EL ESPACIO EXPOSITIVO, UNA VENTANA ABIERTA AL
CONOCIMIENTO

JOSÉ PÁEZ

Grupo De Investigación Creación Y Pedagogía


jpaez1948hotmail.com

RESUMEN

El presente texto narra una experiencia del semillero del proyecto Investigación VISIÓN
PROCESO, el cual en el año 2006 emprende una travesía que tenía como intención hacer
dinámico el conocimiento generado en la salas de exposición, acercar los objetos expuestos en un
salón de arte al público, formar en él un conciencia critica que le permitiera acercarse de una
manera propositiva y creativa a una muestra artística.

Palabras claves. Salón artístico, curaduría, formación de públicos, educación.

Para acercarnos a este tema antes que nada debemos aclarar que tanto los espacios museísticos
como los salones de arte están atravesando un importante proceso de transformación en donde
se está despertando un creciente interés por el publico, de las relaciones que éste sostiene con los
espacios expositivos, así como de la trascendencia que pueda representar una muestra dentro de
la comunidad a la cual va dirigida.

Con el pasar de los años se ha venido transformando cada vez más la posición que insiste que los
museos son lugares en donde se adquieren, almacenan, conservan y exhiben los vestigios del
patrimonio cultural, a una que subraya que este es un espacio educativo que dinamiza la cultura
dentro de la sociedad. Poco a poco nos estamos dando cuenta que si bien, es importante
conservar nuestro legado cultural, también es una prioridad que esta fuente de conocimiento
sea asequible a cualquier tipo de público, “seria en vano el trabajo de coleccionar, investigar,
conservar y exhibir los objetos originales si el ser humano no pudiera animar dichos objetos y
establecer con ellos un dialogo en el cual no solamente se respondan preguntas sino que
igualmente se planteen interrogantes sobre esos mismos objetos.”1

Los espacios expositivos, proponen más que un simple proceso de selección y montaje, estos,
más que una serie de objetos organizados en un espacio puesto al alcance de la personas, son

1
Varios autores, La educación en el museo memorias del coloquio nacional, Museo nacional de Colombia,
Bogotá 2001

86
territorios de información donde el conocimiento se construye de una manera conjunta, es una
cocina en donde los encargados de preparar el banquete son los artistas, los curadores y el
publico.

La materia prima de este banquete es la muestra, que como se había mencionado, es un


entramado de una serie de artefactos u objetos que se entrelazan entre si para producir un
discurso; de esto esta encargado el curador, su función es generar una narración y propender
para que este banquete lo puedan disfrutar diversos tipos de públicos, su función no se trata en
ningún sentido de masticar y digerir el conocimiento que ofrece la muestra, sino de encontrar
los utensilios de mesa apropiados para que las personas se integren, compartan y disfruten por
si mismos de la cena.

Las personas por su parte son un elemento fundamental dentro de este proceso, puesto que son
ellas, las que en últimas van a observar, oler, saborear y sobretodo juzgar este festín; sin un
público que contemple, disfrute y aprenda, un espacio expositivo no tendría sentido porque no
son los objetos, las obras de arte o las reliquias las que constituyen nuestra riqueza cultural, sino
el conocimiento que se pueda generar entorno a ellas.

Dada la importancia que tiene el espectador dentro de estos eventos, los esfuerzos deben estar
dirigidos a prestar herramientas que les permitan formar sus propios juicios de apreciación,
generar con ellos una conciencia crítica que les ofrezca la posibilidad de ver, reflexionar y crear
en torno al conocimiento propuesto en una exposición.

¿Pero cuales son las dinámicas o herramientas utilizadas para realizar estos objetivos y a partir
de cuando se implementan? Desde hace mucho tiempo se está tratando de investigar sobre las
relaciones publico-museo, así como de las funciones pedagógicas que este espacio debe prestar
2
dentro de la sociedad. Escribe José Luís Crespán en el libro “museos en el mundo” que los
primeros esfuerzos en convertir al museo en una institución al servicio de la sociedad se dan
hacia 1880 cuando el Louvre abre sus puertas al publico de una manera permanente, seguido
del victoria and Albert Museum de Londres que entre los años 1914 y 1918 realiza ejercicios en
donde un publico escolar construye piezas artesanales relacionadas a los objetos del museo, en
Estados Unidos dice él, se nota el máximo auge de la experiencia pedagógica a partir de 1920.
“En 1960, este país contaba con treinta y cinco museos dedicados estrictamente a los escolares,
mientras en el resto del mundo los existentes no superaban la docena,”3 a partir de este
momento se han incrementado notablemente las investigaciones en torno al estudio de publico
dentro del museo, llevando la creación de nuevas normas y nuevas estrategias que pretenden
hacer del museo un lugar mas didáctico y asequible para las personas que lo visitan.
2
Varios Autores, los museos en el mundo, ED salvad,1973
3
Ibíd.

87
En Colombia una de las pioneras en esta materia fue la maestra Beatriz Gonzáles con su
proyecto escuela de docentes y talleres infantiles, el cual pretendía capacitar a jóvenes para que
irradiaran el conocimiento generado desde el museo a la población escolar, para dicho fin
también diseño guías para maestros, juegos didácticos y su famoso museo en una caja con el
cual llevaba las muestras a las instituciones que por las distancias u otro tipo de inconvenientes
no podían acceder a estos espacios.

Actualmente dentro de las dinámicas mas utilizadas por las salas de exposición encontramos:

Textos acompañantes. Que son reseñas que los curadores escriben y ubican al comienzo de cada
muestra para ofrecer información al público en torno a los artistas, sus obras, así como de la
razón que impulsó el desarrollo de la exposición.
Las conferencias y charlas temáticas. Son eventos que se realizan paralelos al salón en los que se
invitan a especialistas para discutir los temas planteados por él mismo.
Las visitas guiadas. Una visita guiada es un proceso de comunicación, un recorrido en que una
persona experta conduce a los visitantes a lo largo de una exposición y le enseña parte por parte
los conceptos y elementos que la conforman. Es una especie de tamiz interpretativo que fomenta
la participación activa del espectador en todos los espacios de la muestra.
Las cajas y cartillas didácticas. Que son un proyecto adelantado por el museo de oro, con el que
leva a la población estudiantil que no puede desplazarse al museo parte de sus colecciones en un
maletín didáctico, que contiene además objetos como fragmentos de cerámica, orfebrería,
huesos, fichas técnicas para cada uno de los elementos, una cartilla y una hoja de evaluación,
con la que puede el profesor diseñar y mostrar a sus estudiantes un mini museo sin salir del salón
de clase.

EL VIAJE ARTÍSTICO (Una experiencia de guías dentro del proyecto visión proceso)

“Recorríamos las orillas del río, las gándaras, el bosque, y subíamos al monte Sinaí.
Cada viaje de esos era para mi como una ruta del descubrimiento”4.
Del cuento La Lengua De Las Mariposas
Manuel Rivas.

Uno de los problemas más notorios dentro de las estrategias utilizadas hasta ahora por la
mayoría de las salas de exposición, es la falta de elementos prácticos en el momento de acercarse
al público infantil, la organización de los objetos en el espacio, los textos, las conferencias y en
algunos casos las visitas guiadas no están diseñadas para este tipo de publico.
4
RIVAS Manuel, ?Que me quieres amor? ED suma de letras

88
Cuando un niño entra a una exposición se encuentra en principio con el celador y una alarma
que indican no tocar, textos para ellos incomprensibles, objetos ubicados en lugares donde no
pueden observar con facilidad, y por último un recorrido con un largo discurso de un guía que
en muchos de los casos termina por aburrir. Una visita para un niño debe ser como un viaje
donde se pueda observar, tocar, oler, saborear y sobre todo jugar.

La sala de exposición debe dejar de ser el lugar donde se mira y se compra arte, debe empezar a
ser vista como un espacio donde existe la posibilidad de participar, opinar, discutir y crear. Hay
que pensar en estrategias que además de mostrar los contenidos conceptúales y técnicos de
una exposición, ofrezcan a los infantes educación y diversión por medio de experiencias
5
perceptivas. “solo a través de los sentidos puede tener lugar el aprendizaje” escribe lowenfeld
planteando uno de los problemas más importantes dentro de nuestro sistema escolar en donde
definitivamente han pasado a un segundo plano las experiencias sensoriales, “el fútbol se mira,
no se juega la música es un jarabe calmante que se escucha en una tienda de comercio
6
cualquiera y no un medio de desarrollo en el cual se interviene o participa” .

Desde el momento de su formación una de las preocupaciones del proyecto de Investigación


Visión Proceso ha sido generar un vinculo fuerte entre salón de arte y la población estudiantil
Tunjana, para lo cual además de implementar las estrategias pedagógicas anteriormente
nombradas, ha creado otras como el viaje artístico que es una visita taller en donde el niño
puede realizar sus propias creaciones de la mano con los artistas que exponen dentro del salón,
su intención es estimular la naturaleza expresiva y sensible del niño por medio de la
experimentación con distintos materiales; con esta herramienta, guías, maestros y artistas
hacen del salón un verdadero viaje de diversión y conocimiento.

El viaje artístico pretende convertirse en una ruta de descubrimiento, aquella que describe
“Gorrión” en el cuento La Lengua de Las Mariposas, Un relato donde un niño que siente mucho
miedo de entrar a la escuela descubre que su maestro no pega, ni castiga, sino que por el
contrario hacía de todas sus clases una interesante expedición hacia mundos desconcertantes y
desconocidos. Don Gregorio les enseña sus conocimientos de la naturaleza creando historias
con los objetos, insectos y elementos que se encontraban en sus recurrentes salidas al campo,
donde por medio de los sentidos los niños iban descubriendo su mundo, “Porque todo lo que
tocaba era un cuento atrapante. El cuento podía comenzar con una hoja de papel, después de

5
LOWENFELD Víctor, desarrollo de la capacidad creadora, Buenos Aires, Kapeluz 1980
6
Ibíd.

89
pasar por el Amazonas y el sístole y diástole del corazón. Todo se enhebraba, todo tenía sentido.
La hierba, la oveja, la lana, mi frío.”7
Con la estrategia planteada anteriormente y a la luz de este ejemplo podemos encontrar que el
salón de arte puede convertirse en un instrumento muy importante para la educación artística,
ya que en éste, el niño tiene las obras de arte a la mano para observarlas y comprenderlas por
medio de las enseñanzas de sus mismos creadores, además con los talleres se pretende que el
niño experimente todo un mundo de experiencias como lo pueden ser recortar, dibujar,
componer, armar, pintar, ensamblar, etc. Así es que como en el cuento, con esta herramienta se
pretende hacer ver al niño que un espacio expositivo es un lugar donde todo está entrelazado,
donde todo tiene un sentido, y sobre todo que en una exposición el conocimiento no aburre.

BIBLIOGRAFÍA

Varios autores, la educación en el museo, memorias del coloquio nacional, Ministerio de


l
Cultura, museo nacional de Colombia 2001
Varios autores, Museos abiertos, Bogotá para los estudiantes, secretaria de educación,
l
Bogotá, 2000
l TREPEAT Joan, MASEGOSA Joseph, Como visitar un museo, ED Ceac, España 1991
l Varios autores, Los museos en el mundo, ED salvad 1973
l RIVAS Manuel, ¿Que me quieres amor?, ED suma de letras
l Varios autores, Memorias de los coloquios nacionales, la arqueología, la etnografía, la
historia y el arte en el museo, ministerio de cultura, museo nacional de Colombia

90
¿QUÉ HE APRENDIDO AL PERTENECER A UN SEMILLERO DE
INVESTIGACIÓN?

DÍAZ DIANA P.
Grupo de investigación: GEBIMOL semillero GIGA
Escuela de ciencias biológicas, Facultad de ciencias básicas
dipadita87@hortmail.com

Como estudiantes y futuros investigadores sentimos la necesidad de buscar oportunidades


que nos permitan verificar muchos de los conocimientos adquiridos en el aula, aprender
algo más y porque no, descubrir otros para establecer nuevas teorías e hipótesis. Un
ejemplo de ello es la participación y vinculación en los semilleros de investigación, que a
través de sus tutores y líneas investigativas, guían y ayudan al estudiante a afianzar,
reforzar y fortalecer sus conocimientos. La presencia de estos grupos en cada universidad
es de vital importancia porque nos involucran en el desarrollo y ejecución de los proyectos
de investigación, así como en las diferentes actividades propuestas por la institución.
Adicionalmente es posible participar como ponentes o desarrollando posters para dar a
conocer nuestros proyectos o a su vez asistiendo a los diferentes congresos, seminarios y
encuentros.

Siempre que surge un problema o idea de investigación hay que saberla plasmar, redactar e
interpretar para darla a conocer y así obtener una posible solución. Por ello es importante
que nosotros como estudiantes aprendamos a escribir, y saber a qué personas se quiere
dirigir el tema, teniendo en cuenta sus intereses. Cuando se asiste a un congreso o
seminario se absorbe un poco de la habilidad de expresión y nos enseña cómo es posible
dirigirse a varias personas logrando atraer su atención puesto que no basta con conocer del
tema sino saber expresarlo de tal manera que pueda mantener la atención de quienes
escuchan, durante toda la exposición. Estas experiencias sumadas al entrenamiento lector
(haciendo revisiones bibliográficas) nos permite adquirir fluidez para escribir un artículo, un
ensayo, una propuesta entre otros; la tarea de escribir no es del todo fácil y si se quiere
atrapar la atención del lector se tiene que hacer de manera sugestiva para que al leer la
primera línea o el titulo el lector se sienta cautivado y quiera continuar su lectura.

Para concluir, me permito invitar a mis compañeros estudiantes a ser participes de las
diferentes actividades de la institución vinculándose a los semilleros de investigación y
siendo parte activa de ellos, esta es una experiencia que nos abre campos y espacios en el
ámbito laboral e intelectual. A demás, es una gran oportunidad para dar a conocer nuestros
ideales y proyectos no solo a nivel institucional sino en todo el país y porque no
internacionalmente en la red haciendo aportes en pro de la ciencia, la tecnología y la
humanidad.

91

También podría gustarte