Indice
Español
• Ortografía general (incluye acentuación y homófonos)
• Puntuación
Gramática y vocabulario
• Concordancia y discordancia de las partes de la oración
• Autores y obras importantes de la literatura clásica
Ciencias naturales
• Física
Mecánica
Electromagnetismo
Acústica
Óptica
Termodinámica
• Química
Propiedades de la materia
Estequiometría
Química orgánica
Termodinámica
• Biología
Biología celular y molecular
Anatomía y fisiología
Genética
Bioquímica
Ciclos metabólicos
Salud y enfermedad
• Psicología
Ciencias sociales
• Historia universal y de México
Historial universal
México: historia
• Geografía universal y de México
Geografía física
Geografia Politica
Geografía humana
México: geografía
• Civismo
• Filosofía
• Economía
• Sociología
• Ética
Mundo contemporáneo
• Hitos o acontecimientos, políticos, económicos, sociales y culturales
• Siglas, acrónimos y funciones de organismos importantes
• Problemas y hechos significativos en el campo de la ecología, la salud y los deportes
Razonamiento verbal
• La comprensión de lectura.
• El establecimiento de relaciones entre palabras y frases sinónimas y antónimas
• El establecimiento de completamientos o interpretaciones de razonamientos lógicos y
analógicos
• La elaboración de inferencias lógicas y silogísticas
• El establecimiento de relaciones:
— causa-consecuencia
— oposición-semejanza
— general-particular
— ejemplificativas
— explicativas, comparativas
— analógicas
Razonamiento matemático
Matemática: Es el estudio de patrones en las estructuras de entes abstractos y en las relaciones
entre ellas. Algunos matemáticos se refieren a ella como la «Reina de las Ciencias».
Según los Sabios, se dice que la matemática abarca tres ámbitos:
• Aritmética.
• Ánálisis matemático, en el cual se hace uso de letras y símbolos, y que incluye el álgebra,
la geometría analítica y el cálculo.
Aritmética
Aritmética es la parte de las matemáticas que estudia los números y las operaciones hechas con
ellos.
Las cuatro operaciones básicas de la Aritmética son:
• Suma
• Resta
• Multiplicación
• División
• Operaciones básicas: suma, resta, multiplicación y división
Todas estas operaciones se verifican a través de su operación inversa: la suma con la resta, la
multiplicación con la division
Suma
Se utiliza para juntar, agregar, unir, etc, 2 o mas cantidades contables de la misma magnitud
(categoría)
La suma o adición es una operación aritmética definida sobre conjuntos de números (naturales,
enteros, racionales, reales y complejos) y también sobre estructuras asociadas a ellos, como
espacios vectoriales con vectores cuyas componentes sean estos números o funciones que tengan
su imagen en ellos.
En el álgebra moderna se utiliza el nombre suma y su símbolo "+" para representar la operación
formal de un anillo que dota al anillo de estructura de grupo abeliano, o la operación de un módulo
que dota al módulo de estructura de grupo abeliano. También se utiliza a veces en teoría de grupos
para representar la operación que dota a un conjunto de estructura de grupo. En estos casos se
trata de una denominación puramente simbólica, sin que necesariamente coincida esta operación
con la suma habitual en números, funciones, vectores...
Propiedades de la suma
• Elemento opuesto. Para cualquier número entero, racional, real o complejo a, existe un
número −a tal que a + (−a) = (−a) + a = 0. Este número −a se denomina elemento opuesto,
y es único para cada a. No existe en algunos conjuntos, como el de los números naturales.
Estas propiedades pueden no cumplirse en casos de sumas infinitas.
Notación
Si todos los términos se escriben individualmente, se utiliza el símbolo "+" (leído más). Con esto, la
suma de los números 1, 2 y 4 es 1 + 2 + 4 = 7.
También se puede emplear el símbolo "+" cuando, a pesar de no escribirse individualmente los
términos, se indican los números omitidos mediante puntos suspensivos y es sencillo reconocer los
números omitidos. Por ejemplo:
1 + 2 + 3 + ... + 98 + 99 + 100 es la suma de los cien primeros números naturales.
2 + 4 + 8 + ... + 512 + 1024 es la suma de las diez primeras potencias de 2.
En sumas largas e incluso sumas infinitas se emplea un nuevo símbolo, que se llama sumatorio y
se representa con la letra griega Sigma mayúscula (Σ). Por ejemplo:
Fracciones que tienen el mismo denominador; Fracciones que tienen el distinto denominador
Primer caso: la suma de dos ó más fracciones que tienen el mismo denominador es muy sencilla,
sólo hay que sumar los numeradores y se deja el denominador común.
Segundo caso: la suma de dos o más fracciones con distinto denominador es un poco menos
sencilla.
Pasos
1º. Se haya el mínimo común múltiplo de los dos denominadores
2º Se calcula el numerador con la fórmula: numerador antiguo x denominador común y dividido por
denominador antiguo
3º Se procede como en el primer caso (dado que las fracciones tienen el mimos denominador)
Resta
Se utiliza para restar, descontar, disminuir, etc., 2 o mas cantidades contables de la misma
magnitud (categoría)
La resta o substracción es una de las cuatro operaciones básicas de la aritmética, y se trata
básicamente de la operación inversa a la suma. Por ejemplo, si a+b=c, entonces c-b=a.
En la resta, el primer número se denomina minuendo y el segundo es el sustraendo. El resultado
de la resta se denomina diferencia.
En el conjunto de los números naturales, N, sólo se pueden restar dos números si el minuendo es
mayor que el sustraendo. De lo contrario, la diferencia sería un número negativo, que por definición
estaría excluido del conjunto. Esto es así para otros conjuntos con ciertas restricciones, como los
números reales positivos.
En matemáticas avanzadas no se habla de "restar" sino de "sumar el opuesto". En otras palabras,
no se tiene a - b sino a + (-b), donde -b es el elemento opuesto de b respecto de la suma
Resta de fracciones
Resta de fracciones que tienen el mismo denominador
Para restar dos ó más fracciones que tienen el mismo denominador, sólo hay que restar los
numeradores y se deja el denominador común. Ejemplo:
Numerador antiguo (1) x denominador común (4) y dividido por denominador antiguo (2)
( 1*4/2= 2 )
3. Se procede como en la resta de fracciones de igual denominador (dado que las fracciones tienen
el mismo denominador)
Multiplicación
Se utiliza para resolver problemas donde se suman “n” veces las mismas cantidades.
El producto o la multiplicación es una operación aritmética que se puede explicar como una manera
de sumar números idénticos.
El resultado de la multiplicación de números se llama producto. Los números que se multiplican se
llaman factores o coeficientes, e individualmente como multiplicando (número a sumar) y
multiplicador (veces que se suma el multiplicando).
La multiplicación se suele indicar con el aspa × o el punto centrado ·. En ausencia de estos
caracteres se suele emplear el asterisco *, sobre todo en computación
Definición
La multiplicación de dos números enteros n y m se define como:
Ésta no es más que una forma de simbolizar la expresión "sumar m a sí mismo n veces". Puede
facilitar la comprensión el expandir la expresión anterior:
m×n = m + m + m +...+ m
tal que hay n sumandos. Así que, por ejemplo:
5×2 = 5 + 5 = 10
2×5 = 2 + 2 + 2 + 2 + 2 = 10
4×3 = 4 + 4 + 4 = 12
m×6 = m + m + m + m + m + m
Utilizando esta definición, es fácil demostrar algunas propiedades interesantes de la multiplicación.
Como indican los dos primeros ejemplos, el orden en que se multiplican dos números es
irrelevante, lo que se conoce como propiedad conmutativa, y se cumple en general para dos
números cualesquiera x e y:
x·y = y·x
La multiplicación también cumple la propiedad asociativa, que consiste en que, para tres números
cualesquiera x, y y z, se cumple:
(x·y)z = x(y·z)
En la notación algebraica, los paréntesis indican que las operaciones dentro de los mismos deben
ser realizadas con preferencia a cualquier otra operación.
La multiplicación también tiene lo que se llama propiedad distributiva con la suma, porque:
x(y + z) = xy + xz
Asimismo:
(x + t)(y + z) = x(y + z) + t(y + z) = xy + xz + ty + tz
También es de interés que cualquier número multiplicado por 1 es igual a sí mismo:
1·x = x
es decir, la multiplicación tiene un elemento identidad que es el 1.
¿Qué ocurre con el cero? La definición inicial no ayuda mucho porque 1 es mayor que 0. De hecho,
es más fácil definir el producto por cero utilizando la segunda definición:
m·0 = m + m + m +...+ m
donde hay cero sumandos. La suma de cero veces m es cero, así que
m·0 = 0
sin importar lo que valga m, siempre que sea finito.
El producto de números negativos también requiere reflexionar un poco. Primero, considérese el
número -1. Para cualquier entero positivo m:
(-1)m = (-1) + (-1) +...+ (-1) = -m
Éste es un resultado interesante que muestra que cualquier número negativo no es más que un
número positivo multiplicado por -1. Así que la multiplicación de enteros cualesquiera se puede
representar por la multiplicación de enteros positivos y factores -1. Lo único que queda por definir
es el producto de (-1)(-1):
(-1)(-1) = -(-1) = 1
De esta forma, se define la multiplicación de dos enteros. Las definiciones pueden extenderse a
conjuntos cada vez mayores de números: primero el conjunto de las fracciones o números
racionales, después a todos los números reales y finalmente a los números complejos y otras
extensiones de los números reales.
el producto vacío, es decir, multiplicar cero factores, vale 1.
Una definición recursiva de la multiplicación puede darse según estas reglas:
x·0 = 0
x·y = x + x·(y-1)
donde x es una cantidad arbitraria e y es un número natural. Una vez el producto está definido para
los números naturales, se puede extender a conjuntos más grandes, como ya se ha indicado
anteriormente.
Division
Se utiliza para determinar “n” partes iguales de una cantidad determinada, dividir una magnitud en
partes iguales.
En matemáticas, especificamente en aritmética elemental, la división es una operación aritmética
que es la inversa de la multiplicación y a veces puede interpretarse como una resta repetida.
En otras palabras, consiste en averiguar cuántas veces un número (el divisor) está contenido en
otro número (el dividendo). En la división de números enteros además del dividendo y el divisor
intervienen otros números. Así al resultado entero de la división se le denomina cociente y si la
división no es exacta, es decir, el divisor no está contenido un número exacto de veces en el
dividendo, la operación tendrá un resto, donde:
resto = dividendo - cociente × divisor
Orden de Operaciones
Reglas Importantes para Resolver Operaciones Aritméticas:
1. Primero resolver todo lo que esté dentro de simbolos de agrupación.
2. Evaluar las expresiones exponenciales.
3. Hacer todas las multiplicaciones y divisiones en orden de izquierda a derecha.
4. Hacer todas las sumas y restas en orden de izquierda a derecha.
Ejemplo:
Propiedades de los Números Reales:
• Conmutativa de adición:
Por ejemplo:
4+2=2+4
• Conmutativa de multiplicación:
Por ejemplo:
4.2=2.4
• Asociativa de adición:
Por ejemplo:
(4 + 2) + 9 = 4 + (2 + 9)
• Asociativa de multiplicación:
Por ejemplo:
4 . (2 . 9) = (4 . 2) . 9
• Distributiva de multiplicación sobre adición:
Por ejemplo:
4 . (2 + 9) = 4 . 2 + 4 . 9
Ejemplo:
5 - 8 = -3
5 - (-8) = 13
3. En multiplicación y división de números con signos iguales el resultado es positivo. Si los
números son signos opuestos, el resultado es negativo.
Ejemplo:
5 x 8 = 40
5 x -8 = -40
• Cálculo de porcentajes, regla de tres, potencias y raíces
Porcentaje
Un porcentaje es una forma de expresar una proporción o fracción como una fracción de
denominador 100, es decir, como una cantidad de centésimas. Es decir, una expresión como "45%"
("45 por ciento") es lo mismo que la fracción 45/100.
"El 45% de la población humana..." es equivalente a: "45 de cada 100 personas..."
Un porcentaje puede ser un número mayor que 100. Por ejemplo, el 200% de un número es el
doble de dicho número, o un incremento del 100%. Un incremento del 200% daría como resultado
el triple de la cantidad inicial. De esta forma, se puede apreciar la relación que existe entre el
aumento porcentual y el producto.
Confusión en el uso de los porcentajes
Surgen muchas confusiones en el uso de los porcentajes debido a un uso inconsistente o a un mal
entendimiento de la aritmética elemental.
Cambios
Debido a un uso inconsistente, no siempre está claro por el contexto con qué se compara un
porcentaje. Cuando se habla de una subida o caída del 10% de una cantidad, la interpretación
usual es que este cambio es relativo al valor inicial de la cantidad: por ejemplo, una subida del 10%
sobre un producto que cuesta 100$ es una subida de 10$, con lo que el nuevo precio pasa a ser
110$. Para muchos, cualquier otra interpretación es incorrecta.
En el caso de los tipos de interés, sin embargo, es práctica común utilizar los porcentajes de otra
manera: supongamos que el tipo de interés inicial es del 10%, y que en un momento dado sube al
20%. Esto se puede expresar como una subida del 100% si se calcula el aumento con respecto del
valor inicial del tipo de interés. Sin embargo, mucha gente dice en la práctica que "los tipos de
interés han subido un 10%", refiriéndose a que ha subido en un 10% sobre el 100% adicional al
10% inicial (20% en total), aunque en la expresión usual de los porcentajes debería querer decir
una subida del 10% sobre el 10% inicial (es decir, un total del 11%).
Para evitar esta confusión, se suele emplear la expresión "punto porcentual". Así, en el ejemplo
anterior, "los tipos de interés han subido en 10 puntos porcentuales" no daría lugar a confusión,
sino que todos entenderían que los tipos están actualmente en el 20%. También se emplea la
expresión "punto base", que significa la centésima parte de un punto porcentual (es decir, una parte
entre diez mil). Así, los tipos de interés han subido en 1000 puntos base.
Cancelaciones
Un error común en el uso de porcentajes es imaginar que una subida de un determinado
porcentaje se cancela con una caída del mismo porcentaje. Una subida del 50% sobre 100 es 100
+ 50, o 150, pero una reducción del 50% sobre 150 es 150 - 75, o 75. En general, el efecto final de
un aumento seguido de una reducción proporcionalmente igual es:
(1 + x)(1 - x) = 1 - x²
es decir, una reducción proporcional al cuadrado del cambio porcentual.
Los que tenían acciones punto como en el momento de la crisis acabaron comprendiendo que,
aunque una acción haya caído un 99%, puede volver a caer otro 99%. Además, si sube por un
porcentaje muy grande, seguirá perdiéndolo todo si un día la acción reduce su valor en un 100%,
porque entonces no valdrá nada.
Regla de tres
La regla de tres es una relación que se establece entre tres (o más) valores conocidos y una
incógnita. Normalmente se usa cuando se puede establecer una relación de linealidad
(proporcionalidad) entre todos los valores involucrados (análogo para proporcionalidad inversa).
Normalmente se representa de la siguiente forma:
A-B
X-C
Siendo A, B y C valores conocidos y X la incógnita cuyo valor queremos averiguar. Esto se lee de
la siguiente manera: A es a B como X es a C. La posición de la incógnita puede variar, por
supuesto.
Así por ejemplo para pasar 60 grados a radianes podríamos establecer la siguiente regla de tres:
360º - 2 × π
60º - X
potencia y raiz
Notación Exponencial
La notación exponencial se usa para repetir multiplicaciones de un mismo número. Es la
elevación a la enésima potencia (n) de una base (X).
Ejemplos:
Raíz cuadrada
En matemáticas, la raíz cuadrada de un número real no negativo x es el número real no negativo
que, multiplicado con sí mismo, da x. La raíz cuadrada de x se denota por √x. Por ejemplo, √16 = 4,
ya que 4 × 4 = 16, y √2 = 1,41421... . Las raíces cuadradas son importantes en la resolución de
ecuaciones cuadráticas.
La generalización de la función raíz cuadrada a los números negativos da lugar a los números
imaginarios y al campo de los números complejos.
El símbolo de la raíz cuadrada se empleó por primera vez en el siglo XVI. Se ha especulado con
que tuvo su origen en una forma alterada de la letra r minúscula, que representaría la palabra latina
"radix", que significa "raíz".
Propiedades
Las siguientes propiedades de la raíz cuadrada son válidas para todos los números positivos x, y:
• Números naturales . conjunto de numeros que utilizamos para contar cantidades enteras
positivas
o Tiene como primer elemento el cero
o Cualquier numero puede ser escrito con los numero del sistema decimal
o Es un conjunto infinito
o Todos los numeros tienen su siguente
o No existen numeros intermedios entre un numero y sus siguiente
o Todos los numeros naturales cumplen con las relaciones de orden y comparación.
• Número primo
• Números compuestos
• Números perfectos
• Números enteros
• Números pares
• Números impares
• Números racionales
• Números reales
• Números irracionales
• Números algebraicos
• Números trascendentes
• Números complejos
• Cuaterniones
• Números infinitos
• Números transfinitos
• Números fundamentales: π y e
El estudio de ciertas propiedades que cumplen los números ha producido una enorme cantidad de
tipos de números, la mayoría sin un interés matemático específico. A continuación se indican
algunos:
Narcisista: Número de n dígitos que resulta ser igual a la suma de las potencias de orden n de sus
dígitos. Ejemplo: 153 = 1³ + 5³ + 3³.
Omirp: Número primo que al invertir sus dígitos da otro número primo. Ejemplo : 1597 y 7951 son
primos.
Vampiro: Número que se obtiene a partir del producto de dos números obtenidos a partir de sus
dígitos. Ejemplo: 2187 = 27 x 81.
Una vez entendido el problema de la naturaleza y la clasificación de los números, surge otro, más
práctico, pero que condiciona todo lo que se va a hacer con ellos: la manera de escribirlos. El
sistema que se ha impuesto universalmente es la numeración de posición gracias al invento del
cero, con una base constante.
Álgebra
El Álgebra es la rama de las matemáticas que tiene por objeto de estudio la generalización del
cálculo aritmético mediante expresiones compuestas de constantes (números) y variables (letras).
Etimológicamente, proviene del árabe (también nombrado por los árabes Amucabala)( جبرyebr) (al-
dejaber), con el significado de reducción, operación de cirugía por la cual se reducen los huesos
luxados o fraccionados (algebrista era el médico reparador de huesos).
El álgebra lineal tiene sus orígenes en el estudio de los vectores en el plano y en el espacio
tridimensional cartesiano. Aquí, un vector es un segmento, caracterizado por su longitud (o
magnitud) y dirección. Los vectores pueden entonces utilizarse para representar ciertas
magnitudes físicas, como las fuerzas, pueden sumarse y ser multiplicados por escalares, formando
entonces el primer ejemplo de espacio vectorial real.
Hoy día, el álgebra lineal se ha extendido para considerar espacios de dimensión arbitraria o
incluso de dimensión infinita. Un espacio vectorial de dimensión n se dice que es n-dimensional. La
mayoría de los resultados encontrados en 2 y 3 dimensiones pueden extenderse al caso n-
dimensional. A mucha gente le resulta imposible la visualización mental de los vectores de más de
tres dimensiones (o incluso los tridimensionales). Pero los vectores de un espacio n-dimensional
pueden ser útiles para representar información: considerados como n-tuplas, es decir, listas
ordenadas de n componentes, pueden utilizarse para resumir y manipular información
eficientemente. Por ejemplo, en economía, se pueden crear y usar vectores octo-dimensionales u
8-tuplas para representar el Producto Interno Bruto de 8 países diferentes. Se puede simplemente
mostrar el PIB en un año en particular, en donde se especifica el orden que se desea, por ejemplo,
(Estados Unidos, Reino Unido, Francia, Alemania, España, India, Japón, Australia), utilizando un
vector (v1, v2, v3, v4, v5, v6, v7, v8) en donde el PIB de cada país está en su respectiva posición.
Un espacio vectorial (o espacio lineal), como concepto puramente abstracto en el que podemos
probar teoremas, es parte del álgebra abstracta, y está bien integrado en ella. Por ejemplo, con la
operación de composición, el conjunto de aplicaciones lineales de un espacio vectorial en sí mismo
(endomorfismos) tiene estructura de anillo, y el subconjunto de las aplicaciones lineales que son
invertibles (los automorfismos) tiene estructura de grupo. El Álgebra Lineal también tiene un papel
importante en el cálculo, sobre todo en la descripción de derivadas de orden superior en el análisis
vectorial y en el estudio del producto tensorial (en física, buscar momentos de torsión) y de las
aplicaciones antisimétricas.
Un espacio vectorial se define sobre un cuerpo, tal como el de los números reales o en el de los
números complejos. Una aplicación (u operador) lineal hace corresponder los vectores de un
espacio vectorial con los de otro (o de él mismo), de forma compatible con la suma o adición y la
multiplicación por un escalar definidos en ellos. Elegida una base de un espacio vectorial, cada
aplicación lineal puede ser representada por una tabla de números llamada matriz. El estudio
detallado de las propiedades de las matrices y los algoritmos aplicados a las mismas, incluyendo
los determinantes y autovectores, se consideran parte del álgebra lineal.
En matemáticas los problemas lineales, aquellos que exhiben linealidad en su comportamiento, por
lo general pueden resolverse. Por ejemplo, en el cálculo diferencial se trabaja con una
aproximación lineal a funciones. La distinción entre problemas lineales y no lineales es muy
importante en la práctica.
Algunos Teoremas Útiles
Todo espacio lineal tiene una base (Esta afirmación es lógicamente equivalente al Axioma de
elección)
Una matriz A no nula con n filas y n columnas es no singular (inversible) si existe una matriz B que
satisface AB = BA = I donde I es la matriz identidad.
Una matriz es inversible si y solo si su determinante es distinto de cero.
Una matriz es inversible si y solo si la transformación lineal representada por la matriz es un
isomorfismo (vea también matriz inversible para otras afirmaciones equivalentes)
Una matriz es positiva semidefinida si y solo si cada uno de sus eigenvalores son mayores o
iguales a cero
Una matriz es positiva definida si y solo si cada uno de sus eigenvalores son mayores a cero.
• Literales y exponentes
Una literal es una representación general de una cierta magnitud.
Por ejempo: el area de un rectangualo es igual a : A= bh donde A, b y H son literales.
Expresiones Algebraicas
Las expresiones algebraicas se clasifican según su número de términos.
Por ejemplo:
Por ejemplo:
Por ejemplo:
Ejemplo:
• Para multiplicar factores que tienen base diferente y exponentes iguales, el exponente se queda
igual.
Ejemplo:
• En división, si tienen la misma base y los exponentes son enteros positivos diferentes, se restan los
exponentes. Las variables m y n son enteros positivos , m > n.
Ejemplo:
• En suma y resta, solo se procede si son términos similares, en otras palabras lo que difiere es su
coeficiente numérico.
Cubo de un binomio
El cubo de la suma de dos cantidades es igual al cubo de la primera cantidad mas el triple del
cuadrado de la primera por la segunda mas el triple del cuadrado de la segunda por la primera mas
el segundo al cubo.
El cubo de la diferencia de dos cantidades es igual al cubo de la primera cantidad menos el triple
del cuadrado de la primera por la segunda mas el triple del cuadrado de la segunda por la primera
menos el segundo al cubo.
Cocientes Notables
Cociente de la diferencia de los cuadrados de dos cantidades entre la suma o la diferencia de las
cantidades
La diferencia de los cuadrados de dos cantidades divididas entre la suma de las cantidades es
igual a la diferencia de las cantidades.
La diferencia de los cuadrados de dos cantidades entre la diferencia de las cantidades es igual a la
suma de las cantidades.
Factorización de Polinomios
Factorizar un polinomio es el primer método para obtener las raíces o ceros de la expresión. Para
factorizar se comienza con una regla que te permite desarrollar la destreza, para aplicarla a
ejercicios de mayor dificultad. Se buscan dos factores o números cuyo producto sea el último
término y a la vez sumados o restados den como resultado el coeficiente del término del medio.
Esta regla aplica solo a ecuaciones cuadráticas cuyo coeficiente de la variable elevado al cuadrado
es 1. Si el coeficiente de la variable elevada al cuadrado no fuese 1, la manera de factorizar sería
tanteando hasta poder lograr la factorización. Muchas veces la factorización es simplemente
reconocer factores comunes.
Se puede utilizar también la inversa de las fórmulas de productos especiales. O sea, expresamos
el polinomio como una multiplicación o un producto, usando las fórmulas a la inversa.
Completando el Cuadrado
Completando el cuadrado es el segundo método para obtener las raíces o ceros de un polinomio.
El proceso es el siguiente:
Casos de factorización
Caso 1 - Factor común
Cuando se tiene una expresión de dos o más términos algebraicos y si se presenta algún término
común, entonces se puede sacar este término como factor común.
En una expresión de dos, cuatro, seis o un número par de términos es posible asociar por medio
de paréntesis de dos en dos o de tres en tres o de cuatro en cuatro de acuerdo al número de
términos de la expresión original. Se debe dar que cada uno de estos paréntesis que contiene dos,
o tres o mas términos se le pueda sacar un factor común y se debe dar que lo que queda en los
paréntesis sea lo mismo para todos los paréntesis o el factor común de todos los paréntesis sea el
mismo y este será el factor común.
Una expresión se denomina trinomio cuadrado perfecto cuando consta de tres términos donde el
primero y tercer términos son cuadrados perfectos (tienen raíz cuadrada exacta) y positivos, y el
segundo término es el doble producto de sus raíces cuadradas.
Se extrae la raíz cuadrada del primer y tercer término y se separan estas raíces por el signo del
segundo término. El binomio así formado se eleva al cuadrado.
Dos cuadrados que se están restando es una diferencia de cuadrados. Para factorizar esta
expresión se extrae la raíz cuadrada de los dos términos y se multiplica la resta de los dos términos
por la suma de los dos.
Caso especial: Se puede presentar que uno o los dos términos de la diferencia contenga mas de
un término.
Caso especial: Se puede dar una expresión de cuatro términos donde tres de ellos formen un
trinomio cuadrado perfecto que al ser factorizado y combinado con el cuarto término se convierta
en una diferencia de cuadrados, o pueden ser seis términos que formen dos trinomios cuadrados
perfectos y al ser factorizados formen una diferencia de cuadrados.
Algunos trinomios no cumplen las condiciones para ser trinomios cuadrados perfectos, el primer y
tercer término tienen raíz cuadrada perfecta pero el término de la mitad no es el doble producto de
las dos raíces. Se debe saber cuanto debe ser el doble producto y la cantidad que falte para
cuadrar el término de la mitad, esta cantidad se le suma y se le resta al mismo tiempo, de tal forma
se armara un trinomio cuadrado y factorizado unido con el último término tendremos una diferencia
de cuadrados.
Caso especial: factorar una suma de cuadrados, se suma el término que hace falta para formar un
trinomio cuadrado perfecto y al mismo tiempo se resta esta misma cantidad, así tendremos un
trinomio cuadrado perfecto enseguida una diferencia de cuadrados.
x2+bx+c
Esta clase de trinomio se caracteriza por lo siguiente:
El segundo término tiene coeficiente entero de cualquier valor y signo y la misma variable.
Para factorar este trinomio se deben abrir dos factores que sean binomios, y donde el primer
término de cada binomio es la variable y el segundo término en cada uno de los factores
(paréntesis), son dos números , uno en cada paréntesis de tal forma que la suma de los dos del
coeficiente del segundo término del trinomio y la multiplicación de los dos del tercer término del
trinomio, el signo del segundo término de cada factor depende de lo siguiente:
• ° Si el signo del tercer término es negativo, entonces uno será positivo y el otro negativo, el
mayor de los dos números llevara el signo del segundo término del trinomio y el otro
número llevara el signo contrario.
° Si el signo del tercer término es positivo, entonces los dos signos serán iguales (positivos
o negativos), serán el signo del segundo término del trinomio.
Este trinomio se diferencia del trinomio cuadrado perfecto en que el primer término puede tener
coeficiente diferente de 1.
Se multiplica todo el trinomio por el coeficiente del primer término, de esta forma se convierte en un
trinomio de la forma:
y se divide por el mismo coeficiente. Se factoriza el trinomio en la parte superior del fraccionario y
se simplifica con el número que esta como denominador.
Podemos asegurar que una expresión algebraica es un cubo perfecto si cumple las siguientes
condiciones:
° El primer y cuarto término son cubos perfectos (tienen raíces cúbicas exactas).
° El segundo termino sea el triple del cuadrado de la raíz cúbica del primer término multiplicado
por la raíz cúbica del último término.
° El tercer termino sea el triple del cuadrado de la raíz cúbica del último término -multiplicado
por la raíz cúbica del primer término.
° Los signos son todos mas o también podría ser positivo el primero y el tercero y negativo el
segundo y el cuarto.
Para factorizar un cubo perfecto se forma un binomio y se eleva al cubo, el primer término del
binomio es la raíz cúbica del primer término y el segundo término es la raíz cúbica del último
término. El signo del segundo término es mas si todos los signos del cubo son mas y es menos si
los signos del segundo y cuarto término del cubo son menos.
Su nombre lo indica, se reconoce por ser la suma o la resta de dos cubos. Su solución será dos
factores, el primero de ellos es un binomio formado por las dos raíces cúbicas de los términos
dados, el segundo factor esta formado por tres términos así: la priemra raíz al cuadrado, la primera
raíz por la segunda y la segunda raíz al cuadrado. Los signos pueden ser de dos formas acuerdo a
lo siguiente:
Por ejemplo: 3x - 2y = x2 + 1
Son ecuaciones con una incógnita cuando aparece una sóla letra (incógnita, normalmente la x).
Por ejemplo: x2 + 1 = x + 4
Se dice que son de primer grado cuando dicha letra no está elevada a ninguna potencia (por tanto
a 1).
Ejemplos :
3x + 1 = x - 2
1 - 3x = 2x - 9.
x - 3 = 2 + x.
x/2 = 1 - x + 3x/2
La ecuación solo tiene una incógnita, y ésta se encuentra elevada a la 1 y al cuadrado, además
hay términos independientes (números). Las ecuaciones de segundo grado tienen dos soluciones o
ninguna. Este es un ejemplo de una ecuación cuadrática completa, ya que posee coeficientes
distintos de cero en los términos cuadráticos (x^2), lineales (x^1) e independientes (x^0).
Esta ecuación es muy fácil de resolver, ya que no se encuentra presente el término lineal:
Pero las ecuaciones cuadráticas tienen siempre dos soluciones, o bien ninguna, así que en este
caso una raíz cuadrada genera dos soluciones, una con signo positivo y otra negativo:
Y esto es cierto ya que tanto 2 como -2 elevados al cuadrado dan 4, así que siempre que
calculemos la solución de una raíz cuadrada se debe tener en cuenta que ésta genera dos signos.
Esto suele expresarse de la siguiente manera:
Esto es un poco confuso pero en realidad nos dice que hay dos soluciones, vemos que ambas
soluciones verifican la ecuación inicial. Veamos ahora otro caso, si la ecuación tiene términos
cuadráticos y lineales, pero no tiene términos independientes:
En este caso sacamos factor común X y razonamos de la siguiente forma:
Para que el primer miembro se haga 0 solo hay 2 alternativas: x es igual a 0 o (x+4) es igual a 0.
De aquí se obtienen las dos soluciones (que llamamos X1 y X2):
Vemos que las soluciones verifican. Finalmente vamos al caso más complejo que es el que
teníamos inicialmente:
Es muy difícil despejar x de esta ecuación (pero no imposible como veremos más adelante). Para
resolverla se utiliza una fórmula muy famosa, la fórmula de las soluciones de la ecuación de
segundo grado, la cual es atribuída a un indú de apellido Baskara, en primer lugar hay que pasar
todos los términos a un lado de la expresión de manera que quede igualada a cero. En segundo
lugar se identifican tres coeficientes llamados a, b y c (a=coeficiente cuadrático, b=coeficiente
linearl, c=término independiente).
Por lo tanto operamos con la ecuación hasta llevarla a este formato (a, b y c son números en
definitiva).
Fórmula de Baskara
Puede darse el caso que la ecuación no tenga solución (cuando queda una raíz negativa).
El tema es: de dónde sacó Baskara esta fórmula?, bueno, en realidad es sencillo, él encontró la
forma de construir un trinomio cuadrado perfecto (tercer caso de factoreo), aplicando algunos
"truquillos".
Ahora viene la parte divertida, la demostración. En primer lugar hay que llevar la ecuación a la
forma:
Ahora observemos los primeros 3 términos, se trata de un trinomio cuadrado perfecto, así que
factoreando se obtiene:
Pero como vimos antes una raíz arroja 2 resultados, uno positivo y uno negativo así que queda:
Ley de la tricotomía:
"Para cada par de números reales a y b, es verdadera una, y solamente una, de las proposiciones:
Ejemplo ilustrativo:
Teorema2-Suma:
Ejemplo ilustrativo:
Ejemplo ilustrativo:
Teorema4:
Ejemplo ilustrativo:
Los Teoremas 1 a 4 también son válidos si se cambia ">" por "<"
Teorema5:
Teorema6:
Teorema8:
Teorema9:
Teorema10:
Teorema11:
Geometría
La geometría es la matemática que estudia idealizaciones del espacio: los puntos, las rectas, los
planos y otros elementos conceptos derivados de ellos, como polígonos o poliedros.
Origen y desarrollo de la geometría:
Todo comenzó en Egipto
El ser humano necesitó contar, y creó los números; quiso hacer cálculos, y definió las operaciones;
hizo relaciones, y determinó las propiedades numéricas.
Por medio de lo anterior, más el uso de la lógica, obtuvo los instrumentos adecuados para resolver
las situaciones problemáticas surgidas a diario.
Además de esos requerimientos prácticos, el hombre precisó admirar la belleza de la creación para
satisfacer su espíritu. Con ese fin, observó la naturaleza y todo lo que le rodeaba. Así fue ideando
conceptos de formas, figuras, cuerpos, líneas, los que dieron origen a la parte de la matemática
que designamos con el nombre de geometría.
El río Nilo
La palabra geometría está formada por las raíces griegas: "geo", tierra, y "metrón", medida, por lo
tanto, su significado es "medida de la tierra".
Según lo registra la historia, los conceptos geométricos que el hombre ideó para explicarse la
naturaleza nacieron -en forma práctica- a orillas del río Nilo, en el antiguo Egipto.
Las principales causas fueron tener que remarcar los límites de los terrenos ribereños y construir
diques paralelos para encauzar sus aguas. Esto, debido a los desbordes que causaban las
inundaciones periódicas.
El aporte griego
Quienes dieron carácter científico a la geometría fueron los griegos, al incorporar demostraciones
en base a razonamientos.
Tales de Mileto (600 a.d.C.) inició esta tendencia, al concebir la posibilidad de explicar diferentes
principios geométricos a partir de verdades simples y evidentes.
Euclides (200 a.d.C.) le dio su máximo esplendor a esta corriente científica. Recogió los
fundamentos de la geometría y de la matemática griega en su tratado Elementos.
Representemos los conceptos
Hay conceptos geométricos que no pueden definirse. Son ideas formadas en nuestra mente a
través de la observación del entorno y solamente podemos hacer representaciones concretas de
ellas.
Las llamaremos términos primitivos o conceptos primarios y son: espacio, punto, recta y plano.
Espacio
Es el conjunto universo de la geometría. En él se encuentran todos los demás elementos. Dentro
de él determinamos cuerpos geométricos como cajas, planetas, esferas, etcétera.
Su símbolo es: E
Punto
El punto tiene posición en el espacio. Su representación más cercana es el orificio que deja un
alfiler en una hoja de papel o en un granito de arena, pero debemos tener en cuenta que no tiene
grosor.
En el espacio hay infinitos puntos. Los identificaremos con una letra mayúscula y para reconocerlos
usaremos o x.
Por ejemplo:
A se lee punto A, x M se lee punto M.
Si unimos diferentes puntos, obtendremos líneas que pueden ser curvas, rectas, mixtas o
poligonales. Son curvas si, al unirse los puntos, siguen distintas direcciones; rectas, si llevan la
misma dirección; mixtas, si mezclan ambas; y poligonales, si están formadas solamente por trozos
de rectas.
Plano y Recta:Infinitos puntos
La unión de infinitos puntos da origen a los otros dos principios básicos de la geometría: plano y
recta.
La representación más cercana de la recta es un hilo tenso o la marca que deja un lápiz en un
papel. Es infinita, porque sus extremos son ilimitados y en ella hay infinitos puntos.
La identificaremos con el dibujo
Una recta puede tener dirección:
Horizontal: como la línea del horizonte.
Las rectas se nombran con dos letras mayúsculas y sobre ellas se anota su símbolo. Por ejemplo:
AB, se lee recta AB.
También se usa una L ó una R, especialmente en los casos en que deban distinguirse varias
rectas.
Veamos:
DE es una recta oblicua.
Plano
Lo más parecido a este elemento del espacio es una hoja de papel, pero lo diferencia con ésta, el
hecho que es ilimitado y no tiene grosor.
El plano es una superficie infinita, formada por infinitos puntos que siguen una misma dirección, es
decir, hay rectas que quedan totalmente incluidas en ella.
El símbolo de plano es P y para nombrarlo debe estar acompañado de, por lo menos, tres puntos.
Las paredes de nuestra casa, el pavimento de las calles, la superficie de una laguna, son
representaciones de planos.
Es importante saber que en un plano podemos encontrar puntos y rectas, y obtener figuras
geométricas.
Hay planos horizontales, verticales y oblicuos.
Cuando en una superficie no quedan rectas totalmente incluidas en ella, decimos que es curva.
Una representación de esto sería una bandera flameando
• Cálculo de perímetros, áreas y volúmenes
El perímetro de una figura bidimensional es la distancia que hay alrededor de ella.
Este polígono de 9 lados, es decir, un eneágono, tiene pintada de azul su región interior.
Los puntos de la región interior no se intersectan con la región exterior, porque tienen una frontera:
los lados que forman el polígono.
Una necesidad y un problema
El hombre tuvo necesidad de medir la superficie de los terrenos que sembraba. Para hacerlo, ideó
un sistema utilizando los elementos que tenía a su alcance. El método consistió en colocar cada
elemento sobre la tierra para ver cuántas veces cabía en la superficie que quería medir, como si
pusiera baldosas sobre ella.
Pero se le presentó una dificultad, debido a que las medidas que usaba eran arbitrarias. Es decir,
cada persona tenía una base diferente, y media de acuerdo a su propio parecer, sin ponerse de
acuerdo con los demás.
Por ejemplo...
Para que entiendas mejor lo anterior, lo veremos graficado con un ejemplo.
Vamos a medir el área de una figura, utilizando elementos diferentes.
Esta es nuestra figura:
Primero mediremos el área de este rectángulo, tomando como medida base una baldosa roja.
La baldosa roja cabe 9 veces en nuestro rectángulo, entonces su área es de 9 baldosas rojas.
Ahora, mediremos con una baldosa diferente, la que identificaremos con el color verde. Así:
Obtuvimos 9 cm2, lo mismo que si multiplicamos lado por lado, de este modo:
3 cm · 3 cm = 9 cm2
Si llamamos a al lado del cuadrado, podemos concluir que:
el área de un cuadrado es a · a = a2
El área de un rectángulo se calcula de forma semejante; lo único que cambia es que las medidas
de los lados son distintas. Al largo, lo denominaremos a, y al ancho, b. Calcularemos el área del
siguiente rectángulo con centímetros cuadrados.
El rectángulo formado tiene como largo el lado del rombo o romboide, y su ancho es la altura
dibujada. Entonces, concluimos que:
El área del rombo o romboide = b · h ---> b= base, y h = altura
En resumen, cualquier paralelógramo tiene una sola fórmula para calcular su área, ya que en el
cuadrado y en el rectángulo un lado es la base y el otro, la altura. Entonces:
Área de un paralelógramo = b · h
Calcularemos el área de un rombo que tiene 4,6 cm. por lado y su altura es de 3 cm. Aplicamos la
fórmula:
Área rombo = b · h
Área rombo = 4,6 cm · 3 cm.
Área rombo = 13,8 cm2
Trapecios
Sabemos que los trapecios son cuadriláteros que tienen un par de lados paralelos llamados bases.
Sus lados, es decir, los no paralelos, no son perpendiculares a las bases, salvo el trapecio
rectángulo que tiene perpendicular uno de ellos. Para el cálculo de su área también necesitamos
considerar la altura.
Para formar un rectángulo trazamos la paralela a DE desde B y prolongamos DC hasta formar F.
Nos queda el AED CFB y nuestro rectángulo es EBFD
El rectángulo tiene como largo la mitad de la suma de las bases del trapecio y su ancho es la altura
que trazamos. El área del trapecio se puede calcular aplicando la fórmula:
Área del trapecio = base mayor + base menor · h
_______________________________
2
Calcularemos el área de nuestro trapecio.
Área del trapecio = 8 cm + 4 cm · 3,6
___________________
2
Área del trapecio = 12 cm · 3,6
_______________
2
Área del trapecio = 21,6 cm2
El área de los triángulos
El cálculo de área de un triángulo cualquiera, se relaciona con el área de un romboide, cuya
fórmula era base · altura
¿Cómo podemos relacionar triángulo y romboide?
Lo haremos a través del siguiente dibujo
A nuestro ABC, le trazaremos una paralela al lado AC a partir de B, y una paralela a AB a partir
de C.
Triángulo rectángulo
Si el es rectángulo, su área se puede calcular por medio de sus catetos, que son los lados
perpendiculares, porque un cateto es la altura del otro. Entonces, la fórmula para su cálculo sería:
Área del triángulo = cateto · cateto
_____________________
2
Aplicaremos esta fórmula en el siguiente triángulo rectángulo.
AB= 4 cm
BC= 5 cm
AC= 3 cm
En el círculo
El círculo es la región interior de una circunferencia.
El área de un círculo se obtiene aplicando la siguiente fórmula:
Área del O = · r2
= 3,14 r = radio de la circunferencia
Recordemos que es un número decimal infinito que, para efectos de cálculo, lo dejamos en 3,14
ó 3.
Aplicaremos la fórmula para calcular el área de un círculo de 3 cm. de radio.
Este teorema nos sirve para calcular la medida desconocida de un lado de un triángulo rectángulo,
puede ser un cateto o su hipotenusa.
Por ejemplo: si la hipotenusa mide 5 cm y uno de sus catetos es 4 cm, ¿cuánto mide el otro cateto?
Aplicamos la fórmula.
Áreas achuradas
Son una forma de aplicación del cálculo de áreas de diferentes figuras que están relacionadas
entre sí. Para distinguir la parte que se debe calcular como resultado final se procede a achurarla,
es decir, se pinta o raya imitando texturas.
Algunas veces, la parte achurada está formada por la unión de áreas de figuras, por lo tanto, hay
que descomponerla, luego hacer el cálculo de cada parte, y finalmente, sumarlas para encontrar el
área total.
Veamos el siguiente ejemplo:
Esta figura se descompone en medio círculo y un rectángulo. Primero, tendremos que calcular el
área del círculo; luego, dividirla por 2. Buscaremos, también el área del rectángulo y después
sumaremos ambos resultados para obtener el área total.
Hay ejercicios, que tienen unas figuras dentro de otras y la parte achurada se relaciona con un
sector formado por la intersección de ellas. En estos casos, la solución se encuentra buscando la
diferencia entre las figuras que forman la intersección. Por ejemplo:
Nuestra figura está formada por un cuadrado con un círculo en su interior. La parte achurada
corresponde a la diferencia entre el área del cuadrado y la del círculo
Volumen
q = P{noS} = 1 − (h / n)
Simbólicamente el espacio de resultados, que normalmente se denota por Ω, es el espacio que
consiste en todos los resultados que son posibles. Los resultados, que se denota por ω1,ω2,
etcétera, son elementos del espacio Ω
La Estadística es una rama de las matemáticas que se utiliza para describir, analizar e interpretar
fenómenos donde interviene el azar, y que permite a otras ciencias a generar modelos
matemáticos empíricos donde se considera el componente aleatorio. La Estadística se divide en
dos grandes ramas:
La Estadística descriptiva, que se dedica a los métodos de recolección, descripción, visualización y
resumen de datos originados a partir de los fenómenos en estudio.
La Estadística inferencial, que se dedica a la generación de los modelos, inferencias y predicciones
asociadas a los fenómenos en cuestión.
El Razonamiento Estadístico
Todo problema estadístico opera del modo siguiente:
Se plantea un problema en estudio.
Se realiza un muestreo consistente en la recolección de datos referentes al fenómeno o variable
que deseamos estudiar.
Se propone un modelo de probabilidad, cuyos parámetros se estiman mediante estadísticos a partir
de los datos de muestreo. Sin embargo se mantiene lo que se denominan hipótesis sostenidas
(que no son sometidas a comprobación)
Se valida el modelo comparándolo con lo que sucede en la realidad. Se utiliza métodos
estadísticos conocidos como test de hipótesis y pilin de significación
• Población, muestra, medidas de tendencia central, desviación estándar y varianza
Población: Conjunto de todos los elementos incluidos en cierto estudio estadístico.
Es la suma de los valores de una variable dividida por, él numero de ellos. La media aritmética, que
se representa con .
10 + 3 + 5 + 9 + 6 + 8 + 8 + 7 + 9 + 6 + 8 + 7 =
A veces se asocia a los números x1, x2,...,xn que se quieren promediar, ciertos factores o pesos
w1, w2,...,wn que dependen de la significación o importancia de cada uno de los números.
Entonces se genera una media aritmética ponderada, que también se representa con equis
testada.
Ejemplo
Supongamos que un alumno quiere encontrar el promedio ponderado de sus cinco calificaciones.
La segunda calificación vale el doble de al primera, la tercera el triple de la primera, la cuarta vale
cuatro veces la primera y la quinta cinco veces. ¿Cuál es su promedio si sus calificaciones son 8.5,
7.3, 8.3, 6.4 y 9.2?
X1 = 8.5 ; W1 = 1
X2 = 7.3 ; W2 = 2
X3 = 8.3 ; W3 = 3
X4 = 6.4 ; W4 = 4
X5 = 9.2 ; W5 = 5
(8.5*1+7.3*2+8.3*3+6.4*4+9.2*5)
(1+2+3+4+5)
LA MEDIANA
Es la observación que se encuentra en el centro cuando los datos están ordenados, divide a los
datos en dos partes iguales.
- Si n es impar:
- Si n es par:
Ejemplo
9 12 5 16 8 3 11
3 5 8 9 11 12 16
Una vez ordenados, como el número de datos es impar (7), se busca el que tiene la posición
(n+1)2, o sea (7+1)2 = 4. Este número es el 9 y representa la mediana.
Ejemplo
(7.4+8.3)/2 = 7.85. Este resultado 7.85 representa la mediana para este conjunto de datos
LA MODA
Ejemplo
3, 5, 6, 6, 7, 7, 8, 8, 8, 9, 9, 10
Que es el ocho. Este valor representa la moda de esta colección, por lo tanto, la moda se refiere al
dato que tiene mayor frecuencia.
Nota: Si ninguna observación se repite, se dice que esos datos no tienen moda. Si todos los datos
se repiten el mismo número de veces, los datos serán multimodales.
Ejemplo
4 9 5 6 7
Como los datos sólo existen una vez, este conjunto de datos no tienen moda.
Ejemplo
9 3 6 7 9 8 5 9 7 3
El 3 se repite dos veces, el 7 se repite también dos veces, pero como el 9 se repite tres veces, este
último número es la moda para este conjunto de datos.
Ejemplo
6 7 8 6 9 7 8 5 6 8
El máximo número de veces que se repiten los datos son tres, y hay dos datos que se repiten tres
veces, el 6 y el 8. El conjunto de datos es bimodal y sus modas son el 6 y el 8.
Ejemplo
Calcula la moda para estos datos
8 6 5 5 9 6 8 6 5 9 8 9
En este conjunto de datos, todos se repiten tres veces. El 5, 6, 8 y el 9 son moda. No hay ninguno
que no lo sea, es un caso multimodal
DESVIACI”N ESTÁNDAR
x x2
3 9
2 4
3 9
5 25
4 16
3 9
20 72
Ejemplo :
x f fx x2 fx2
32 1 32 1024 1024
37 3 111 1369 4107
Conociendo la desviación estándar, se puede calcular otros estimadores derivados que son de
gran utilidad para describir y/o interpretar el comportamiento de los datos
VARIANZA (VARIANCIA) S2
La varianza,
, se define como la media de las diferencias cuadráticas de n puntuaciones con respecto a su
media aritmética, es decir:
Para datos agrupados en tablas, usando las notaciones establecidas en los capítulos anteriores, la
varianza se puede escribir como
La varianza no tiene la misma magnitud que las observaciones (ej. si las observaciones se miden
en metros, la varianza lo hace en metros2). Si queremos que la medida de dispersión sea de la
misma dimensionalidad que las observaciones bastará con tomar su raíz cuadrada.
Ejemplo
3,3,4,4,5
Para calcular dichas medidas de dispersión es necesario calcular previamente el valor con
respecto al cual vamos a medir las diferencias. Éste es la media:
La varianza es:
Siendo la desviación típica su raíz cuadrada:
Generalmente conocido por su acrónimo TIR, es el tipo de descuento que hace que el VAN (valor
actual o presente neto) sea igual a cero, es decir, el tipo de descuento que iguala el valor actual de
los flujos de entrada (positivos) con el flujo de salida inicial y otros flujos negativos actualizados de
un proyecto de inversión. En el análisis de inversiones, para que un proyecto se considere rentable,
su TIR debe ser superior al coste del capital empleado.
El Valor Actual Neto es un criterio financiero para el análisis de proyectos de inversión que consiste
en determinar el valor actual de los flujos de caja que se esperan en el transcurso de la inversión,
tanto de los flujos positivos como de las salidas de capital (incluida la inversión inicial), donde éstas
se representan con signo negativo, mediante su descuento a una tasa o coste de capital adecuado
al valor temporal del dinero y al riesgo de la inversión. Según este criterio, se recomienda realizar
aquellas inversiones cuyo valor actual neto sea positivo.
El Valor Actual o Valor presente, es calculado mediante la aplicación de una tasa de descuento, de
uno o varios flujos de tesorería que se espera recibir en el futuro; es decir, es la cantidad de dinero
que sería necesaria invertir hoy para que, a un tipo de interés dado, se obtuvieran los flujos de caja
previstos.
CORRELACI”N LINEAL
Objetivo principal del análisis de correlación lineal es medir la intensidad de una relación lineal
entre dos variables. A continuación se estudian algunos diagramas de dispersión que indican
diferentes relaciones entre las variables independientes x y las variables dependientes y. Si Y
dependientes no existe un cambio definido en los valores de y conforme aumentan los valores de
x, se dice que no hay correlación o que no existe relación entre x y y. En cambio, si al aumentar x
hay una modificación definida en los valores de y, entonces existe correlación.
En este último caso la correlación es positiva cuando y tiende a aumentar, y negativa cuando y
decrece. Si tanto los correlación lineal valores de x como los de y tienden a seguir una dirección
recta, existe una correlación lineal.
PROBABILIDAD Y
TIPOS DE PROBABILIDAD
el clásico,
el de frecuencia relativa y
el subjetivo.
De acuerdo con el enfoque clásico de la probabilidad, si N(A) resultados elementales posibles son
favorables en el evento A, y existe N(S) posibles resultados en el espacio muestral y todos los
resultados elementales son igualmente probables y mutuamente excluyentes; entonces, la
probabilidad de que ocurra el evento A es
N(A)
P(A) = -------------
N(S)
Obsérvese que el enfoque clásico de la probabilidad se basa en la suposición de que cada uno de
los resultados es igualmente probable. Debido a que este enfoque (cuando es aplicable) permite
determinar los valores de probabilidad antes de observar cualesquiera eventos muestrales,
también se le denomina enfoque a priori.
EJEMPLO
En un mazo de cartas bien barajadas que contiene 4 ases y 48 cartas de otro tipo, la probabilidad
de obtener un as (A) en una sola extracción es
N(A) 4 1
N(S) 52 13
A través del enfoque de frecuencia relativa, se determina la probabilidad con base en la proporción
de veces que ocurre un resultado favorable en un determinado número de observaciones o
experimentos. No hay implícita ninguna suposición previa de igualdad de probabilidades. Debido a
que para determinar los valores de probabilidad se requiere de la observación y de la recopilación
de datos, a este enfoque se le denomina también enfoque empírico. La probabilidad de que ocurra
un evento A, de acuerdo con el enfoque de frecuencia relativa es
Tamaño de la muestra n
EJEMPLO.
Antes de incluir la cobertura para ciertos tipos de problemas dentales en pólizas de seguros
médicos para adultos con empleo, una compañía de seguros desea determinar la probabilidad de
ocurrencia de esa clase de problemas, para que pueda fijarse la prima de seguros de acuerdo con
esas cifras. Por ello, un especialista en estadística recopila datos para 10,000 adultos que se
encuentran en las categorías de edad apropiadas y encuentra que 100 de ellos han experimentado
el problema dental específico durante el año anterior.
n(A) 100
n 10,000
Tanto el enfoque clásico como el de frecuencia relativa producen valores de probabilidad objetivos,
en el sentido de que señalan la tasa relativa de ocurrencia del evento a largo plazo.
EJEMPLO
Debido a los impuestos y a los posibles usos alternativos de sus fondos, un inversionista ha
determinado que la compra de terrenos vale la pena sólo si existe una probabilidad de cuando
menos 0.90 de que el terreno obtenga plusvalía por 50% o más en los próximos 4 años. Al evaluar
un determinado terreno, el inversionista estudia los cambios en los precios en el área en años
recientes, considera los niveles corrientes de precios, estudia el estado corriente y futuro probable
de los proyectos de desarrollo inmobiliarios y revisa las estadísticas referentes al desarrollo
económico del área geográfica global. Con base en esta revisión, concluye que existe una
probabilidad de aproximadamente 0.75% de que se dé la plusvalía que requiere. Como esta
probabilidad es menor que la mínima que requiere, (0.90), no debe llevarse a cabo la inversión
En contraste con un evento, una variable aleatoria es un evento numérico cuyo valor se determina
mediante un proceso al azar. Cuando se asignan valores de probabilidad a todos los valores
numéricos posibles de una variable aleatoria X, ya sea mediante un listado o a través de una
función matemática, se obtiene como resultado una distribución de probabilidad. La suma de las
probabilidades para todos los resultados numéricos posibles debe ser igual 1.0. Pueden denotarse
los valores de probabilidad individuales mediante el símbolo f(x), lo cual implica que hay implícita
una función matemática; mediante P(x=X), el cual implica que la variable aleatoria puede asumir
diversos valores específicos, o simplemente mediante P(X).
Para una variable aleatoria discreta, se pueden enlistar todos los valores numéricos posibles de la
variable en una tabla con las probabilidades correspondientes. Existen diversas distribuciones
estándar de probabilidad que pueden utilizarse como modelos para una amplia gama de variables
aleatorias discretas en aplicaciones de negocios. Los modelos estándar que se describiremos son
las distribuciones de probabilidad binomial, hipergeométrica y Poisson.
Para una variable aleatoria continua no es posible enlistar todos los posibles valores fraccionarios
de la variable y, por lo tanto, las probabilidades que se determinan a través de una función
matemática se ilustran en forma gráfica mediante una función de densidad de probabilidad o curva
de probabilidad. Más adelante se describen diversas distribuciones estándar de probabilidad que
pueden servir como modelos para variables aleatorias continuas.
EJEMPLO
En la siguiente tabla se muestra el número de camionetas que se han solicitado para renta en una
arrendadora de automóviles, en un periodo de 50 días. En la última columna de la Tabla se
incluyen las frecuencias observadas en este periodo de 50 días, convertidas en probabilidades.
Así, puede observarse que la probabilidad de que se hayan solicitado exactamente siete
camionetas en un día elegido al azar en ese periodo es de 0.20, y que la probabilidad de que se
hayan solicitado seis o más es de 0.20 + 0.20 + 0.08 = 0.56.
3 3 0.06
4 7 0.14
5 12 0.24
6 14 0.28
7 10 0.20
8 4 0.08
50 1.00
De la misma manera en que se hace para conjuntos de datos muestrales y poblacionales, con
frecuencia resulta útil describir una variable aleatoria en términos de su media y su varianza. La
media (a largo plazo) de una variable aleatoria X se denomina valor esperado y se denota
mediante E(X). Para una variable aleatoria discreta, resulta ser el promedio ponderado de todos los
valores numéricos posibles de la variable, utilizando las probabilidades correspondientes como
pesos. Como la suma de los pesos (probabilidades) es 1.0, puede simplificarse la fórmula de la
media ponderada de manera que el valor esperado de una variable aleatoria discreta es
E(X) = ðXP(X)
EJEMPLO
Con base en los datos de la Tabla anterior, se presentan en la Tabla siguiente los cálculos que
conducen al valor esperado de la variable aleatoria. El valor esperado es 5.66 camionetas.
Observe que el valor esperado de la variable discreta puede ser un valor fraccionario porque
representa el valor promedio a largo plazo y no el valor específico de determinada observación.
3 0.06 0.18
4 0.14 0.56
5 0.24 1.20
6 0.28 1.68
7 0.20 1.40
8 0.08 0.64
1.00 E(X) = 5.66
La varianza de una variable aleatoria X se denota mediante V(X); se calcula con respecto a E(X)
como la media de la distribución de probabilidad. La forma general de desviaciones para la fórmula
de la varianza de una variable aleatoria discreta es
La forma abreviada para la fórmula de la varianza de una variable aleatoria discreta, que no
requiere el cálculo de las desviaciones con respecto a la media, es
EJEMPLO
Demanda al
Demanda posible Valor Valor ponderado
cuadrado
Probabilidad [P(X)] ponderado al cuadrado
X [XP(X)] [X2P(X)]
(X2)
LA DISTRIBUCI”N BINOMIAL
(1) Sólo son posibles dos resultados mutuamente excluyentes en cada ensayo u observación. Por
conveniencia, a estos resultados se les denomina éxito y fracaso.
(2) Los resultados del conjunto de ensayos u observaciones, constituyen eventos independientes.
(3) La probabilidad de éxito, que se denota mediante p, permanece constante de un ensayo a otro.
Es decir, el proceso es estacionario.
P(Xðn, p) = nCXpXqn-X
n!
= ----------- px q n-x
X! (n-X)!
EJEMPLO
La probabilidad de que un prospecto de ventas elegido al azar realice una compra es de 0.20. Si un
vendedor visita a seis prospectos, la probabilidad de que realice exactamente cuatro ventas se
determina de la siguiente manera:
4!2!
6x5x4x3x2
(4x3x2)(2)
Con frecuencia existe interés en la probabilidad acumulada de "X o más" éxitos o "X o menos"
éxitos en n ensayos. En este caso, debe determinarse la probabilidad de cada uno de los
resultados incluidos dentro del intervalo designado, y entonces sumar esas probabilidades.
EJEMPLO
En relación con el ejemplo anterior la probabilidad de que el vendedor logre 4 o más ventas se
determina de la siguiente manera:
5! 1!
P(X=6) = 6C6(0.20)6(0.80)0 = 6! (0.000064)(1) = (1)(0.000064) = 0.00064
6! 0!
Como el uso de la fórmula binomial implica una cantidad considerable de cálculos cuando la
muestra es relativamente grande, con frecuencia se utilizan tablas de probabilidades binomiales.
LA DISTRIBUCI”N HIPERGEOMÉTRICA
Cuando el muestreo se realiza sin reemplazo para cada uno de los elementos que se toman de
una población finita de elementos, no se puede aplicar el proceso Bernoulli debido a que existe un
cambio sistemático en la probabilidad de éxitos al ir extrayendo elementos de la población. Cuando
se utiliza el muestreo sin reemplazo en alguna situación en la que, de no ser por el no reemplazo,
se le pudiera calificar como proceso de Bernoulli, la distribución discreta de probabilidad apropiada
resulta ser la distribución hipergeométrica.
N-TT
n-XX
EJEMPLO
De seis empleados, tres han estado con la compañía durante cinco o más años, si se eligen cuatro
empleados al azar de ese grupo la probabilidad de que exactamente dos de ellos tengan una
antigüedad de cinco años o más es:
6-3 3 3 3 3 ! 3 !
6 6 6! 15
4 4 4!2!
= 0.60
LA DISTRIBUCI”N DE POISSON.
Sólo se requiere un valor para determinar la probabilidad de que ocurra un número designado de
eventos en un proceso de Poisson: el número promedio a largo plazo de eventos para el tiempo o
dimensión específico de interés. Por lo general, esta media se representa mediante ð (la letra
griega "lambda") o, es posible, mediante ð. La fórmula para determinar la probabilidad de un
número determinado de éxitos N en una distribución Poisson es
ðxe-ð
P(Xðð) = --------
X!
EJEMPLO
(5)3e-5 (125)(0.00674)
3! 6
NORMAL Y EXPONENCIAL
EJEMPLO
Existen diversas distribuciones continuas de probabilidad comunes que son aplicables como
modelos a una amplia gama de variables continuas en determinadas circunstancias. Existen tablas
de probabilidades para esas distribuciones estándar, haciendo que resulte innecesario el método
de la integración para determinar las áreas bajo la curva de probabilidad para estas distribuciones.
Los modelos comunes de distribuciones de probabilidad continua que se describen son las
distribuciones normal y la exponencial.
Se sabe que las mediciones que se obtienen en muchos procesos aleatorios tienen esta clase
de distribución.
Con frecuencia pueden utilizarse las probabilidades normales para aproximar otras
distribuciones de probabilidad tales como las distribuciones binomial y Poisson.
1 -[(X-ð)2/2σ2]
f(X) = -------- e
2ðσð
La distribución normal estándar. Ésta es una distribución normal en la que ð=0 y σ=1. Cualquier
valor X de una población con distribución normal puede convertirse a su valor normal estándar
equivalente, z, mediante la fórmula
X-ð
z = -----
Puede recordarse que el punto percentil 90 es el punto de la distribución tal que el 90% de los
valores se encuentran por debajo de él y el 10% por encima. Para la distribución normal estándar,
es el valor de z tal que la proporción total de área a la izquierda de ese valor, bajo la curva normal,
es 0.90.
EJEMPLO
En la siguiente figura se ilustra la posición del punto percentil 90 para la distribución normal
estándar. Para determinar el valor requerido de z, se utiliza la tabla correspondiente en el sentido
contrario al común, porque, en este caso, el área bajo la curva entre la media y el punto de interés
es 0.40, tal como se ha especificado, y se desea determinar el valor correspondiente de z. Se
busca en el cuerpo de la tabla el valor más cercano a 0.4000. Este valor resulta ser 0.3997.
Determinando los encabezados del renglón y de la columna, se encuentra que el valor de z
asociado con esta área es 1.28, y por lo tanto, z 0.90 = + 1.28.
Dado el procedimiento de este ejemplo, que permite determinar un punto percentil para la
distribución normal estándar, puede determinarse un punto percentil para una variable aleatoria con
distribución normal convirtiendo el valor pertinente de z al valor que se requiere de X, mediante la
fórmula
X= ð+zσ
Cuando se utiliza la distribución normal de probabilidad como base para aproximar un valor
binomial de probabilidad, la media y la desviación estándar se basan en un valor esperado y la
varianza del número de éxitos de la distribución binomial, el número promedio de “éxitos” es
ð = np
σ = npq
ð=ð
La desviación estándar es
σ=ð
Etapa 1: Plantear la hipótesis nula y la hipótesis alternativa. La hipótesis nula (H0) es el valor
hipotético del parámetro que se compara con el resultado muestral. Se rechaza sólo si el resultado
muestral es muy poco probable en el caso de que la hipótesis sea cierta. Se acepta la hipótesis
alternativa (H1) sólo si se rechaza la hipótesis nula.
EJEMPLO.
Un auditor desea probar el supuesto de que el valor promedio de todas las cuentas por cobrar en
un empresa determinada es $260,000, tomando una muestra de n=36 y calculando la media
muestral. Desea rechazar el valor del supuesto de $260,000 sólo si la media muestral lo contradice
en forma clara, por lo que debe “darse el beneficio de la duda” al valor hipotético en el
procedimiento de prueba. Las hipótesis nula y alternativa para esta prueba son H0: ð = $ 260,000
H1: ðð260,000.
Debe observarse que si se utiliza el nivel de significancia del 5%, existe una probabilidad del 0.05
de rechazar la hipótesis nula cuando, de hecho, es cierta. A esto se le denomina error tipo I. La
probabilidad del error tipo I es siempre igual al nivel de significancia que se utiliza como criterio
para rechazar la hipótesis nula; se le designa mediante la letra griega ð ("alfa") Y, por ello, ð
designa el nivel de significancia. Los niveles de significancia que se utilizan con mayor frecuencia
en las pruebas de hipótesis son el 5 y el 1%.
Ocurre un error tipo II si se acepta la hipótesis nula cuando, de hecho, es falsa. En la siguiente
Tabla se resumen los tipos de decisiones y las consecuencias posibles, al realizar pruebas de
hipótesis.
Situaciones posibles
La
Decisiones hipótesis
La hipótesis
posibles nula es
nula es
verdadera
falsa
Error
Aceptar la Se acepta
hipótesis nula correctamente
tipo II
Error
Rechazar la Se rechaza
hipótesis nula correctamente
tipo I
Etapa 3: Elegir la estadística de prueba. La estadística de prueba puede ser la estadística muestral
(el estimador no sesgado del parámetro que se prueba) o una versión transformada de esa
estadística muestral. Por ejemplo, para probar el valor hipotético de una media poblacional, se
toma la media de una muestra aleatoria de esa población para utilizarla como estadística de
prueba. Sin embargo, si la distribución de muestreo de la media tiene distribución normal, entonces
es común que se transforme la media muestral en un valor z el cual. a su vez, sirve como
estadística de prueba.
Etapa 5: Determinar el valor real de la estadística de prueba. Por ejemplo, al probar un valor
hipotético de la media poblacional, se toma una muestra aleatoria y se determina el valor de la
media muestral. Si el valor crítico que se establece es un valor de z, entonces se transforma la
media muestral en un valor de z.
Etapa 6: Tomar la decisión. Se compara el valor observado de la estadística muestral con el valor
(o valores) críticos de la estadística de prueba. Después, se acepta o se rechaza la hipótesis nula.
Si se rechaza ésta, se acepta la alternativa; a su vez, esta decisión tendrá efecto sobre otras
decisiones de los administradores operativos, como por ejemplo, mantener o no un estándar de
desempeño o cuál de dos estrategias de mercadotecnia utilizar.
Puede utilizarse la distribución normal para probar un valor hipotético de la media poblacional:
Se utiliza una prueba de dos extremos cuando lo que interesa es una posible desviación en
cualquier dirección, a partir del valor hipotético de la media. La fórmula que se utiliza para
establecer los valores críticos de la media muestra! es similar la que se utiliza para determinar los
límites de confianza para estimar la media de una población, excepto que el valor hipotético de la
media poblacional ð0 es el punto de referencia, y no la media muestral. Los valores críticos de la
media muestral para una prueba de dos extremos, dependiendo de si se conoce σ, son:
XCR = ð0 ð Zσx
o XCR = ð0 ð zsx
EJEMPLO
Para la hipótesis nula que se planteó en el ejemplo anterior, determine los valores críticos de la
media muestral para probar la hipótesis con un nivel de significancia del 5%. Como se sabe que la
desviación estándar de las cuentas por cobrar es σ = 43,000, los valores críticos son:
Estadística de prueba: X con base en una muestra de n=36, y con una σ = 43,000
Por lo tanto, para rechazar la hipótesis nula, la media muestral debe tener un valor inferior a
$245,950 o mayor de $274,050. Así, existen dos regiones de rechazo en el caso de una prueba de
dos extremos. Se utilizan los valores de z de ð 1.96 para establecer los límites críticos porque para
la distribución normal estándar se tiene 0.05 de proporción del área en los dos extremos (0.025 en
cada extremo), lo cual corresponde al valor de ð = 0.05 que se especifica.
En vez de establecer valores críticos en términos de la media muestral como tal, es común que se
especifiquen los valores críticos en las pruebas de hipótesis en términos de valores z. Para el nivel
de significancia del 5%, los valores críticos z para una prueba de dos extremos son -1.96 y +1.96,
por ejemplo. Cuando se determine el valor de la media muestral, se le transforma en un valor z
para que pueda compararse con los valores críticos de z. La fórmula de transformación,
dependiendo de si se conoce σ o no, es
X - ð0
z = --------
σx
X - ð0
z = -----------
sx
Analizaremos en forma completa los errores tipo I y tipo II con respecto a las pruebas de un
extremo sobre una media hipotética. Sin embargo, los conceptos que se ilustran aquí son
aplicables también a otros modelos de pruebas de hipótesis.
La probabilidad del error tipo I es siempre igual al nivel de significancia que se utiliza al probar
hipótesis nulas. Esto es así porque, por definición, la proporción de área en la región de rechazo es
igual a la proporción de resultados muestrales que ocurrirían en esa región, cuando la hipótesis es
verdadera.
Por lo general, a la probabilidad del error del tipo II se le designa mediante la letra griega ð ("beta").
La única forma en que se puede determinar es con respecto a un valor especifico incluido dentro
del rango de la hipótesis alternativa.
Antes de extraer la muestra, puede determinarse el tamaño que se requiere especificando (1) el
valor hipotético de la media; (2) un valor alternativo especifico para la media, de manera que la
diferencia con respecto al valor hipotético resulta considerable; (3) el nivel de significancia que
debe utilizarse en la prueba; (4) la probabilidad del error tipo II que se permite; y (5) el valor de la
desviación estándar para la población, σð La fórmula para determinar el tamaño mínimo que se
requiere para la muestra, a fin de probar un valor hipotético de media con base en la distribución
normal es.
(z0 - z1)2σð
n =-------------------
(ðð ð ðð)2
En z0 es el valor critico de z que se utiliza para el nivel de significación especificado (nivel ðð, en
tanto que z1 es el valor de z correspondiente a la probabilidad especificada del error tipo II (nivel
ðð. El valor de σ debe ser conocido o estimado de alguna manera. Puede utilizarse la formula
anterior para pruebas de uno o dos extremos.
El único valor que difiere para los dos tipos de prueba es el valor de z0 que se utiliza.
(Nota: Cuando se está determinando el tamaño mínimo de muestra, siempre se redondean hacia
arriba los resultados fraccionarios. Además, si no se conoce σ, o la población no tiene una
distribución normal, cualquier tamaño de muestra que se calcule debe aumentarse cuando menos
a este valor, porque la fórmula anterior se basa en el uso de la distribución normal.)
EL MÉTODO DEL VALOR p PARA PROBAR HIP”TESIS NULAS REFERENTES A UNA MEDIA
POBLACIONAL
Al seguir el método del valor p en vez de comparar el valor observado de un estadístico de prueba
con un valor crítico, se determina la probabilidad de ocurrencia del estadístico de prueba,
suponiendo que la hipótesis nula es cierta, y se le compara con el nivel de significancia ð. Se
rechaza la hipótesis nula si el valor p es inferior al nivel designado ð.
El principal objetivo del análisis de regresión es estimar el valor de una variable aleatoria (la
variable dependiente) conociendo el valor de una variable asociada (la variable independiente). La
ecuación de regresión es la fórmula algebraica mediante la cual se estima el valor de la variable
dependiente.
El término de análisis de regresión simple indica que se estima el valor de la variable dependiente
con base en una independiente, en tanto que el análisis de regresión múltiple se ocupa de la
estimación del valor de la variable dependiente con base en dos o más variables independientes.
Las suposiciones generales en las que se basa el modelo de la regresión que se presenta son: (1)
la variable dependiente es una variable aleatoria; (2) las variables dependiente e independiente
tienen una relación lineal; y (3) las varianzas de las distribuciones condicionales de la variable
dependiente, para diversos valores de la variable independiente, son iguales (homoscedasticidad).
La primera suposición indica que, aunque puedan controlarse los valores de la variable
independiente, los valores de la variable dependiente se deben obtener a través del proceso de
muestreo.
EJEMPLO
DIAGRAMA DE DISPERSI”N
Un diagrama de dispersión es una gráfica en la que se traza cada uno de los puntos que
representan un par de valores observados para las variables independiente y dependiente. El valor
de la variable independiente se grafica con respecto al eje horizontal, y el valor de la variable
dependiente y se traza con respecto al eje vertical.
Yi = ð0 + ððXi + ði
en donde
Yi - Valor de la variable dependiente en el i-ésimo ensayo u observación.
e = Y- y
n-2 n-2
b1 - (ð1)0
t = --------------
sb1
en donde
SY.X
Sb1 = -----------------
S X2 - nX2
Sin embargo, cuando la hipótesis nula dice que la pendiente es cero, lo cual generalmente es el
caso, se simplifica la fórmula y se plantea de la siguiente manera:
b1
t = ---------
s b1
EL COEFICIENTE DE CORRELACI”N
p = p2
r = r2
En resumen, el signo del coeficiente de correlación indica la dirección de la relación entre las
variables X y Y, en tanto que el valor absoluto del coeficiente muestra la medida de la relación. El
coeficiente de correlación elevado al cuadrado es el coeficiente de determinación e indica la
proporción de la varianza de Y que queda explicada por el conocimiento de X (y viceversa).
Es común que la hipótesis nula de interés sea que la correlación en la población p = 0, porque si se
rechaza esta hipótesis a un nivel especificado ð, se concluiría que existe una relación real entre las
variables. También puede plantearse la hipótesis como prueba con un criterio de calificación.
Considerando que se satisfacen las suposiciones, la siguiente estadística muestral que incluye a r
se distribuye como la distribución t, con gl = n -2, cuando p =0:
t = ------------
1-r2
n-2
Por ejemplo: Probabilidad de que al lanzar un dado salga el número 2. Tan sólo hay un caso
favorable, mientras que los casos posibles son seis.
Probabilidad de acertar al primer intento el horóscopo de una persona. Hay un caso favorable y 12
casos posibles.
Sin embargo, a veces calcular el número de casos favorables y casos posibles es complejo y hay
que aplicar reglas matemáticas:
Las reglas matemáticas que nos pueden ayudar son el cálculo de combinaciones, el cálculo de
variaciones y el cálculo de permutaciones.
a) Combinaciones:
Determina el número de subgrupos de 1, 2, 3, etc. elementos que se pueden formar con los "n"
elementos de una nuestra. Cada subgrupo se diferencia del resto en los elementos que lo
componen, sin que influya el orden.
Por ejemplo, calcular las posibles combinaciones de 2 elementos que se pueden formar con los
números 1, 2 y 3.
Se pueden establecer 3 parejas diferentes: (1,2), (1,3) y (2,3). En el cálculo de combinaciones las
parejas (1,2) y (2,1) se consideran idénticas, por lo que sólo se cuentan una vez.
b) Variaciones:
Calcula el número de subgrupos de 1, 2, 3, etc.elementos que se pueden establecer con los "n"
elementos de una muestra. Cada subgrupo se diferencia del resto en los elementos que lo
componen o en el orden de dichos elementos (es lo que le diferencia de las combinaciones).
Por ejemplo, calcular las posibles variaciones de 2 elementos que se pueden establecer con los
número 1, 2 y 3.
Ahora tendríamos 6 posibles parejas: (1,2), (1,3), (2,1), (2,3), (3,1) y (3,3). En este caso los
subgrupos (1,2) y (2,1) se consideran distintos.
c) Permutaciones:
Cálcula las posibles agrupaciones que se pueden establecer con todos los elementos de un grupo,
por lo tanto, lo que diferencia a cada subgrupo del resto es el orden de los elementos.
Por ejemplo, calcular las posibles formas en que se pueden ordenar los número 1, 2 y 3.
Hay 6 posibles agrupaciones: (1, 2, 3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2) y (3, 2, 1)
¿Cómo se calculan?
a) Combinaciones:
El termino " n ! " se denomina "factorial de n" y es la multiplicación de todos los números que van
desde "n" hasta 1.
Por ejemplo: 4 ! = 4 * 3 * 2 * 1 = 24
La expresión "Cm,n" representa las combinaciones de "m" elementos, formando subgrupos de "n"
elementos.
Es decir, podríamos formar 210 subgrupos diferentes de 4 elementos, a partir de los 10 elementos.
b) Variaciones:
La expresión "Vm,n" representa las variaciones de "m" elementos, formando subgrupos de "n"
elementos. En este caso, como vimos en la lección anterior, un subgrupo se diferenciará del resto,
bien por los elementos que lo forman, o bien por el orden de dichos elementos.
c) Permutaciones:
La expresión "Pm" representa las permutaciones de "m" elementos, tomando todos los elementos.
Los subgrupos se diferenciaran únicamente por el orden de los elementos.
Vamos a analizar ahora que ocurriría con el cálculo de las combinaciones, de las variaciones o de
las permutaciones en el supuesto de que al formar los subgrupos los elementos pudieran
repetirse.
Por ejemplo: tenemos bolas de 6 colores diferentes y queremos formar subgrupos en los que
pudiera darse el caso de que 2, 3, 4 o todas las bolas del subgrupo tuvieran el mismo color. En
este caso no podríamos utilizar las fórmulas que vimos en la lección anterior.
Ejemplo: V'10,4 son las variaciones de 10 elementos con repetición, agrupándolos en subgrupos
de 4 elementos:
Son permutaciones de "m" elementos, en los que uno de ellos se repite " x1 " veces, otro " x2 "
veces y así ... hasta uno que se repite " xk " veces.
Ejemplo: Calcular las permutaciones de 10 elementos, en los que uno de ellos se repite en 2
ocasiones y otro se repite en 3 ocasiones:
Ejercicio
Solución:
Se aplica la Regla de Laplace (casos favorables / casos posibles). El caso favorable es tan sólo
uno (acertar los 14 signos). Los casos posibles se calculan como variaciones con repetición de 3
elementos (1, X y 2), tomados de 14 en 14 (los signos que hay que rellenar).
Son variaciones y no combinaciones ya que el orden influye: no es lo mismo (1,1,X) que (1, X, 1). Y
son con repetición, ya que cualquiera de los signos (1, X y 2) se puede repetir hasta 14 veces.
2.- Ejercicio
Solución:
Aplicamos nuevamente la Regla de Laplace. En este caso los casos favorables se calculan como
combinaciones de 14 elementos tomados de 2 en 2, de esta manera obtenemos todas las posibles
alternativas de fallar 2 resultados de 14 (lo que equivale a acertar 12 resultados). Utilizamos
combinaciones y no variaciones ya que el orden no importa (da lo mismo fallar el 3º y el 6º, que el
6º y el 3º)
Por lo tanto, tenemos más probabilidades de acertar 12 resultados que 14 (¿será por eso por lo
que pagan menos?).
3.- Ejercicio
Calcular la probabilidad de, en una carrera de 12 caballos, acertar los 3 que quedan primeros (sin
importar cual de ellos queda primero, cual segundo y cual tercero).
Solución:
Se aplica la Regla de Laplace. El caso favorable es tan sólo uno: los 3 caballos que entran en
primer lugar. Los casos posibles se calculan como combinaciones de 12 elementos tomados de 3
en 3 (es decir, determinamos todos las posibles alternativas de 3 caballos que pueden entrar en las
3 primeras posiciones). Como el orden de estos 3 primeros caballos no importa, utilizamos
combinaciones en lugar de variaciones.
4.- Ejercicio
Y si hubiera que acertar, no sólo los 3 caballos que ganan, sino el orden de su entrada en meta.
Solución:
El caso favorable sigue siendo uno: los 3 caballos que entran en primer lugar, colocados en su
orden correspondiente.
Los casos posibles se calculan ahora como variaciones (ya que el orden influye) de 12 elementos
tomados de 3 en 3 (calculamos todas las posibles maneras en que los 12 caballos podrían ocupar
las 3 primeras posiciones.
Menor que en el ejemplo 3º. Ya no vale acertar que 3 caballos entran en primer lugar, sino que
tenemos que acertar el orden de su entrada.
Precálculo
• Propiedades de los números reales
Los números que se utilizan en el álgebra son los números reales. Hay un número real en cada
punto de la recta numérica. Los números reales se dividen en números racionales, números
irracionales y numeros enteros los cuales a su vez se dividen en números negativos, números
positivos y cero (0) .Podemos verlo en esta tabla:
Un número real es racionalsi se puede representar como cociente a/b, donde a sea un entero y b
sea un entero no igual a cero. Los números racionales pueden escribirse en forma decimal.
Existen dos maneras:
* decimales terminales
* decimales que se repiten infinitamente
Los números reales que no pueden ser expresados en la forma a/b, donde a y b son
enteros se llaman números irracionales. Los números irracionales no tienen decimales
terminales ni decimales que se repiten infinitamente.
• Desigualdades
Desigualdades Lineales
Una inecuación o desigualdad lineal es lo mismo que una ecuación lineal pero cambiando
el signo de igualdad por signo(s) de desigualdad.
Los signos de desigualdad son
. Para resolver
una desigualdad lineal se utilizan los mismos pasos que se usan para resolver una
ecuación lineal. Como ejemplo, vamos a resolver la desigualdad 3 > x - 8.
3>x-8
3+8>x-8+8
11 > x
Una regla importante en las desigualdades es que cuando se divide por un número
negativo, el signo de desigualdad cambia.
Ejemplo:
Intérvalos
Un intérvalo es el conjunto de todos los números reales entre dos números reales dados.
Para representar los intérvalos se utilizan los siguientes simbolos:
1. Intérvalo abierto (a, b) = {x/a x b}.
2. Intérvalo cerrado [a, b] = {x/a x b}
En una gráfica, los puntos finales de un intérvalo abierto se representan con un punto
abierto ( ) y los de un intérvalo cerrado se representan con un punto cerrado ( ). Por
ejemplo, observemos las siguientes figuras:
Según vimos anteriormente los paréntesis se utilizan para los intérvalos abiertos y los
corchetes para los intérvalos cerrados. Veamos ahora cuando se utilizan ambas
denotaciones a la misma vez.
Por ejemplo:
Si tenemos (a, b], la gráfica sería:
Cuando hablamos de infinito nos referimos al conjunto de todos los números reales
mayores que a y se representan con la notación de intérvalo (a, ). El conjunto de todos
los números reales menores que a se representan con la notación de intérvalo (- , a).
Desigualdades que Envuelven Dos Posibles Soluciones
Hay desigualdades que envuelven dos posibles soluciones, una positiva y otra negativa.
Por ejemplo:
| 10x - 2| 9
• 10x - 2 -9
10x -9 +2
10x -7
10x/10 -7/10
x -7/10
• 10x - 2 9
10x 9 + 2
10x 11
10x/10 11/10
x 11/10
• Función y límite
Coordenadas
Llamamos a la coordenada de un punto a cada punto en la recta numérica asociado con un
número real. Un par ordenado es un par de números a y b con elementos escritos en forma
significante. Dos pares ordenados son iguales si tienen el mismo primer elemento y el mismo
segundo elemento.
Por ejemplo:
El par ordenado (4, 5) es igual al par ordenado (4, 5).
Los números en un par ordenado son llamados coordenadas. En el par (7, 5) la primera
coordenada es 7 y la segunda es 5.
Ya hemos visto en la primera sección cómo se construye una recta numérica. La línea horizontal es
el eje de x, la vertical es el eje de y y su intersección es el origen. Estos ejes dividen el plano en
cuatro zonas llamadas cuadrantes. Veamos la siguiente recta numérica:
Las coordenadas en el primer cuadrante serán (+, +), las del segundo cuadrante serán (-, +), las
del tercer cuadrante serán (-, -) y las del cuarto cuadrante serán (+, -). El primer número de una
coordenada representa el lugar horizontal del punto y el segundo número representa el lugar
vertical del punto.
Por ejemplo:
Círculos
Un círculo es una curva que consiste en un conjunto de puntos equidistantes a un punto en común.
El punto en común es llamado el centro del círculo y la distancia desde el centro hasta la curva se
conoce como el radio del círculo.
Para determinar la distancia del radio (r), supongamos que las coordenadas del centro son (h, k) y
las de un punto cualquiera del círculo son (x, y), la fórmula sería:
Por ejemplo, si el centro del círculo es (6, 4) y uno de sus puntos es (4, 3). Determinar el
radio (r).
Si el centro del círculo es el origen, o sea con coordenadas (0, 0), entonces la fórmula
sería:
Por ejemplo, si utilizamos el ejercicio anterior pero con centro (0, 0) sería:
Variación
Existen dos tipos de variación: variación directa y variación inversa. Veamos cada una de
ellas:
Variación Directa = es una función que se define por una ecuación que está en la forma y =
kx , donde k es una constante no igual a cero. La variable y varía directamente de x. La
constante k es llamada la constante de variación. La variación directa establece un único
valor de y para cada valor de x. En la variación directa las dos variables aumentan (o
disminuyen) juntas. Cuando el dominio es un conjunto de números reales, la gráfica de la
variación directa es una línea recta con pendiente k que pasa por el origen.
Variación Inversa = es una función que se define por una ecuación que está en la forma y =
k/x, donde x no es igual a cero. La variable y varía a la inversa de x. En la variación invesa
el aumento de una de las variables significa la disminución de la otra variable. La gráfica de
esta variación es una hipérbola.
Proporción
Una proporción es una ecuación que establece que dos radios son iguales. Una proporción
Por ejemplo:
Un automóvil gasta 9 galones de gasolina para viajar 120 millas. ¿Cuántos galones de
gasolina necesitaría el auto para viajar 550 millas?
Funciones
Una función consiste en dos conjuntos, dominio y rango, y una regla que asigna a cada miembro
del dominio exactamente un miembro del rango. A cada miembro del rango debe serle asignado
por lo menos un miembro del dominio. Si la relación entre dos variables x y y es una en la que para
cada valor de y hay exactamente un valor de x, se dice que y es una función de x.
Ejemplo:
y = 7x + 1
y = 7(2) + 1 = 15
y = 7(4) + 1 = 29
y = 7(6) + 1 = 43
El dominio D es {2, 4, 6} y el rango R es {15, 29, 43}.
f(x) = x + 2
La figura 1 define una función, mientrás que la figura 2 no define una función.
Los Ceros de una Función
Un cero de una función es la solución de una ecuación f(x) = 0. Los ceros de una función
corresponde a los puntos en los cuales la gráfica de la función atraviesa el eje de x. Estos
puntos son llamados interceptos en x.
Por ejemplo:
En la figura 1 los interceptos en x son X1, X2 y X3. La figura 2 no tiene ningún intercepto en
x.
Español
• Ortografía general (incluye acentuación y homófonos)
Reglas del acento
e) La conjunción o llevará acento cuando esté colocada entre números, para no confundirla con el
cero.
2. Los monosílabos verbales fue, fui, vio y dio se escribirán sin acento ortográfico.
Ejemplo: Juan fue al parque, vio los leones y después dio un largo paseo.
3. Las palabras que - quien - cuan - cuando - cuanto-donde-como llevarán acento siempre que se
usen en forma admirativa, interrogativa o dubitativa.
Ejemplo: ¡Cuánta gente en la calle! ¿Quién llama? No sé cómo decírtelo. ¿Dónde vives?
5. Sobre las letras mayúsculas colocaremos acento ortográfico siempre que por las reglas
generales del acento les corresponda llevarlo.
6. Cuando un vocablo simple entre a formar parte de un compuesto como primer complemento del
mismo, se escribirá sin el acento ortográfico que como simple le habría correspondido.
Se exceptúan de esta regla los adverbios terminados en -mente, como ágilmente, cortésmente.
Reglas generales
Después de las consonantes l-n-s y al principio de palabra, se escribe r aunque se lea como rr.
Se escriben con mayúscula los nombres propios, al empezar un escrito y después de punto.
Las palabras derivadas se escriben con la misma ortografía que las primitivas de donde proceden,
menos las siguientes:
• De hueco, oquedad.
• De huérfano, orfandad, orfanato.
• De hueso, óseo, osario, osamenta.
• De huevo, oval, ovoide, ovíparo.
• De huelva, onubense.
• De huesca, oscense.
Reglas de la h
Se escriben con h:
Las palabras que empiezan por hipo-hidro - hiper, como: hipócrita - hidrógeno - hipérbola.
Las palabras que empiezan por hue - hui - hia - hie, como: hueco - huida - hiato - hielo.
Las palabras que empiezan por hu más m más vocal, como: humedad - humano.
Todos los tiempos de los verbos haber, hacer, hablar, hallar y habitar, como: hubo - hago - hallo -
hablo - habito.
Reglas de la g
Se escriben con g:
Las palabras que empiezan por in, menos: injerto - injertar, como: indígena - ingeniero.
Las palabras que empiezan por gen, menos: Jenaro - jenable - jengibre, como: genio - gente.
Las palabras que terminan en gen - gente, menos: comején - jején, como: imagen - urgente.
Las palabras que terminan en ger - gir - igerar, menos: mujer - tejer - crujir - desquijerar, como:
proteger - afligir - aligerar.
Reglas de la j
Se escriben con j:
Las palabras que empiezan por aje - eje, menos: agencia, agenda, agente, como: ajedrez, ejercer.
Las palabras que terminan en aje - eje, menos: protege, como: coraje, hereje.
Reglas de la m
Se escribe m a fin de sílaba cuando la sílaba siguiente empieza por na, ne, ni, no, como: columna -
alumno - solemne - amnesia, menos: perenne, y los compuestos de las preposiciones en - in - con
- sin, como: ennoblecer, innovar, connatural, sinnúmero.
Reglas de la ll
Se escriben con ll:
Las palabras que empiezan por fa - fo - fu, como: falleba - folleto - fullería.
Las palabras que terminan en illo - illa, como: ovillo - pastilla.
Reglas de la x
Se escriben con x:
Las palabras que empiezan por extra, menos: estrada – estrafalario, estragar, estrangular –
estratagema, estraza, como: extraño - extravío.
Delante de las sílabas pla - ple - pli – plo - pre - pri - pro, menos esplendor y espliego, como:
explotar, expresar, exprimir.
Reglas de la b
Se escriben con b:
Las palabras que empiezan por al, menos: Álvaro - alvéolo - altavoz - altivez, como: albañil,
alboroto.
Las palabras que empiezan por es, menos: esclavo - esclavina - esclavitud, como: esbelto,
escarbar.
Las palabras que empiezan por ab - ob, como: abdicar, objeto.
Las palabras que empiezan por bu - bur - bus, como: bujía, burbuja, busto.
Las palabras que empiezan por bien, menos: Viena -viento - vientre, como: bienvenido, bienestar.
Las palabras que terminan en bilidad, menos: movilidad - civilidad, como posibilidad.
Las palabras que terminan en bundo - bunda, como: meditabundo, moribunda.
Las palabras que terminan en probar, como: aprobar, comprobar.
Las terminaciones del pretérito imperfecto del indicativo de los verbos, que en infinitivo terminan en
ar, y también el mismo tiempo del verbo ir (iba - ibas - iba - íbamos - ibais - iban), como: amaba,
rezábamos, llorabais, iban.
Reglas de la v
Se escriben con v:
Las palabras que empiezan por di, menos: dibujo - dibujar - dibujante, como: divino, diversión.
Las palabras que empiezan por vice-villa, menos: billar - bíceps, como: viceversa, villanía.
Las palabras que empiezan por ad, como: adverbio, adversario.
Las palabras que empiezan por lla - lle - llo - llu, como: llave, llevar, llover, lluvia.
Las palabras que empiezan por pre - pri - pro - pol, menos: prebenda - probar - probeta - probo,
como: prevenir, privar, provecho, polvo.
Las palabras que terminan en venir, como: convenir, prevenir.
Las palabras que terminan en tivo - tiva - tivamente, como: caritativo, activa, positivamente.
Las palabras que terminan en ava - ave- avo; eva - eve - evo; iva - ive - ivo, menos: haba, jarabe,
cabo; prueba, debe, sebo; arriba, caribe, recibo, y algunas más.
• Puntuación
A) la coma
1º El nombre en vocativo llevará una coma detrás de sí cuando estuviere al principio de lo que
se diga, y en otros casos la llevará antes y después:
¡Amigos, ayudadme!; Pedro, ven; Por favor, Rubén, haz lo que te digo.
2º Siempre que en lo escrito se empleen dos o más partes de la oración consecutivas y de una
misma clase, se separarán con una coma para que al leerlas haya de hacerse una leve pausa que
separe su sentido. Se excepcionan los casos en que mediare alguna de las conjunciones y, ni, o.
Roberto, Rubén y Pedro; alto, delgado y rubio; vine, vi y vencí; ni corto ni perezoso; sobresaliente,
notable o aprobado.
3º Con la coma también se dividen los distintos miembros independientes entre sí de una
cláusula, vayan o no precedidos de conjunción:
Todos mataban, todos se compadecían, ninguno sabía detenerse; Al apuntar el alba cantan las
aves, y el campo se alegra, y el ambiente cobra movimiento y frescura.
4º Cuando una oración se interrumpe, bien para citar o para indicar el sujeto o la obra de
donde se ha tomado o porque se inserta como de paso otra que aclara o amplía lo que se está
diciendo, esas palabras, que suspenden momentáneamente el relato principal, se encierran entre
dos comas:
La esperanza, dice el refrán popular, es lo último que se debe perder; Los vientos del sur, que en
aquellas abrasadas regiones son muy frecuentes, ponen en grave conflicto a los viajeros.
5º Igualmente suelen ir precedidas y seguidas de coma las expresiones esto es, es decir, en
fin, por último, por consiguiente, sin embargo, no obstante y otras parecidas:
Anoche, sin embargo, el cielo comenzó a nublarse; Juan, por consiguiente, sacó su ropa de
invierno.
B) el punto y coma.
1º Cuando los miembros de un período constan de más de una oración, por lo cual o por otra
causa llevan ya alguna coma, se separarán con punto y coma unos y otros: Vinieron los aquilones
de noviembre, glaciales y recios; arrebataron sus hojas a los árboles, llevándolas, ya rodando por
la tierra, ya volando entre nubes de grueso polvo. se guareció el rabadán en su cabaña, y el
labrador en su alquería; la nieve, descendiendo espesa sobre el monte y el valle, borró los matices
del suelo, toda la variedad riquísima de la Naturaleza.
2º En todo período de alguna extensión se pondrá punto y coma antes de las conjunciones
adversativas mas, pero, aunque, etc.; verbigracia: Salieron los soldados a media noche y
anduvieron nueve horas sin descansar; pero el fatal estado de los caminos malogró la empresa.
Cuando la cláusula sea corta, bastará una simple coma antes de la conjunción; como en Vendrá,
pero tarde; Lo hizo, aunque de mala gana.
3.° Siempre que a una oración sigue, precedida de conjunción, otra oración que, en orden a la
idea que expresa, no tiene perfecto enlace con la anterior, hay que poner al fin de la primera punto
y coma: Pero nada bastó para desalojar al enemigo, hasta que se abrevió el asalto por el camino
que abrió la artillería; y se observó que uno solo, de tantos como fueron deshechos en este
adoratorio, se rindió a la merced de los españoles (Solís, Historia de Nueva España, III, 7) . Si
después de la palabra artillería solo se pusiese coma, la oración y se observó, etc., vendría regida
de la preposición hasta y cambiaría el sentido.
1.° Cuando se sienta una proposición general y en seguida se comprueba y explica con otras
oraciones, se la separa de estas por medio de los dos puntos: No aflige a los mortales vicio más
pernicioso que el juego: por él gentes muy acomodadas han venido a parar en la mayor miseria, y
aun en el patíbulo; por él, además del caudal, pierde el hombre la vergüenza y hasta la estimación
de sí propio.
2.° Cuando a una o varias oraciones sigue otra que es consecuencia o resumen de lo que
antecede, esta se ha de separar con dos puntos: Aquel que por sus riquezas y esplendor fue tan
aplaudido como envidiado cuando entraba triunfante por las puertas de Constantinopla, y cuyo
nombre era respetado y temido desde la capital del Imperio hasta el confín de los arenales de la
Líbia, murió ciego, pobre, olvidado y mendigando su alimento de puerta en puerta:¡raro y
espantoso ejemplo de las vicisitudes de la fortuna!
3.° En los decretos y sentencias, bandos y edictos se ponen dos puntos al final de cada motivo
o fundamento de la resolución, aunque estos van en párrafos distintos y principian con letra
mayúscula. En certificaciones y memoriales también se ponen dos puntos antes de ciertos párrafos
con letra inicial mayúscula.
4.° Citando palabras textuales, se han de poner dos puntos antes del primer vocablo de la cita,
el cual suele principiar con mayúscula: Cicerón en sus Oficios dice a este propósito lo siguiente: No
hay cosa que tanto degrade al hombre como la envidia.
5.° También se emplean los dos puntos después del Muy señor mío y otras expresiones
semejantes con que se suele dar principio a las cartas: Muy señor mío: Sírvase usted tomar a su
cargo, etc.; Amigo mío: En contestación a la estimada de usted, etc.
Después de los dos puntos se escribe indistintamente con letra mayúscula o minúscula el
vocablo que sigue.
D) el punto
1º Se pone punto cuando el período forma sentido completo, en términos de poderse pasar a
otro nuevo sin quedar pendiente la comprensión de aquel. Es la mayor pausa sintáctica que la
ortografía señala.
En la lectura, la duración de la pausa indicada por el punto puede variar más o menos, según
el sentido y la interpretación del lector; pero en todo caso, es mayor que la que señalan la coma y
el punto y coma.
2.° Resta advertir que en toda clase de escritos suelen hacerse después del punto final ciertas
separaciones o divisiones llamadas párrafos, cada una de las cuales ha de empezar en renglón
distinto de aquel en que acabe el anterior, y más adentro que las otras líneas de la plana. Deben
principalmente usarse tales divisiones cuando se va a pasar a diverso asunto, o bien a considerar
el mismo desde otro aspecto.
1.° Cuando conviene al escritor dejar la oración incompleta y el sentido suspenso, lo denota
con los puntos suspensivos: Él concitó la plebe contra los patricios; él acaudilló y juramentó a los
mozos más corrompidos y perversos de la República para subvertirla con su auxilio; él sobornó con
oro y con promesas... Pero ¿a qué repetir lo que a todos es notorio?
3.° También se usan dichos puntos cuando se copia algún texto o autoridad los cuales no hace
al caso insertar íntegros, indicando así lo que se omite.
F) la interrogación y la admiración
6.° Hay cláusulas que son al par interrogativas y admirativas, y en ellas podrá ponerse nota de
admiración al principio y de interrogación al fin, o viceversa: ¡Que esté negado al hombre saber
cuándo será la hora de su muerte? ¿Qué persecución es esta, Dios mió!
G) El paréntesis
1.° Cuando se interrumpe el sentido y giro del discurso con una oración aclaratoria o incidental
y esta es larga o tiene conexión escasa con lo anterior, se encierra dentro de un paréntesis, como
en el siguiente ejemplo: Acostados todos en un género de lechos que rodeaban la mesa (pues los
romanos comían tendidos y soslayado el cuerpo sobre el codo izquierdo), empezó a echarles en
cara la tibieza de su fe, etc.
2.° En este ejemplo se ha puesto como después del paréntesis porque allí finaliza el miembro
del periodo con que va unida la oración comprendida en el paréntesis; y al fin de él o dentro se ha
de usar, además, la puntuación que la cláusula necesitare. Cuando el paréntesis termine la
cláusula de que depende, el punto final irá fuera.
3.° En las obras dramáticas suele encerrarse entre paréntesis lo que los interlocutores dicen
aparte. Para que tales paréntesis no se confundan con otros convendría valerse de los
rectangulares, en esta forma [ ], que algunos impresores usaban en el siglo pasado. El punto final
de los apartes va colocado dentro del paréntesis.
4.° Se emplea también el paréntesis curvo para encerrar en él noticias o datos aclaratorios,
explicaciones de abreviaturas, etc.; y el rectangular, para indicar en la copia de códices o
inscripciones lo que falta en el original y se suple conjeturalmente. Ejemplos: El hijo del rayo de
guerra, Carlos V (D. Juan De Austria); Perdió Boabdil a Granada en la hégira 897 (1492);
Imp(eratori) Caes(ari) [Nervae] Traiano [Aug(usto)] p(ontifici) m(aximo). etc.
H) la diéresis o crema
2.°. Queda a salvo el uso discrecional cuando, por licencia poética o con otro propósito, interese
una pronunciación determinada.
I) las comillas
1º Para distinguir las palabras sobre las cuales quiere el que escribe llamar particularmente la
atención del lector, se subrayan en lo manuscrito; y en lo impreso se ponen de letra cursiva, y a
veces con versales u otras que resalten por su figura o su tamaño. Se practica lo mismo con las
voces o citas en idioma extranjero, con el texto literal de citas en castellano, con los títulos de libros
y con las dicciones y cláusulas que en las obras de enseñanza y otras se ponen por ejemplo. Mas
cuando las cláusulas de este género tienen alguna extensión o llenan varias líneas, se les suelen
poner comillas inversas al principio de cada uno de los renglones que ocupan: Dice un escritor
célebre: «El hombre tiene aptitud, por su naturaleza, para habitar en todos los países del mundo:
en los arenales del desierto, en los montes más encumbrados, en los climas polares puede vivir y
propagarse. No así los animales, que, sujetos a más estrechos límites, perecen fuera de ellos o
arrastran vida penosa.»
2º Las comillas simples (' ' o , ') se usan al principio y al final de una palabra o frase incluidas
como cita o puestas de relieve dentro de un texto entrecomillado más extenso. También se
emplean para indicar que una palabra está usada en su valor conceptual o como definición de otra,
ejemplo: espiar 'acechar'.
J) El guión
1º Cada vocablo de por sí, ya simple, como guardia, poner, ya compuesto, como salvaguardia,
reponer, se ha de escribir aislado, o con entera separación del que le preceda o siga. Sin embargo,
en la escritura hay necesidad muchas veces de dividir una palabra, y entonces se ha de observar
lo siguiente:
2º Cuando al fin del renglón no cupiere un vocablo entero, se escribirá solo una parte, la cual
siempre ha de formar sílaba cabal. Así, las palabras con-ca-vi-dad, pro-tes-ta, sub-si-guien-te,
podrán dividirse a fin de renglón por donde señalan los guiones que van interpuesto en dichas
voces, mas no de otra suerte.
4º Como cualquiera diptongo o triptongo no forma sino una sílaba, no deben dividirse las letras
que lo componen. Así, se escribirá gra-cio-so, tiem-po, no-ti-ciáis, a-ve-ri-güéis.
5º Cuando la primera o la última sílaba de una palabra fuere una vocal, se evitará poner esta
letra sola en fin o en principio de línea.
6º Cuando al dividir una palabra por sus sílabas haya de quedar en principio de línea con h
precedida de consonante, se dejará esta al fin del reglón y se comenzará el siguiente con la h: al-
haraca, in-humación, clor-hidrato, des-hidratar.
9º Cuando los gentilicios de dos pueblos o territorios formen un compuesto aplicable a una
tercera entidad geográfica o política en la que se han fundido los caracteres de ambos pueblos o
territorios, dicho compuesto se escribirá sin separación de sus elementos: hispanoamericano,
checoslovaco, afroantillano. En los demás casos, es decir, cuando no hay fusión, sino oposición o
contraste entre los elementos componentes, se unirán estos con guión: franco-prusiano, germano-
soviético.
Este signo se usaba para dividir algunas palabras compuestas; actualmente se emplea solo en
las copias, para denotar que en el original se pasa a párrafo distinto.
a) Apóstrofo (' ). Solía emplearse antiguamente, sobre todo en poesía, colocado a la mayor
altura de los palos de las letras, con el fin de indicar la omisión o elisión de una vocal: d'aquel, por
de aquel; l'aspereza, por la aspereza; qu'es, por que es. Recientemente, y para evitar dudas al
lector, se ha restablecido en algunas reimpresiones de obras antiguas, donde palabras de esta
clase aparecen como si fuera una sola; v. gr.: daquel, laspereza, ques.
b) Párrafo (§). Sirvió en lo antiguo para distinguir los diversos miembros de un escrito, y como
signatura de pliegos impresos. Ahora se emplea en los libros, seguido del número que
corresponda, para indicar divisiones internas de los capítulos: § 12, § 13, etc.
c) Calderón ( ¶ ). Tuvo antiguamente los mismos oficios que el signo anterior. Ahora se emplea en
lo impreso para señalar alguna observación especial.
d) Asterisco ( * ). Es una estrellita que se pone sencilla, doble o triple en ciertas palabras del texto,
como llamada a nota que en el margen o al pie de la plana va encabezada con el mismo signo.
Para igual fin se emplean letras, números, cruces, etc., en vez de asteriscos. En obras de
lingüística se coloca delante de las formas cuya existencia se supone sin estar documentada.
e) Llave o corchete ( {} ) . Su oficio es abrazar diversas partidas en una cuenta, varios miembros en
un cuadro sinóptico, etc., que deben considerarse agrupados y unidos para determinado fin. f)
Manecilla - Puesta al margen o en el texto de un escrito, da a entender que lo señalado por ella es
particularmente útil o interesante.
Gramática y vocabulario
Gramática es el estudio de la lengua, en cuanto a forma, estructura, y significado.
También se llama gramática al libro en el que se describe parcialmente una lengua (y que
tradicionalmente suele incluir aspectos no lingüísticos, como la ortografía). Estos manuales, o
gramáticas, se dividen a su vez dependiendo de los distintos enfoques dados por sus autores:
Gramática pedagógica, cuando se centra en el uso de la lengua.
Gramática descriptiva, cuando sus autores reflejan lo que la gente habla.
Gramática prescriptiva, contrapuesta a la descriptiva y considerada obsoleta por las principales
escuelas lingüísticas contemporáneas, trata de fijar las pautas de aquello que debe ser dicho y lo
que no. Dentro de este tipo se incluyen las sucesivas gramáticas de la Real Academia Española.
Gramática teórica.
Gramática de un lenguaje, desde el punto de vista de un autómata, un conjunto de reglas que
describen secuencias de símbolos pertenecientes a un lenguaje.
Gramática formal.
Clásicamente la gramática, como estudio de la lengua, se divide en tres subdisciplinas:
Sintaxis
Morfología
Semántica
Existen dos grandes corrientes, la gramática formal y la gramática funcional. Ambas difieren en
muchos aspectos. Mientras que la gramática formal observa la lengua como un mecanismo
lingüístico innato que existe en todo ser humano, la gramática funcional se centra especialmente
en la relación entre el sistema y el uso de dicho sistema. De esta forma, la psicolingüística se
desarrolla en relación con la escuela formal de Noam Chomsky, mientras que la sociolingüística
está vinculada a la escuela funcional.
Sintaxis
La sintaxis es una subdisciplina de la lingüística. Es la parte de la gramática que se encarga de
estudiar las reglas que gobiernan la forma en que las palabras se organizan en sintagmas y, a su
vez, estos sintagmas en oraciones
Morfología
es la rama de la lingüística que estudia la estructura interna de las palabras para delimitar, definir y
clasificar las unidades de la misma, las clases de palabras a las que da lugar (morfología flexiva) y
la formación de nuevas palabras (morfología léxica)
El morfema (llamado formante por otros autores) es la unidad mínima significativa de la primera
articulación o división del signo lingüístico: la palabra. Así pues, una palabra está constituida
generalmente por dos clases de morfemas: los lexemas y los morfemas gramaticales.Los lexemas
son los morfemas, comúnmente conocidos como raíces, que contienen el significado de la palabra.
Constituyen casi siempre la parte invariable, autónoma y de significado más concreto de la misma.
Forman la parte más numerosa del léxico y su número en toda lengua es siempre muy superior al
de morfemas.
Los morfemas gramaticales son las unidades que constituyen la parte variable de la palabra y cuyo
significado puede ser o bien complementario o bien de carácter meramente lingüístico y gramatical.
No son autónomos sino que se presentan siempre asociados a lexemas. Los morfemas
gramaticales se clasifican en:
afijos, son formantes facultativos que matizan o complementan el significado básico. Todos son
átonos salvo los sufijos.
Prefijos: Preceden al radical o lexema. Son átonos y poseen significado. Si cargan con acento son
en realidad prefijoides o prefijos cercanos a los lexemas.
infranqueable prefijo: in-, significado de negación o privación
monosilábico prefijo: mono-, significado de único o uno solo
infijos o interfijos: Se colocan entre los prefijos y sufijos para evitar la cacofonía entre dos sonidos y
las homonimias. Son átonos y no poseen significado. Muchos de ellos funcionaron también como
sufijos pero quedaron sin significado perceptible.
humareda infijo: -ar-
Morfema cero
Es aquel morfema que, aunque existe morfológicamente, no se refleja gráficamente. Por ejemplo,
en la palabra hombre, el morfema de número no está presente, y esa es precisamente la razón por
la cual el número es singular.
Alomorfos
Los alomorfos son las diferentes representaciones fónicas de un determinado morfema. Por
ejemplo, -s y -es son alomorfos del morfema de número plural del español. Tambíen son alomorfos:
-ble y -bil como en imposible e imposibilidad o nece- y neci como en necio y necedad.
Semántica
La semántica es un subcampo de la gramática y, por extensión, de la lingüística. Proviene del
griego "semantikos", que quería decir "significado relevante", derivada de "sema", lo que
significaba "signo". Se dedica al estudio del significado de los signos lingüísticos y de sus
combinaciones, desde un punto de vista sincrónico o diacrónico.
Funciones del sustantivo dentro de la oración.-
Sujeto: sólo pueden funcionar como sujetos los sustantivos o palabras sustantivadas. Cuando el
sujeto está formado por varias palabras existe un sustantivo o palabra sustantivada que es el
núcleo del sujeto.
Predicado: esta función es propia del adjetivo y del verbo pero el sustantivo, al funcionar como
predicado toma un valor adjetivo. Por ejemplo: Juan es profesor.
Atributo: el atributo es sustantivo que forma parte del predicado de una oración en la que el verbo
es ser, estar o parecer.
Tipos.-
Comunes: los nombres comunes son aquellos que indican la clase de objeto a que pertenece lo
designado. Ej: casa, perro, hombre.
Propios: aquellos mediante los cuales se identifica a un ser, un individuo, bien entre los de su
clase, bien por constituir el único individuo de una clase. Ej: Jaén, Nicolás.
Tradicionalmente se consideran accidentes del nombre el género y el número a los que puede
añadirse la comparación. En el caso concreto del español no existe, en realidad, la declinación y,
por lo tanto, no hay casos, si exceptuamos las formas de los pronombres personales.
El género.- Los sustantivos pueden ser, según ya hemos indicado, sólo masculinos o femeninos
(gato, gata). Sin embargo, existen nombres que tienen género común, es decir, la misma palabra
puede servir para referirse a personas de sexo masculino o femenino. Ej: testigo, estudiante.
Para definir si se refiere a un hombre o a una mujer se utiliza el artículo. Ej: el amante, la amante.
El número.- Existen los objetos llamados contables o discretos, como libros o plumas, que se
muestran como una multiplicidad de unidades y por otra los llamados compactos o masivos como
el trigo o la leche, en los cuales no puede percibirse la suma de unidades. La idea de plural se
manifiesta por medio de los sufijos -s o -es.
No todos los sustantivos suelen tener plural. Los nombres propios y los de objetos únicos sólo
pueden tenerlo en casos especiales, así como los nombres abstractos como la tolerancia y la
sabiduría.
Existen algunas palabras, más conocidas como colectivos que se refieren a lo singular y lo plural a
la vez. Ej: tijeras, pantalones. Son formas en plural que hacen referencia a una unidad.
El adjetivo es aquella parte de la oración que se junta al sustantivo para calificarlo o no presenta
una forma externa que le distinga de la categoría más afín, que es el sustantivo. Entre una y otra
clase de palabras o semantemas existe un constante movimiento: substantivos que se hacen
adjetivos, y a la inversa.
-Especificativo: en la oración Ana hizo un ramo con las rosas blancas de su jardín el adjetivo
blancas califica a rosas distinguiéndola del resto (sólo las rosas de color blanco). Si quitamos el
adjetivo, la oración pierde significado.
El adjetivo especificativo es el que expresa una cualidad necesaria del nombre que lo diferencia de
los demás. Suele ir detrás del nombre.
-Explicativo:
En la primera oración el adjetivo blanca va delante del nombre para llamar la atención; ya que
indica una cualidad propia de la nieve (la nieve siempre es blanca) y además, si quitásemos el
adjetivo no se alteraría el significado de la oración.
El adjetivo explicativo o epíteto es el que expresa una cualidad no necesaria del nombre, pero que
añade mayor belleza e interés literario al texto. Suele ir antepuesto al nombre.
El pronombre es la parte de la oración que sustituye al nombre, sin embargo, no es una parte de la
oración en el mismo sentido que lo son los sustantivos, el adjetivo, el verbo o el adverbio.
Los pronombres se nos presentan en clases más perfiladas e independientes de las que hemos
visto al estudiar los sustantivos y los adjetivos. Distinguiremos los personales, posesivos,
demostrativos, relativos, interrogativos e indefinidos.
Los pronombres demostrativos se caracterizan por su función deíctica o mostrativa que les es
esencial.
Los pronombres demostrativos sirven para nombrar y distinguir elementos que ya se han
mencionado anteriormente, pero sin repetirlos. La forma de esos pronombres demostrativos varia
según el género y el numero, así como de los seres o las cosas que representan. La función que
ocupan en la frase no conlleva ningún cambio en su forma.
Llámense relativos los demostrativos que reproducen un concepto anterior, y sirven especialmente
para enlazar una proposición con otra. El de más frecuente uso es que, adjetivo de todo género,
número y persona. En el navío que viene de Londres es de género masculino, número singular y
tercera persona; en vosotras que me oís es de género femenino, numero plural y segunda persona.
Debemos siempre concebir en él, no obstante su terminación invariable, el género, número y
persona del sustantivo reproducido, que se llama su antecedente.
El relativo que.- Que puede ser sujeto, término y complemento. En todos los ejemplos anteriores es
sujeto; es complemento acusativo en la casa que habitamos, y término en las plantas de que está
alfombrada la ribera.
La proposición explicativa se llama incidente, y la de que ésta depende principal. Las proposiciones
incidentes son en cierto modo independientes, y así es que sin alterar en nada el sentido del
anterior ejemplo , se podría decir: Las señoras deseaban descansar y se retiraron.
Se llama Oración toda proposición o conjunto de proposiciones que forma sentido completo: de
que está alfombrada la ribera es proposición perfecta, pero no es oración.
Los pronombres relativos pasan a interrogativos acentuándose. ¿Qué pasajeros han llegad?: el
qué es aquí adjetivo y forma con pasajeros el sujeto de la proposición. ¿Qué ha sucedido?; el qué
hace de sujeto y es un sustantivo, porque envuelve el significado de cosa o cosas.
De lo dicho se sigue que un complemento puede tener por término, no sólo un sustantivo, un
predicado, un adverbio, un complemento, sino también una proposición interrogativa indirecta; pero
es porque las proposiciones interrogativas indirectas hacen en la oración el oficio de sustantivos.
El relativo quién.-
En lugar de las expresiones: el que, las que, los que, las que; empleamos muchas veces el
sustantivo quien, quienes, cuando el relativo se refiere a persona o cosa personificada: "la culpa no
fue tuya sino de quien te aconsejaba".
Quien se hace interrogativo acentuándose. Equivale, entonces a qué persona, y puede ser sujeto,
predicado o término: ¿quién ha venido?, ¿Quién era aquella señora?, ¿A quién se llama?, ¿A quién
llaman?
El relativo cuyo.- Cuyo, pronombre adjetivo, que es un tiempo posesivo y relativo, equivale a de
que o de quien, en el sentido de posesión o pertenencia; como suyo equivale a de él, de ella, de
ellos, de ellas, de ello: "El árbol, cuyo fruto comimos...".
Esta práctica es extremadamente limitada, ya porque cuyo debe referirse a personas, ya porque
sólo tiene cabida en predicados que modifiquen el verbo ser.
Los pronombres interrogativos, junto con los indefinidos, presentan características peculiares. Los
pronombres interrogativos son usados en la interrogación parcial, o sea, aquella en la que se
pregunta por el sujeto, el predicado nominal o los complementos.
Algunas lenguas distinguen formas interrogativas animadas, es decir, relativas a seres animados, e
inanimadas, como restos de un antiguo estado de cosas en cuanto al género, en el que se
distinguen de un modo general, entre dichas categorías. En español, quién, por ejemplo, sólo se
emplea con personas y, a la inversa, qué se usa solamente con cosas o ideas. La distinción entre
masculino y femenino no existe.
Cómo Quién
Dónde Por qué
Qué Cuando
Cuanto
También encontramos otras formas interrogativas como Para quién o Para qué.
Los numerales son un tipo de partículas que hay que relacionar con los indefinidos de cantidad y,
por otra con los adjetivos calificativos, de cuales se diferencian porque en lugar de expresar
cualidad indican cantidad. En realidad forman un grupo dentro de ellos.
Tipos.- Antes de explicar la verdadera naturaleza de los numerales es mejor identificar todas las
clases que hay.
Numerales ordinales: se confunden con los adjetivos calificativos. Se pueden colocar o bien
delante o detrás del sustantivo y presentan variaciones de género y número según el sistema al
que acompaña.
CARDINALES ORDINALES
1. primero
1 uno 40 cuarenta
2. segundo
2 dos 50 cincuenta
3. tercero
3 tres 60 sesenta
4. cuarto
4 cuatro 70 setenta
5. quinto
5 cinco 80 ochenta
6. sexto
6 seis 90 noventa
7. séptimo
7 siete 100 cien
8. octavo
8 ocho 101 ciento uno
9. noveno
9 nueve
10. décimo
10 diez
11. undécimo
11 once 200 doscientos, as
12. duodécimo
12 doce 300 trescientos, as
13. decimotercero
13 trece 400 cuatrocientos, as
14. decimocuarto
14 catorce 500 quinientos, as
15. decimoquinto
15 quince 600 seiscientos, as
16. decimosexto
16 dieciséis 700 setecientos, as
17. decimoséptimo
17 diecisiete 800 ochocientos, as
18. decimoctavo
18 dieciocho 900 novecientos, as
19. decimonoveno
19 diecinueve
20. vigésimo
20 veinte 1.000 mil
21 veintiuno 2.000 dos mil
26 veintiséis
27 veintisiete
28 veintiocho
29 veintinueve
30 treinta
31 treinta y uno
32 treinta y dos
Determinantes partitivos: señalan una parte de la unidad: medio, doceavo, cuarto...
Distributivo: sendos.
Dual: ambos.
Las formas del artículo son: el, la, lo, para el masculino, femenino y neutro del singular,
respectivamente: los, las, para el plural masculino y femenino. Este artículo se llama determinado.
Delante de nombres femeninos que empiezan por a, á o ha, usamos la forma el; por ejemplo: el
hada, el agua, el áncora.
Se usa también el artículo indeterminado: un, una, unos, unas. Se llama así porque delimita el
concepto del sustantivo mucho menos que el artículo determinado. Basta fijarse en la diferencia
que media entre te entregaré un libro y te entregaré el libro. En el primer caso puede ser un libro
cualquiera y en el segundo es un libro que ambos sujetos conocen.
Determinados Indeterminados
Masculino Femenino Neutro Masculino Femenino
el la lo uno una
los las unos unas
El verbo es una parte de la oración que expresa acción, presión o estado. El concepto de verbo
aparece unido a una importante función dentro de la oración, el predicado. Por ello, la presencia
del verbo es indispensable para formar una oración. El verbo suele combinarse con determinados
morfemas que indican el tiempo, modo, aspecto, voz, número y persona. La persona es común a
los pronombres personales, el número es común al nombre. El tiempo, el modo y el aspecto son en
español sólo verbales y también la voz, aunque no existe para ésta un medio de expresión tan
claro.
Tipos de verbos.- Al igual que los sustantivos existen verbos simples y compuestos (beber-
entresacar); primitivos y derivados (dar, abofetear) derivados de otras categorías: de sustantivos
(martirizar); de adjetivos (endulzar) y también de otros verbos (reconstruir). Sin embargo, existen
otras distinciones más importantes desde el punto de vista de la forma gramatical.
Verbos transitivos e intransitivos: los primeros admiten un complemento directo a diferencia de los
segundos. Una cosa a tener en cuenta en cuenta es que un verbo no puede considerarse ni
transitivo ni intransitivo aisladamente; sólo su función en la frase le da dicho carácter. Pongamos
algunos ejemplos: llevar, decir y hacer son verbos transitivos que siempre necesitan de un
complemento directo, ya que ninguna expresión de llevar, decir o hacer, por sí sola, es completa.
Otros verbos, como comer o beber tienen posibilidades transitivas e intransitivas.
Verbos copulativos y auxiliares: el verbo copulativo sirve esencialmente para unir el sujeto con el
predicado nominal. Los verbos copulativos por excelencia son ser, estar y parecer. Con ser, el
predicado se expresa como una cualidad del sujeto y con estar es un estado lo que se expresa.
Los verbos transitivos pueden desempeñar, en algún caso, una función copulativa, por ejemplo,
tengo a mi padre enfermo equivale a mi padre está enfermo.
Los verbos auxiliares son aquellos que se unen al participio, gerundio e infinitivo formando así
perífrases verbales. Ej: ir a comer, tener que estudiar.
La lengua española es rica en construcciones perifráscticas con verbos auxiliares, que le permiten
completar la conjugación que podríamos llamar normal en la expresión de ciertos morfemas (voz,
aspecto y tiempo)
Los reflexivos: a diferencia de las otras modalidades estos verbos se forman con un verbo y la
partícula se. Hay que tener claro que no todos los verbos son capaces de tener la forma reflexiva.
los accidentes del verbo, que son los siguientes: el tiempo, el número, la persona y el modo.
El tiempo.- Los tiempos gramaticales son las formas que el verbo toma para dar a conocer el
momento en que sucede lo que el verbo significa; ej.: ayer bebí; ahora duermo; mañana trabajaré.
Hay tres tiempos que son fundamentales, y son: presente, pretérito y futuro.
-Presente indica la acción o el estado actual; ej.: ahora viajo.
-Pretérito da a conocer la acción o el estado en un pasado; ej.: ayer fuí.
-Futuro expresa una acción o estado que va a venir; ej.: mañana responderé.
MODO INFINITIVO
(cinco tiempos)
Infinitivo simple Infinitivo compuesto
Gerundio simple Gerundio compuesto
Participio
MODO INDICATIVO
(ocho tiempos)
Presente Pretérito perfecto
Pretérito imperfecto Pretérito pluscuamperfecto
Pretérito indefinido Pretérito anterior
Futuro imperfecto Futuro perfecto
MODO POTENCIAL
(dos tiempos)
Simple o imperfecto Compuesto o perfecto
MODO IMPERATIVO
(un solo tiempo)
Presente
MODO SUBJUNTIVO
(seis tiempos)
Presente Pretérito perfecto
Pretérito imperfecto Pretérito pluscuamperfecto
Futuro imperfecto Futuro perfecto
La persona.- Sirve para señalar la parsona que realiza la acción del verbo. Primera, segunda y
tercera persona.
El verbo está en primera persona (1a) cuando éste se refiere a la persona que habla, ej.: yo hablo.
El verbo está en segunda persona (2a) cuando éste se refiere a aquélla con la que se habla, ej.: tú
estudias.
El verbo está en tercera persona (3a) cuando éste se refiere a aquélla persona de quien se habla,
ej.: Pedro come
La voz.- Sirve para señalar si la acción del verbo es realizada por el sujeto o éste recibe la acción
En español hay voz activa y voz pasiva.
El verbo está en voz activa cuando el sujeto realiza la acción que el verbo expresa; ej.: Ernesto
camina.
El verbo está en voz pasiva cuando el sujeto recibe la acción expresada por el verbo; ej.: Cien años
de soledad fue escrito por Gabriel García Márquez; América fue conquistada por los europeos.
Infinitivo.- El infinitivo es un sustantivo verbal. Puede desempeñar en la oración todos los oficios
que corresponden al sustantiv; más no por ello deja de tener cualidades y empleos propios del
verbo, con la única restricción de no poder expresar por sí mismo tiempos y personas.
a)El infinitivo como nombre: puede ejercer dos funciones o bien como sujeto o como complemento
directo.
Participio.- El participio es un adjetivo verbal. A causa de esta doble naturaleza puede construirse
como adjetivo independient, o entrar en construcciones total o parcialmente asimilables a las del
verbo conjugado.
Por su forma puede ser regular, cuando termina en -ado, -ido (abandonado, pulido); irregular, si
tiene otra terminación (abierto, escrito, hecho). Numerosos verbos presentan un participio regular y
otro irregular se emplea como adjetivo y el regular para formar los tiempos compuestos con el
verbo haber, por ejemplo agua bendita y el obispo ha bendecido a los fieles.
Todas las palabras que se añaden al verbo para modificarlo, es decir, para expresar alguna
cualidad o determinación de la acción verbal, reciben el nombre de adverbios. Estas partículas
pueden modificar a un verbo, un adjetivo o a otro adverbio. En la oración funcionan como
circunstanciales o formando parte de modificadores. Son invariables, ya que no tienen género ni
número. Veamos algunos ejemplos:
-Modifican al adjetivo:
Este jardín es muy hermoso
La casa es demasiado alta
-Modifican al verbo
Juan trabaja bien
El nuevo jefe viene hoy
Tipos.- Según su significación, los adverbios pueden ser de lugar, de modo, de tiempo, de
cantidad, de orden, de afirmación, de negación y de duda. Ejemplos:
Existen numerosos adjetivos que pueden ejercer la función de adverbios, como claro, recio, alto,
limpio. Es fácil determinar en cada caso si les corresponde una u otra función, dependiendo de si
modifican a un sustantivo o a un verbo. Por ejemplo, claro será adjetivo en lenguaje claro, agua
clara, pero será adverbio en hablar claro, escribir claro.
Los adverbios donde, cuando, cuanto y como equivalen a pronombres relativos; por ejemplo: el
barrio donde vivimos es el barrio en que vivimos. Por esto se llaman adverbios relativos. Lo mismo
que los pronombres de su clase, los adverbios relativos llevan acento cuando figuran en oraciones
interrogativas o exclamativas: ¿cómo está usted?, ¿cuándo has llegado?
Si tenemos dos palabras como venir y casa aisladamente, se observa que una significa una acción
y la otra una realidad, pero sin relación alguna entre ellas. No obstante, si queremos conectar
ambos significados en una expresión determinada usaremos una serie de elementos invariables
que posee la lengua para expresar distintas relaciones. Tales elementos son los enlaces
preposicionales, la preposición. De este modo, podemos crear expresiones como venir de casa,
venir a casa, venir por casa, venir hacia casa.
Las preposiciones no solamente unen un verbo (venir) y un sustantivo (casa) como hemos visto en
los ejemplos anteriores. También pueden unir dos sustantivos casa de ladrillos, tienda de coches; o
un adjetivo y un sustantivo, como en la expresión sencillo en gustos. De este modo, podemos decir
que la función principal de las preposiciones es enlazar cualquier palabra con un sustantivo que le
sirve de complemento.
Las tradicionales preposiciones castellanas son: a, ante, cabe, con, contra, de, desde, en, entre,
hacia, hasta, para, por, según, sin, sobre y tras.
Conjunciones.- Las conjunciones son los elementos invariables de la lengua capaces de enlazar
oraciones creando distintas relaciones entre ellas. También a veces se puede observar en la
expresión que las conjunciones unen palabras aisladas, pero en realidad éstas se pueden
considerar como la simplificación expresiva de auténticas oraciones enteras que subyacen en tales
palabras.
Las conjunciones pueden ser coordinantes o subordinantes, según establezcan una u otra relación
entre las oraciones unidas por ellas.
Coordinantes.- Dentro de las conjunciones coordinantes encontramos cinco variantes.
-Adversativas o correctivas: denotan oposición o diferencia entre las oraciones enlazadas: mas,
pero, aunque, sino, sin embargo.
-Consecutivas: presentan a una de las oraciones como consecuencia de la otra: pues, pues que,
supuesto que, puesto que, luego.
-Copulativas: denotan simple enlace sin matices especiales: y, e, ni.
-Distributivas: bien...bien, ya...ya
-Disyuntivas: expresan contradicción: o, u.
-Causales: indican que una de las oraciones es causa o motivo de la otra: porque, pues, pues que,
ya que, como, como que.
-Comparativas: así como, así también, de modo que, tal como.
-Concesivas: expresan en la subordinada una objeción o dificultad para que se efectúe lo que
indica la principal, pero este obstáculo no impidela realización del hecho: aunque, por más que, a
pesar de, que.
-Condicionales: la subordinada expresa la condición para que se realice lo que se dice en la
principal: sí, con tal que, a condición.
-Copulativas: enlazan las subordinadas sustantivas. La única que hay es que.
-Finales: expresan en la subordinada el fin de la principal: a que, para que, a fin de que.
-Modales: entra en su composición un adverbio de modo: conforme, como, según, de modo que,
de manera que.
-Temporales: entra en la composición de algunas un adverbio o expresión de tiempo: cuando, aun
no, no bien, desde que, luego que, antes que, después que, mientras que.
La oración: "La nave espacial se posó sobre la colina", es una proposición. Su primer miembro, "La
nave espacial", indica aquello de lo se va a decir algo. Mientras que el segundo miembro ,"se posó
sobre la colina", es lo que se dice de la nave espacial.
SUJETO:
• El mendigo
• La amabilidad
• Marcela y Francisco
• La botella misteriosa
• Los cinco jinetes del viento
PREDICADO:
En los cinco ejemplos anteriores, se nombran personas, objetos o cualidades (Sujeto) y se dice
alguna cosa de ellos: la forma de vestir, lo que significan, lo que sienten, lo que les pasa, lo que
hacen (Predicado).
El sujeto puede estar ubicado al inicio de la oración o en cualquier otra posición dentro de ella.
¿Qué se dice de ellos? Que "encontraron el barco sumergido en el fondo del mar muchos años
después" (Predicado).
Cuando el sujeto se ubica al medio de la oración, el predicado queda partido en dos segmentos:
No olvides que :
El Sujeto está formado por un elemento principal llamado núcleo, que puede ir acompañado de
otras palabras o frases que lo determinan. El núcleo es indispensable, sin él no hay sujeto. Los
determinantes, en cambio, no siempre están presentes: son opcionales.
Ejemplos:
El núcleo del sujeto cumple siempre una función sustantiva (F. Sust.).
La palabra sustantivo:
En la novela "Cien Años de Soledad" (Gabriel García Márquez) se dice, refiriéndose a una época
remota, "En aquellos tiempos, las cosas carecían de nombre y para indicarlas, había que
señalarlas con el dedo".Esta afirmación nos permite comprender la importancia de contar con
palabras que faciliten asignarle un nombre a las cosas. Cada vez que nombramos algo, usamos un
sustantivo. Lee los siguientes ejemplos:
Todas las palabras en negrita son sustantivos. Con ellas hemos nombrado un elemento del paisaje
(el mar); un ave (gaviota); un sentimiento (amor) y le hemos dado nombre propio a una persona
(Mauricio).
En realidad, los seres humanos le asignamos nombre a todo lo que está a nuestro alrededor.
Sentimos la necesidad de nombrar las cosas para diferenciarlas. Cada vez que conocemos algo
nuevo, preguntamos ¿Cómo se llama? Y cuando sabemos su nombre nos parece más cercano y
familiar .
Al igual que el Sujeto, el Predicado tiene un elemento central y constante, llamado núcleo del
predicado. En forma opcional, éste puede estar acompañado de determinantes. Veamos algunos
ejemplos:
El núcleo del predicado indica lo que hace, dice, siente o piensa el sujeto. Cumple siempre la
función verbal, mediante la palabra verbo.
Los verbos expresan acción, sentimientos, estados y existencia respecto de distintas personas y
tiempos. Algunos verbos son: Cantar, sufrir, jugar, hacer, etcétera.
De todo lo aprendido no puedes olvidar:
Para preguntar, podemos ubicar la acción al inicio de la oración, o utilizar una palabra que indica
interrogación.
• Algo que no puede faltar en este tipo de oraciones son los signos de interrogación delante
y al final de ellas:
¿ ... ?
Estos signos permiten identificar una pregunta.
Las oraciones interrogativas se contestan con oraciones aseverativas, que pueden ser afirmativas
o negativas.
¡ ... !
¿Por qué se llaman oraciones exclamativas?
Por el tono de vos que utilizamos al decirlas. Tomamos aire y luego hablamos con otro ánimo.
• Las oraciones imperativas tienen la particularidad de indicar una orden, un mandato o una
prohibición, no llevan escrito el sujeto.
-Salgamos rápido.
-Quítate el delantal.
Algunas veces, para que la orden no sea tan directa, se utilizan palabras como querer, rogar o
desear.
• Oración unimembre: grupo de palabras que posee un significado, es decir, que transmite
información, y no tiene verbo. Tiene una sola parte, o sea, está formada por un solo
miembro. Por eso se le llama unimembre Dentro de las oraciones unimembres, están todas
las fórmulas de cortesía: expresiones que utilizamos a diario para saludar, despedirse, o
simplemente ser correctos con lo demás. Por ejemplo: hola, buenos días, buenas noches,
hasta luego, muchas gracias, por favor, etcétera.
• Oración bimembre: grupo de palabras con significado, transmite una información completa,
y que además posee verbo. Por esto, puede dividirse en sujeto y predicado, que son las
dos partes o miembros por las que está formada. Ello le da su nombre de bimembre,
donde bi quiere decir dos, y membre, miembro.
Complementos en la oración
• calificativo: integrado por uno o varios adjetivos calificativos o determinativos. Otorga una
cualidad, peculariedad o manera de ser a la palabra que modifica. Ejemplo: Mi papá llegará
pronto.
• determinativo o de especificación: formado por un sustantivo que se une al sujeto por
medio de una preposición. Ejemplo: Ese computador es muy lento.
• explicativo: meciona datos incidentales, aclara y puede suprimirse sin que varíe el sentido
de la oración. Va siempre entre comas. Ejemplo: Cristóbal Colón, osado navegante,
descubrió América.
Muchos aspectos de nuestra vida actual tienen sus remotos orígenes en el mundo clásico. La
democracia, la republica, la filosofía, la poesía, la tragedia e inclusive el atletismo, las olimpiadas y
la escuela nacieron muchos siglos atrás, en las costas del mediterráneo.
La civilización griega se remonta a la cultura de los aqueos. Esta cultura fue modificada
posteriormente con la llegada de nuevos pueblos que, poco a poco, fueron consolidando una gran
civilización formada por polis (ciudades-estados). La civilización griega llego a su plenitud alrededor
del siglo V a. de. C., cuando Atenas alcanzo un formidable desarrollo artístico y cultural. Por otra
parte, los hombres comunes anteriormente excluidos de la política por la nobleza empezaron a
participar en ella, convirtiendo a Atenas en la primera democracia de nuestra historia.
Cada cultura tiene una explicación diferente sobre el origen del mundo y del hombre. Los griegos
representaron a través de bellísimos mitos.
Los personajes de estos mitos eran los dioses y los héroes. Los dioses eran inmortales y
sumamente poderosos, pero también tenían mucho parecido con los humanos inclusive
compartían con los hombres sus virtudes y defectos: celos, envidia, rencor, etc. Otros mitos eran
protagonizados por los llamados héroes, hombres que tenían cualidades extraordinarias por ser
hijos de un dios y un mortal.
Los dioses griegos inagotable fuente de inspiración para los poetas, fueron adoptados
posteriormente por los romanos, y desde entonces hasta la actualidad, durante siglos y siglos, los
mitos griegos han inspirados muchas manifestaciones artísticas de poetas, escritores, escultores y
pintores.
EL ARTE GRIEGO
LA LITERATURA GRIEGA
POESIA EPICA
Los primitivos habitantes de Grecia, los pueblos de las civilizaciones egea y micénica, poseyeron
una literatura oral compuesta en su mayor parte por canciones que hablaban de las guerras, las
cosechas y los ritos funerarios. Los helenos se apropiaron de estas canciones en el segundo
milenio a.C. y, aunque no se conserva ningún fragmento, los cantos de los aedos dedicados a los
héroes prefiguran la poesía épica.
La épica griega alcanzó su máximo esplendor con la Iliada y la Odisea de Homero, aunque se cree
que pueden ser obra de una sucesión de poetas que vivieron a lo largo del siglo IX a.C. Escritos en
dialecto jónico con mezclas eólico, la perfección de sus versos hexámetros dáctilos indica que los
poemas son la culminación, más que el principio, de una tradición literaria. Los poemas épicos
homéricos se difundieron en las recitaciones de cantores profesionales que, en sucesivas
generaciones, alteraron el original, actualizando el lenguaje. Esta tradición oral se mantuvo durante
más de cuatro siglos.
La crítica textual contemporánea ha establecido que varias de las obras atribuidas en un principio a
Homero son de autoría posterior. Las más tempranas son, probablemente, los llamados 34 himnos
homéricos, fechados entre el 700 y el 400 a.C., una magnífica serie de himnos a los dioses escritos
en hexámetros dactílicos. Entre otros poemas semejantes destaca la burlesca Batracomiomaquia.
Poco después de Homero, el poeta Hesíodo escribió su obra principal, Los trabajos y los días,
compuesta también en dialecto jónico con algunas mezclas de eólico. Es el primer poema griego
que abandona la leyenda o el mito para centrarse en la vida cotidiana, las experiencias y
pensamientos de un granjero beocio. La Teogonía, normalmente atribuida a Hesíodo, aunque
algunos críticos la consideran posterior, narra el nacimiento del orden a partir del caos y el de los
dioses.
El dístico elegíaco se popularizó en toda Grecia durante el siglo VII a.C. y se utilizó en
composiciones de todas clases, desde canciones fúnebres a canciones de amor. El primer autor
conocido de elegías fue Calino de Éfeso. Otros famosos poetas elegíacos primitivos fueron Tirteo
de Esparta, Mimnermo de Colofón, Arquíloco de Paros, Solón el primer poeta ateniense y Teognis
de Megara.
POESIA LIRICA
La lírica procede de canciones acompañadas de la lira, y en la antigua Grecia había dos tipos
principales, la personal y la coral.
La lírica personal se desarrolló en la isla de Lesbos. El poeta y músico Terpandro, que había nacido
en Lesbos pero que vivió casi toda su vida en Esparta, está considerado como el primer poeta lírico
griego porque fue el que antes compuso música y poesía. La mayor parte de sus poemas eran
nomos o himnos litúrgicos en honor de Apolo, y cantados por un solo intérprete acompañado de la
lira.
Después de Terpandro aparecieron en el siglo VII a.C. los grandes poetas de Lesbos. Los poemas
líricos de Alceo, inventor de la estrofa alcea, hablan de temas políticos, religiosos e intimistas. Safo,
la poetisa más importante de la antigua Grecia, creó la estrofa sáfica aunque escribió también en
otras formas líricas. Sus poemas de amor y amistad se encuentran entre los más apasionados y
mejor trabajados de la tradición occidental. Los poetas lésbicos, así como varios poetas líricos
posteriores de otras ciudades griegas, compusieron en dialecto eólico.
En el siglo VI a.C., el poeta Anacreonte escribió alegres poemas sobre el vino y el amor en varios
metros líricos; sus obras posteriores, similares en tono y tema, se conocen como anacreónticos.
También escribió dísticos (pareados) elegíacos, epigramas y poemas en metros yámbicos.
La lírica coral surgió en el siglo VII a.C. obra de poetas que escribieron en dialecto dórico,
dominante en la región de Esparta, y que se utilizó incluso en épocas posteriores cuando los
poetas de otros lugares de Grecia adoptaban este género lírico. Los poetas espartanos fueron los
primeros en escribir de esta forma canciones para celebraciones públicas religiosas. Más tarde lo
hicieron para celebrar triunfos personales, como, por ejemplo, una victoria en los juegos olímpicos.
Taletas, que viajó de Creta a Esparta para sofocar una epidemia con himnos corales a Apolo, fue
probablemente el primer poeta lírico coral. Le siguieron Terpandro, que escribió tanto poemas
líricos intimistas como corales; Alcmán, autor sobre todo de partheneia, es decir, himnos
procesionales corales cantados por un coro de doncellas y de carácter parcialmente religioso, de
tono más ligero que los himnos a Apolo; y Arión, posible creador del ditirambo (forma poética en
honor a Dioniso) y del estilo trágico, que se utilizó ampliamente en el drama griego. Entre los
grandes escritores posteriores de poemas líricos corales se encuentran el poeta siciliano
Estesícoro, contemporáneo de Alceo, que introdujo la forma ternaria de la oda coral, consistente en
series de grupos de tres estrofas; Íbico de Reggio, autor de un largo fragmento que se conserva de
una oda coral ternaria y de poemas líricos personales eróticos; Simónides de Ceos, cuya lírica
coral incluye epinicia, u odas corales en honor de los vencedores en los juegos olímpicos, encomia,
o himnos corales en honor a personas concretas, y cantos fúnebres, además de poemas líricos
personales que incluyen epigramas; y Baquílides de Ceos, sobrino de Simónides, que escribió
epinicios, de los que se conservan trece, y ditirambos, cinco de los cuales han llegado hasta la
actualidad.
La lírica coral alcanzó su apogeo hacia mediados del siglo V a.C. en las obras de Píndaro, que
escribió muchos poemas de este género en todas las formas, incluyendo himnos, ditirambos y
epinicios. Se conserva cerca de la cuarta parte de su obra, principalmente epinicios con la
estructura trinaria creada por Estesícoro. Las tragedias de la época incluyen muchas odas corales
importantes.
EL TEATRO
A inicios de la primavera, las ciudades griegas celebraron fiestas populares en honor a Dionisio,
dios del vino. Estas eran parecidas a los carnavales: la gente bailaba cantaba y se emborrachaba
en las calles. Unos coros desfilaban por la ciudad, dirigidos por una persona que se llamaba
corifeo. Paulatinamente los coros comenzaron a entablar diálogos con el corifeo, lo cual dio origen
al establecimiento de parlamentos fijos para cada uno de ellos. De esta manera nació la forma
expresiva fundamental del teatro: el dialogo.
Con el paso del tiempo algunos interrogantes del coro se especializaron en la recitación de algunos
pasajes del parlamento, con lo cual se dio origen a la figura del actor. Al comienzo el número de
actores era muy reducido: dos o tres a lo sumo. Sin embargo , junto con el corifeo y el coro
conformaron los elementos básicos de la representaciones teatrales en la Grecia antigua.
Había dos tipos principales de obras, la tragedia y la comedia. Aunque ambas estaban escritas en
verso existían entre ellas diferencias notables.
LA TRAGEDIA
La tragedia, tal y como hoy se la conoce, se cree que fue creada en el siglo VI a.C. por el poeta
ateniense Esquilo, que introdujo el papel de un segundo actor, aparte del coro. Sus tragedias,
cerca de 90, versan sobre temas tan excelsos como la divinidad y las relaciones de los seres
humanos con los dioses. Únicamente siete de sus obras han llegado hasta hoy, entre ellas
Prometeo encadenado, que narra el castigo de Zeus al titán Prometeo, y la Orestiada, trilogía que
retrata el asesinato del héroe griego Agamenón por su mujer, el de ésta por su hijo Orestes y el
posterior destino de Orestes
LA COMEDIA
Uno de los más grandes poetas cómicos fue Aristófanes, cuya primera comedia, Daitaleis, hoy
perdida, data del 427 a.C. Empleando la sátira dramática, ridiculizó a Eurípides en Las ranas y a
Sócrates en Las nubes. Estas obras representan la antigua comedia de la literatura griega.
La comedia griega posterior se divide en dos grupos, la comedia media (400-336 a.C.) y la
comedia nueva (336-250 a.C.). En la media, ejemplificada por las dos últimas obras de Aristófanes,
La asamblea de las mujeres y Pluto, ambas escritas entre 392 y 388 a.C., la sátira personal y
política se reemplaza por la parodia, la ridiculización de los mitos y la crítica literaria y filosófica.
Los principales autores de la comedia media fueron Antífanes de Atenas y Alexis de Thruil. Sólo se
conservan fragmentos de sus obras.
En la comedia nueva, la sátira se sustituye por la comedia social, con tramas y personajes
cotidianos y familiares, y temas de amor romántico. El principal autor de esta comedia nueva fue
Menandro, cuya influencia alcanzó a los dramaturgos latinos de los siglos III y II a.C., sobre todo a
Plauto y Terencio. Se conservan una obra completa de Menandro, El tacaño, y fragmentos de
otras.
AUTORES
Homero, nombre tradicionalmente asignado al famoso autor de la Iliada y la Odisea, las dos
grandes epopeyas de la antigüedad griega. Nada se sabe de su persona, y de hecho algunos
ponen en duda que sean de él estas dos obras. Sin embargo, los datos lingüísticos e históricos de
que se dispone, permiten suponer que los poemas fueron escritos en los asentamientos griegos de
la costa oeste de Asia Menor, hacia el siglo IX a.C.
LA ILIADA
Las dos epopeyas narran hechos legendarios que supuestamente ocurrieron muchos siglos antes
de la época en que fueron escritas. La Iliada se sitúa en el último año de la guerra de Troya, que
constituye el telón de fondo de su trama. Narra la historia de la cólera del héroe griego Aquiles.
Insultado por su comandante en jefe, Agamenón, el joven guerrero Aquiles se retira de la batalla,
abandonando a su suerte a sus compatriotas griegos, que sufren terribles derrotas a manos de los
troyanos. Aquiles rechaza todos los intentos de reconciliación por parte de los griegos, aunque
finalmente cede en cierto modo al permitir a su compañero Patroclo ponerse a la cabeza de sus
tropas. Patroclo muere en el combate, y Aquiles, presa de furia y rencor, dirige su odio hacia los
troyanos, a cuyo líder, Héctor (hijo del rey Príamo), derrota en combate singular. El poema
concluye cuando Aquiles entrega el cadáver de Héctor a Príamo, para que éste lo entierre,
reconociendo así cierta afinidad con el rey troyano, puesto que ambos deben enfrentarse a la
tragedia de la muerte y el luto.
LA ODISEA
La Odisea narra el regreso del héroe griego Odiseo de la guerra de Troya. En las escenas iniciales
se relata el desorden en que ha quedado sumida la casa de Odiseo tras su larga ausencia. Un
grupo de pretendientes de su esposa Penélope está acabando con sus propiedades. A
continuación, la historia se centra en el propio héroe. El relato abarca sus diez años de viajes, en el
curso de los cuales se enfrenta a diversos peligros, como el cíclope devorador de hombres,
Polifemo, y a amenazas tan sutiles como la que representa la diosa Calipso, que le promete la
inmortalidad si renuncia a volver a casa. La segunda mitad del poema comienza con la llegada de
Odiseo a su isla natal, Ítaca. Aquí, haciendo gala de una sangre fría y una paciencia infinitas, pone
a prueba la lealtad de sus sirvientes, trama y lleva a efecto una sangrienta venganza contra los
pretendientes de Penélope, y se reúne de nuevo con su hijo, su esposa y su anciano padre.
IMPORTANCIA DE SU OBRA
El merito de Homero no esta en la creación de los argumentos, ya que estos fueron tomados de
leyendas muy conocida de su época, si no en el bello lenguaje que emplea para relatarlos. A lo
largo de la obra se suceden poéticas descripciones y hábiles recursos con los que Homero da vida
a sus personajes. El mas conocido de estos recursos es el empleo de los epítetos con los que
acompaña los nombres de sus protagonistas: Aquiles, el de los pies ligeros; odiseo, el destructor
de las ciudades, atenea, la de los ojos de lechuza, etc.
Además, sus personajes son recordados a través de los siglos porque son profundamente
humanos: sufren pasiones encendidas, odio y venganza, pero también actúan con lealtad, sienten
amor y nostalgia y aceptan las limitaciones que les son impuestas por unos seres superiores: los
dioses.
SOFOCLES
Sófocles nació en Colono Hípico (hoy parte de Atenas) alrededor del año 496 a.C. Hijo de Sofilo,
un acomodado fabricante de armaduras, Sófocles recibió la mejor educación aristocrática
tradicional. De joven fue llamado a dirigir el coro de muchachos para celebrar la victoria naval de
Salamina en el año 480 a.C. En el 468 a.C., a la edad de 28 años, derrotó a Esquilo, cuya
preeminencia como poeta trágico había sido indiscutible hasta entonces, en el curso de un
concurso dramático. En el 441 a.C. fue derrotado a su vez por Eurípides en uno de los concursos
dramáticos que se celebraban anualmente en Atenas. Sin embargo, a partir del 468 a.C., Sófocles
ganó el primer premio en veinte ocasiones, y obtuvo en muchas otras el segundo. Su vida, que
concluyó en el año 406 a.C., cuando el escritor contaba casi noventa años, coincidió con el periodo
de esplendor de Atenas. Entre sus amigos figuran el historiador Herodoto y el estadista Pericles.
Pese a no comprometerse activamente en la vida política y carecer de aspiraciones militares, fue
elegido por los atenienses en dos ocasiones para desempeñar una importante función militar.
Lo mas importante para Sófocles era el estudio del alma humana. Sus personales son seres
humanos sacudidos por hondas pasiones (el sufrimiento, la traición, la venganza, el deshonor, etc)
y agitados por un destino que no pueden controlar con su voluntad.
Sófocles no se muestra ajeno al sufrimiento de los hombres sino que los expone con dramática
claridad.
Uno de los aspectos más interesantes del estilo de Sófocles es la presentación de la psiquis de los
personajes. El conflicto trágico en Sófocles no es el carácter absoluto, es decir, no se plantea en
función del cumplimiento de un destino inexorable, sin o que surge el interior del alma humana
como una contraposición entre el sujeto y el mundo. En este sentido, los conflictos de las tragedias
de Sófocles tiene una dimensión muy interesante. Esta forma básica del conflicto será retomada
siglos después en otros géneros típicamente modernos tales como la novela y el drama
LITERATURA ROMANA
LA INFLUENCIA GRIEGA
A la llegada de los conquistadores romanos, Grecia ya había alcanzado el punto más alto de sus
logros culturales e iniciaban la decadencia. Los romanos, entusiasmados por una cultura muy
superior a la suya, empezaron por copias los modelos griegos de la arquitectura y escultura. Es así
como construyeron templos con columnas y frontis, y también esculpieron retratos realistas al estilo
griego.
Incluso la mitología griega se trasladó al mundo romano con ligeras modificaciones: cambiaron los
nombres de los dioses, pero no las virtudes y poderes que los caracterizaba.
Esta adaptación del mundo griego sirvió como fundamento para el florecimiento de las formas
artísticas de expresión al interior del imperio.
En cuanto a la literatura, los romanos se esforzaron por adaptar a su lengua, el latín, los modelos
griegos del teatro, la poesía épica y la lírica. Por eso la literatura romana se considera una
prolongación de la griega, pero revitalizada con la energía y la lengua del joven pueblo romano.
La literatura anterior a la conquista de Grecia era bastante rudimentaria. No existían aun los tres
géneros literarios clásicos (épica, lírica y teatro) y consistía en pequeñas composiciones poéticas
denominadas carmina que se interpretaba en los actos públicos y en las ceremonias religiosas.
El natalicio de la literatura latina suele ubicarse en el año 240 a. de. C. Ese año, los magistrados
romanos encargaron al Livio Andrónico, un esclavo griego, que tradujera y adaptara una comedia y
una tragedia griegas para ofrecerlas al pueblo romano como un espectáculo más de los juegos
públicos. El éxito determinó que desde entonces la representación de este tipo de obras se hiciera
habitual.
Pero el teatro romano tenía un objetivo muy diferente al del teatro griego: no pretendía la catarsis o
purificación de las pasiones, sino que era un espectáculo más, como el circo , cuyo fin era divertir y
hacer reír al público.
Esto se debe fundamenta a que en el alma romana no existía una conciencia clara del valor ritual
que para los griegos tenían las representaciones dramáticas: la puesta en escena de los
acontecimientos vividos por los personajes no tenía un sentido trascendental sino que se
contemplaba desde el exterior, sin lograr la identificación que provocaba la catarsis.
A diferencia de la poesía griega, compuesta para ser recitada o cantada, la romana fue creada para
ser leída y difundida a través de un manuscrito.
La poesía latina vivió sus momentos mas fructíferos y brillantes durante la época del emperador
augusto (de finales del siglo I a. de c. A principios del silgo I d. de. c.) ello se debió en gran parte al
propio augusto y también a su ministro mecenas, quienes dieron considerable protección a los
escritores de la época, tanto épicos como líricos.
LA EPICA: las epopeyas griegas despertaron en los romanos deseos de tener una poesía épica
nacional, que explicara los orígenes de roma. Entonces Virgilio, poeta romano emprendió la tarea
de escribir la eneida. En esta obra se ubican los orígenes de roma en el admirado mundo griego.
LA LIRICA: durante siglos, los poetas latinos se esforzaron para crear una lengua poética tan rica y
expresiva como el griego; pero sus versos no conseguían la gracia y la musicalidad de los versos
escritos de la lengua griega. En la poesía lírica, este esfuerzo culmino en el siglo I a de c. Con
Virgilio y Horacio, inspirándose en los poetas griegos, lograron una poesía lírica propiamente latina
y de plenitud.
Las obras de estos poetas son, hasta hoy pieza maestra de la literatura universal.
AUTORES
VIRGILIO
próximo a Mantua. Su padre era un humilde campesino. Virgilio estudió en profundidad las
literaturas griega y romana, además de retórica y filosofía, en Cremona, Mediolanum (hoy Milán),
Roma y Nápoles. Gracias a la protección del político romano Cayo Mecenas, Virgilio se vio libre de
preocupaciones económicas y pudo entregarse plenamente al estudio y a la literatura. Pasó la
mayor parte de su vida en Nápoles y Nola, y entre sus amigos más íntimos figuran su protector y
mecenas, Octavio, que más tarde se convertiría en el emperador Augusto, y muchos eminentes
poetas, como Horacio y Lucio Vario Rufo. En el año 19 a.C. emprendió un viaje por Grecia y Asia,
con la intención de revisar su obra maestra, la Eneida, prácticamente terminada para entonces, y
dedicar el resto de su vida al estudio de la filosofía. En Atenas, se reunió con Augusto y regresó
con él a Italia. Virgilio enfermó antes de embarcar y murió poco después de su llegada a Brindes
(hoy Brindisi). En su lecho de muerte, Virgilio ordenó a Augusto que destruyera la Eneida; sin
embargo, el poema fue revisado y publicado por Vario Rufo y Plotio Tuca.
+sin embargo, también es el centro de la patria, a que su obra más perfecta, la eneida, vincula el
origen del pueblo romano con el glorioso pasado griego.
La eneida narra las aventuras de Eneas (héroe de la guerra de Troya que se narra en la Iliada)
quien, después de realizar muchas hazaña, se instala en el lacio, región donde más tarde dará
comienzo a la estirpe romana.
Con la Ilíada, Virgilio no sólo buscaba explicar los orígenes heroicos de Roma, sino también
resumir todo su pasado, sus personajes ilustres y sus instituciones.
HORACIO
Horacio (65 a.C.-8 a.C.), poeta lírico y satírico romano, autor de obras maestras de la edad de oro
de la literatura latina.
Quinto Horacio Flaco nació en diciembre del año 65 a.C., hijo de un liberto, en Venusia (hoy
Venosa Apulia, Italia). Estudió en Roma y Atenas filosofía griega y poesía en la Academia. Fue
nombrado tribuno militar por Marco Junio Bruto, uno de los asesinos de Julio César. Luchó en el
lado del ejército republicano que cayó derrotado por Marco Antonio y Octavio (después Augusto) en
Filipos. Gracias a una amnistía general volvió a Roma y rechazó el cargo de secretario personal de
Augusto para dedicarse a escribir poesía.
Cuando el poeta laureado Virgilio conoció sus poemas, hacia el año 38 a.C., le presentó al
estadista Cayo Mecenas, un patrocinador de las artes y amigo de Octavio, que le introdujo en los
círculos literarios y políticos de Roma, y en 33 a.C. le entregó una propiedad en las colinas de
Sabina donde se retiró a escribir y pensar.
Horacio, uno de los grandes poetas de Roma, escribió obras de cuatro tipos: sátiras, epodos, odas
y epístolas. Sus Sátiras abordan cuestiones éticas como el poder destructor de la ambición, la
estupidez de los extremismos y la codicia por la riqueza o la posición social. El Libro I (35 a.C.) y el
Libro II (30 a.C.) de las Sátiras, ambos escritos en hexámetros, eran una imitación del satírico
Lucilio. Las diez sátiras del Libro I y las ocho del Libro II están atemperadas por la tolerancia.
Aunque los Epodos aparecieron también el 30 a.C., se escribieron con anterioridad, ya que
reclaman con pasión el fin de la guerra civil, que terminó con la victoria de Octavio sobre Antonio
en Actium en el año 31 a.C., y critican mordazmente los abusos sociales. Los 17 poemas cortos en
dísticos yámbicos de los Epodos constituyen adaptaciones del estilo lírico griego creado por el
poeta Arquíloco. La poesía más importante de Horacio se encuentra en las Odas, Libros I, II y III
(23 a.C.), adaptadas y algunas, imitaciones directas de los poetas Anacreonte, Alceo y Safo. En
ellas pone de manifiesto su herencia de la poesía lírica griega y predica la paz, el patriotismo, el
amor, la amistad, el vino, los placeres del campo y la sencillez. Estas obras no eran totalmente
políticas y de hecho incorporan bastante mitología griega y romana. Se nota la influencia de
Píndaro y son famosas por su ritmo, ironía y refinamiento. Fueron muy imitadas por poetas
renacentistas europeos.
LA EDAD MEDIA
Tras la caída de Romo, Europa se fragmento y las distintas regiones quedaron aisladas. Como
resultado, las diferencias del latín que se habla en cada lugar se fueron haciendo enormes. Así
aparecieron las diversas lenguas romances como el castellano, francés, el italiano, el portugués,
etc.
LALITERATURA MEDIEVAL
Entre los siglos V y XII, las obras literarias fueron muy escasas. La mayor parte de ellas eran obras
de carácter religioso, escritas en latín por los clérigos de esta época. Son embargo también nos
han llegado algunas piezas literarias que pertenecieron a la tradición oral de los pueblos
germánicos y anglosajones. Entre ellos destacan la leyenda de los nibelungos, de origen
germánico y el Beowulf, un extenso poema épico que es considerado una de las obras mas
importantes de la historia literaria inglesa.
En el comienzo de toda literatura es frecuente que los géneros literarios no aparezcan en estado
puro. Esto es lo que sucede también en la literatura medieval. Por es, existen diversas
composiciones difíciles de encasillar en un genero determinado. Tal acontece, por ejemplo, con los
famosos debates o disputas que tanto prestigio tuvieron en la literatura provenzal. El género que
aparece antes es la lírica. Las primeras composiciones líricas suelen ser cancioncillas, puestas
generalmente en labios de una mujer, que se recitaban durante el transcurso de algunos actos
solemnes o cotidianos. Después de la lírica surge la épica, genero que permite narrar hazañas de
unos héroes colectivos en la formación de los pueblos.
Mas inciertos son los orígenes del teatro medieval, acaso ligados a representaciones de carácter
religioso. Las celebración de la liturgia en la que un celebrante el sacerdote es respondido por un
coro los fieles lleva en si el germen del teatro y solo cabe esperar que esta representación se
formalice y se independice como pieza teatral. La prosa, por su parte, es de aparición posterior al
verso y coincide generalmente con la consolidación de las lenguas romances.
A partir del siglo XII, y como consecuencia de la consolidación de las lenguas romances, empezó a
desarrollarse en Europa una importante literatura compuesta en los primitivos dialectos que dieron
origen al castellano, al francés y al italiano. Cronológicamente las principales manifestaciones
literarias de esta época fueron:
LOS CANTARES DE GESTA : eran poemas épicos anónimos que los juglares recitaban ante un
publico diverso. Relataban la historia de un personaje, generalmente de carácter histórico, que
sintetizaba los valores de la comunidad.
Los cantares tuvieron un éxito enorme en su época, actualmente se conservan mas de cien; sin
embargo los mas conocidos son la canción de roldan, un cantar francés que transcurre en la época
del emperador Carlos magno, y el cantar del mio cid la primera obra literaria compuesta en
castellano.
LA POESIA PROVENZAL: la primera lírica culta en lengua romance surgió en Provenza y otras
cortes del sur de Francia era una poesía de tema amoroso, escrita pro los trovadores, poetas de
gusto refinado elevada posición social. Su interpretación se acompañaba con música y estaba a
cargo del propio trovador o de un juglar al que su autor contrataba. En sus poemas escritos en
primera persona, los trovadores creaban un nuevo concepto de amor: el amor cortes llamado así
porque solo podía darse entre damas y caballeros nobles que Vivian en la corte.
Lo que característico del amor cortes es que siempre se trata de un sentimiento altamente
espiritualizado que no desdeña un fuerte contenido erótico. La amada generalmente casada con un
señor poderoso, es descrita por el poeta como un ser frágil, puro y dotado de las mas elevadas
virtudes.
LAS NOVELAS DE CABALLERIA: son las primeras composiciones escritas en prosa. Estas
narraciones contaban las hazañas e un caballero, cuyo principal propósito no era otro que defender
a su señor y conquistar el corazón de una virtuosa dama.
Uno de los motivos principales de las novelas de caballería se encuentra en la figura legendaria del
rey Arturo o Artús y sus caballeros de la mesa redonda, verdaderos prototipos del personajes
caballeresco.
Las novelas de caballería tuvieron un gran éxito en toda Europa. El autor más conocido es
cherétien de Tríos quien es considerado, además, como uno de los creadores de la novela
moderna.
EL DOLCE STIL NOVE: fue una escuela literaria que se desarrollo en Italia y que también recreo el
tema del amor. El mismo nombre de la escuela nos habla de su intención renovadora: el dulce
estilo nuevo hacía referencia a la nueva forma de ensalzar el amor: los poetas del Dulce Estilo
Nuevo sostenían que la poesía debía reflejar la belleza y ser la expresión de un sentimiento puro y
delicado.
Por eso introdujeron nuevas formas métricas e incorporaron recursos más refinados y elegantes.
Estos logros enriquecieron considerablemente la expresión en las jóvenes lenguas romances.
EL CUENTO: es un genero literario que tiene sus raíces en los antiguos relatos orales que son
comunes a todos los pueblos.
Sin embargo, en occidente el cuento nace como género literario con dos obras: los cuentos de
canterbury, de goeffrey chucer y el Decameron, de Giovanni Boccaccio. Esta última obra se
considera como un verdadero testimonio de la cultura características de la baja edad media.
AUTORES
DANTE ALIGHIERI
(1265-1321), poeta, prosista, teórico de la literatura, filósofo y pensador político italiano. Está
considerado como una de las figuras más sobresalientes de la literatura universal, admirado por su
espiritualidad y por su profundidad intelectual.
LA DIVINA COMEDIA
Dante debió de comenzar su obra maestra, la Divina Comedia, alrededor de 1307 y la concluyó
probablemente poco antes de su muerte. Se trata de una narración alegórica en verso, de gran
precisión y fuerza dramática, en la que se describe el imaginario viaje del poeta a través del
Infierno, el Purgatorio y el Paraíso. Está dividida en tres grandes secciones, que reciben su título
de las tres etapas del recorrido. En cada uno de estos tres mundos Dante se va encontrando con
personajes mitológicos, históricos o contemporáneos suyos, cada uno de los cuales simboliza un
defecto o virtud, ya sea en el terreno de la política como en el de la religión. Así, los castigos o las
recompensas que reciben por sus obras ilustran un esquema universal de valores morales.
Durante su periplo a través del Infierno y el Purgatorio, el guía del poeta es Virgilio, alabado por
Dante como el representante máximo de la razón. Beatriz, a quien Dante consideró siempre tanto
la manifestación como el instrumento de la voluntad divina, lo guía a través del Paraíso.
Cada una de las secciones incluye 33 cantos, excepto la primera, que incluye uno más y sirve
como introducción. Este extenso poema está escrito en tersa rima, una estructura rimada cuya
distribución es la siguiente: ABA BCB CDC... etc. La intención de Dante al componer este poema
era llegar al mayor número posible de lectores, y por ello lo escribió en italiano, y no en latín. Lo
tituló Comedia porque tiene un final feliz, en el Paraíso, al que llega al final de su viaje. El poeta
puede por fin contemplar a Dios y siente cómo su propia voluntad se funde con la divina. Este
adjetivo, divina, no apareció en el título hasta la edición de 1555, llevada a cabo por Ludovico
Dolce.
La obra, que constituye un catálogo del pensamiento político, científico y filosófico de su tiempo,
puede interpretarse en cuatro niveles: el literal, el alegórico, el moral y el místico. Ciertamente, es
una impresionante dramatización de toda la teología cristiana medieval, pero, más allá de esta
consideración, el viaje imaginario de Dante puede ser interpretado como una alegoría de la
purificación del alma y de la consecución de la paz bajo la guía de la razón y el amor.
GIOVANNI BOCCACCIO
(1313-1375), poeta y humanista italiano, uno de los más grandes escritores de todos los tiempos.
Boccaccio probablemente nació en París aunque sea un hecho muy discutido, hijo ilegítimo de un
comerciante florentino y una noble francesa. Criado en Florencia, fue enviado a estudiar el arte del
comercio a Nápoles, hacia el 1323. Abandonó la contabilidad por el Derecho Canónico y éste por
los estudios clásicos y científicos. Formó parte de la corte de Roberto de Anjou, rey de Nápoles. Se
suponía que el rey tenía una hija ilegítima, Maria dei Conti d'Aquino. Aunque no se han encontrado
pruebas concluyentes de su existencia, se ha dicho que fue amante de Boccaccio y que inspiró
gran parte de su obra. Puede incluso que sea la Fiammetta inmortalizada en sus escritos.
A su regreso a Florencia, hacia 1340, Boccaccio desempeñó varios cargos diplomáticos con el
gobierno de la ciudad, y en 1350 conoció al gran poeta y humanista Petrarca, con el que mantuvo
una estrecha amistad hasta la muerte de Petrarca en 1374. En 1362, un amigo invitó a Boccaccio
para que fuera a Nápoles, prometiéndole el patronazgo de la reina Juana. Una fría recepción por
parte de la corte de la reina le llevó a buscar la hospitalidad de Petrarca, que entonces estaba en
Venecia (1363). Sin embargo, rechazó la oferta que le hizo Petrarca de una casa y regresó a su
propiedad de Certaldo (cerca de Florencia). Los años finales de Boccaccio, en los que se dedicó a
la meditación religiosa, tuvieron la alegría de su nombramiento en 1373 como lector oficial de
Dante. Su serie de lecturas quedó interrumpida por una enfermedad en 1374, y murió el año
siguiente.
La obra más importante de Boccaccio es El Decamerón, que empezó en 1348 y terminó en 1353.
Esta colección de cien relatos ingeniosos, alegres, se desarrolla en un marco concreto: un grupo
de amigos “educados, afortunados y discretos”, siete mujeres y tres hombres, para escapar a un
brote de peste se refugian en una villa de las afueras de Florencia. Allí se entretienen unos a otros
durante un periodo de diez días (de ahí el título) con una serie de relatos contados por cada uno de
ellos por turno. El relato de cada día termina con una canción, una canción para bailar entonada
por uno de los narradores; estas canciones representan algunas de las muestras más exquisitas de
la poesía lírica de Boccaccio. Al terminar el cuento número cien, los amigos vuelven a sus casas de
la ciudad. El Decamerón es la primera obra plenamente renacentista ya que se ocupa sólo de
aspectos humanos y sin hacer mención a temas religiosos y teológicos. Es notable por la riqueza y
variedad de los cuentos, que alternan entre la solemnidad y el humor; por la brillantez de su
escritura, y por su penetrante análisis de los personajes. En esta obra Boccaccio reunió material de
muchas fuentes: fabliaux franceses, clásicos griegos y latinos, relatos populares y observaciones
de la vida italiana de su época. El Decamerón rompió con la tradición literaria y, por primera vez en
la edad media, Boccaccio presentó al hombre como artífice de su destino, más que como un ser a
merced de la gracia divina.
EL RENACIMIENTO
Corriente artística y literaria que predominó en Europa entre los siglos XV y XVI. Debe su nombre
al hecho de que significo el resurgimiento del arte y la cultura grecolatina de la antigüedad.
Para muchos, el renacimiento significó un cambio profundo en todos los órdenes de la vida.
LA LITERATURA RENACENTISTA
CARACTERÍSTICAS GENERALES
Los escritores renacentistas tuvieron como modelo la obra de los autores clásicos, particularmente
de los latinos Horacio, Virgilio y Ovidio.
Sin embargo , y a pesar de la fuerte influencia grecolatina, durante esta época surgieron algunos
de los más grandes autores de la literatura universal. Ellos, guiados por los principios clásicos de
belleza y armonía, renovación la lengua poética y crearon nuevas formas de expresión.
Durante la edad media las obras literarias perseguían casi siempre un fin didáctico o moralizador;
la función artística quedaba subordinada al propósito de enseñar o instruir en las verdades dela
moral y la religión. Durante el Renacimiento, en cambio , predominó en el arte una intencionalidad
estética, y los poetas concibieron por lo general sus creaciones literarias como obras de arte. De
ahí el esmero con el que los escritores renacentistas cuidaron la forma de sus obras.
Fue un poeta nacido en la época medieval, aunque de espíritu renacentista, el italiano Francesco
Petrarca, quien proporcionó las nuevas claves de la obra literaria. Su concepto idealizo del amor,
su imagen de la mujer amada y el sentido plástico y armónico de la belleza en la composición del
poema marcaron las pautas de la poesía durante el siglo XVI.
La literatura renacentista fue la expresión del pensamiento humanista. Por eso, el hombre era su
principal preocupación; y su vida y su entorno, los temas más frecuentes.
EL AMOR: siguiendo con la tradición del amor cortés de la poesía prevenzal, los autores
desarrollaron el tema del amor como un sentimiento idealizado, generalmente platónico e
insatisfecho.
LA NATURALEZA: para los autores renacentistas la naturaleza era una fuentes de belleza. El
paisaje aparecía siempre muy idealizado, como un símbolo de armonía y paz que contrastaba con
la vida agitada y desordenada de las ciudades.
LA LÍRICA
los poetas renacentistas se caracterizaron por su hondo lirismo y por su libertad para expresar sus
profundos sentimientos.
Los renacentistas buscaban la flexibilidad y la elegancia en al lengua poética por eso, utilizaron con
frecuencia nuevos tipos de verso, como el endecasílabo, y nuevas formas poéticas, como el
soneto.
LA NARRATIVA
Este tipo de cuento tenía como único propósito deleitar y entretener a los lectores. Para ello, relata
de manera cómica y satírica episodios de la vida en la ciudad. Sus personajes son pícaros y
astutos y representan la nueva ideología burguesa caracterizada por el ingenio.
EL TEATRO.
La manifestación mas original del teatro renacentista fue en el drama isabelino, una forma
dramática que surgió en Inglaterra hacia fines del siglo XVI.
El publico que asistía a estas representaciones era tanto gente ilustrada como gente del pueblo y
encontraba en las representaciones una fuente permanente de deleite.
Los argumentos de las obras eran extraídos del pasado reciente, de la vida cotidiana o de la
mitología y la literatura clásicas.
El teatro isabelino no representaba normas fijas: mezclaba lo trágico con lo cómico la prosa con el
verso, y casi no utilizaba escenario; los actores se movían entre el auditorio.
Uno delos aportes más significativos de las representaciones isabelinas fue la abstracción de los
motivos escénicos: tanto los escenarios como los vestuarios no requerían imitar fielmente la época
y la indumentaria de los personajes, puesto que estaban en función de la acción dramática. El
máximo representante del teatro isabelino fue William shakespeare.
AUTORES
FRANCESCO PETRARCA
(1304-1374), poeta y humanista italiano, considerado el primero y uno de los más importantes
poetas líricos modernos. Su perfeccionamiento del soneto influyó en numerosos poetas
posteriores, desde los españoles Gracilazo de la Vega y Quevedo hasta los ingleses William
Shakespeare y Edmund Spenser. Su amplio conocimiento de los autores de la antigüedad y su
restauración de la lengua latina clásica le valieron la reputación de “primer gran humanista”, pero,
además, contribuyó a la instauración definitiva del italiano como lengua literaria.
Francesco Petrarca fue contemporáneo de Dante e incluso llego a conocerlo. Si embargo, las
obras de ambos son fundamentalmente distintas. Dante es la culminación de una época: la edad
media; en cambio, petrarca abre otra: el renacimiento.
Francesco Petrarca leyó desde muy joven a los autores clásicos. Admirado por la belleza de sus
textos escribió varias obras en latín procurando imitarlos. Sin embargo, su obra en italiano es la
mas importante porque con ella la poesía lírica en lengua romance alcanzo una calidad que no
había tenido hasta entonces.
Los poemas italianos de petrarca fueron reconocidos por el autor en un cancionero. Casi todos
expresaban el amor imposible del autor hacia laura, a la que continuo amando y exaltando después
de que ella, aun joven falleciera.
WILLIAM SHAKESPEARE
(1564-1616), poeta y autor teatral inglés, considerado uno de los mejores dramaturgos de la
literatura universal
OBRA
William shakespeare se distinguió como autor de poesía y de teatro. En poesía siguió el modelo
renacentista de las composiciones líricas de tema amoroso.
LOS SONETOS: son verdaderos modelos de perfección rítmica en lengua inglesa. El conjunto de
sonetos abarca diferentes ciclos temáticos, cada uno de ellos relacionados con los estados de
animo del ser humano: la soledad del amante, el éxtasis de la contemplación de la belleza (soneto
18) la muerte (soneto 71) la plenitud del amor (soneto 104).
Por otra parte, shakespeare es el autor teatral mas importante de Inglaterra y uno de los grandes
maestros de la literatura universal. Su extensa obra dramática puede ser clasificada en 3 grupos:
Literatura barroca
Esta época de la historia se encuentra situado en el siglo XVII, el origen de la palabra barroco se
supone que proviene del portugués donde significa “perla preciosa pero irregular” y del nombre de
la figura silogística “barroco” a la cual se considera como una forma de razonamiento forzado y
absurdo. Se conceptualiza Barroco a todo movimiento arquitectónico, esculturas y pinturas y
demás obras artísticas exageradas, cargadas de detalles.
La Reforma religiosa: Disminuyó el poder de la iglesia, dividiendo a Europa durante el siglo XVII.
El movimiento protestante se apoyó en substanciales bases reales, como las siguientes que a
continuación se mencionan:
La Reforma que comenzó Martín Lucero en Alemania, se extendió por el norte de Europa y culminó
con la ruptura entre Enrique VIII y el Papa. Ante tal expansión, la iglesia organizó la Contra-reforma
para recuperar lo perdido. Durante el concilio de Trento, la Iglesia Católica reafirmó sus creencias y
dogmas, sin embargo, instauró reformas tales como:
• Tolerancia y respeto por el naciente poder real.
• Emisión del índice de los libros cuya lectura se prohibía a los católicos.
Entre los movimientos políticos de relevancia que se dieron a causa, de que Carlos I de España, V
de Alemania, había heredado de sus abuelos los Reyes Católicos, un imperio que incluía buena
parte de Europa, un poco de África y las nuevas tierras que los recientes descubrimiento integraron
a la Corona, en Asia y América, las otras naciones europeas, celosas del poder peninsular,
buscando la manera de acabarlo, propiciaron los siguientes movimientos:
Sucesos económicos:
La situación económica en la que se encontraba España, era de crisis porque la piratería inglesa,
habitualmente organizada, destruía los envíos de América. A este se agrega otros factores como el
clima, que arruinó las cosechas y el descenso poblacional motivado por:
• Las epidemias
• Las Guerras
Cosmovisión:
El hombre de esta época mostraba más confianza en sí mismo, entusiasmo, mayor interés por la
naturaleza, deseos de vivir.
También el hombre de esta época se preocupa por lo lujoso, es decir, buscaba cubrir hasta el más
mínimo detalle, ya que el hombre mostraba más seguridad en sí mismo, en esta etapa el hombre
ya no se dejaba manipular. En cuanto al arte aquí es el mismo hombre quien rompe con el
equilibrio que hubo en el renacimiento, ya que se daba más libertad a la creación propia.
A pesar de que en esta época existió pobreza, al igual que en las anteriores etapas.
Características de la Literatura:
En el terreno literario, el barroco fue el estilo que predominó durante el siglo XVII, como sucedió
con las artes visuales, dicho estilo se originó en Italia y desde allí se extendió a otras regiones
recibiendo diferentes nombres como “Eufismo” en Inglaterra, “preciosismo” en Francia y
“Culteranismo” en España, siendo en este último lugar donde alcanzó pleno desarrollo.
El pintor de su deshonra
El alcalde de Zalamea
Pedro Calderón de la Barca
Teatro El Isidro
Lope de Vega
La Dorotea
El perro de Hortelando
Los sueños
Cuento de Cuentos
El anticristo
Literatura neoclásica
El neoclasicismo fue un movimiento literario iniciado en Francia en el siglo XVII y todo el siglo XVIII,
se preocupó por restaurar el gusto y normas de la antigüedad, especialmente de la cultura griega y
romana y del período Renacentista, es también conocido como el “Siglo de las luces”.
Durante el siglo XVII, el sistema de gobierno que predominó fue el llamado absolutismo, este era
ejercido por los reyes, sin limitación ni sometimiento a otro poder político. Este sistema se apoyaba
en la doctrina del llamado “Derecho Divino”, esto era la supuesta promulgación hecha por Dios
para conceder a la persona del monarca con extraordinaria sabiduría y benevolente
responsabilidad hacia su pueblo.
El ideal clásico de esta época reposó en el ejercicio de la razón, convirtiéndola en la facultad
generadora de la obra de arte, ideada y expresada de manera natural y mesurada, ya que los
hombres de esa época tenían un gran interés por investigar sobre lo natural, para terminar con lo
demasiado imaginativo que el barroco había creado.
Cosmovisión:
En esta etapa de la literatura, el hombre pone más énfasis en el uso de la razón, y convirtió a la
razón en la facultad generadora de la obra de arte, que la expresaban de manera natural; Todo
esto era con la finalidad de romper con lo superstición fomentada durante el barroco. Aquí el
hombre hacia sus creaciones, pero en base a la razón y lo natural, tanto así que a veces solían
parecer muy simples sus obras.
En pocas palabras el hombre de esta época consideraba a la razón como fuente primaria de la
verdad.
• Establecimiento de reglas muy rigurosas que debe obedecer el artista a fin de imitar
fielmente tanto las obras clásicas como las cosas que ofrece la naturaleza misma.
• Rigidez formal y poca creatividad en virtud de que, al seguir las huellas de los antiguos, el
artista se ve constreñido a moldes muy estrechos.
• Afrancesamiento, debido a que el modelo galo se diseminó rápidamente y la gente culta lo
siguió con fervor.
• Preponderación de la razón sobre el sentimiento y de la inteligencia sobre la imaginación.
• Dominio de los conocimientos filosóficos y científicos conseguidos a través de un método
de trabajo y estudio apoyado en la importancia de los hechos.
• Actitud crítica ante todas las manifestaciones de la conducta humana, se hace énfasis en
lo moral, a fin de combatir los perjuicios y supersticiones, subrayando el valor del hombre
como miembro de la sociedad.
• Exaltación de los placeres sencillos, la buena mesa o el amor por la vida campesina, etc., a
fin de cubrir la intimidad personal y evitar la revelación de los sentimientos.
• El ideal artístico que se debía perseguir consiste en la expresión de la belleza formal y fría,
no en la conmoción del lector; por eso la obra que se escribe debe ser sencilla, natural,
razonable, exenta de fantasía, misterio o imaginación.
• Manifestación uniforme contra las exageraciones del barroco.
Características de la Literatura:
Para esta corriente literaria, el ideal que se debe perseguir, es el ideal clásico, el cual consiste en:
• La expresión refinada
• Las formas mesuradas
• La elocuencia
• La composición cuidadosa
Literatura romántica
Este periodo de la historia tiene su inicio en la primera mitad del siglo XVII y principios del siglo
XIX.
El siglo XIX fue para la humanidad un siglo de luchas por un nuevo concepto: La Democracia. La
etapa de los reyes tiranos y déspotas estaba llegando a su fin: Un hecho histórico fue fundamental
para este cambio político del mundo: la Revolución Francesa de 1789. El nuevo siglo nacería bajo
las banderas que habían guiado la Revolución Francesa: Libertad, igualdad, fraternidad. El siglo
XIX es un siglo que lucha por alcanzar estos ideales. Las desigualdades sociales durante la
monarquía habían sido demasiado grandes; por eso el pueblo tuvo que tomar las riendas y
establecer los regímenes democráticos. La lucha por la libertad y la igualdad llevó a este siglo por
la vía de las revoluciones y los grandes conflictos políticos por todas partes. Muchos países
adquieren su independencia: Grecia en 1822, Bélgica en 1830, esto explica por qué en la literatura
romántica aparece la exaltación de lo nacional como parte importante de su pensamiento.
La democracia, régimen considerado como una revolución, en el campo político influye en el triunfo
del liberalismo. Esta doctrina defendió las libertades individuales de pensamiento, expresión y
asociación, así como la soberanía popular.
Según la teoría de soberanía popular, el poder reside en el pueblo, el cual lo ejerce a través de
representantes elegidos por sufragio y dentro del marco de una constitución.
La Revolución Industrial: comenzó en Inglaterra, donde las circunstancias fueron favorables y con
este movimiento se dio un cambio radical en el sistema económico, la industria base fue la de los
textiles, con la cual se sustituyeron los métodos manuales por los mecánicos, estimulando el
sistema fabril. Con todo esto se modifican las costumbres y las relaciones sociales, toman fuerza
los sindicatos obreros, se llenan los mercados de productos fabricados en serie. El mundo
comienza a tener nuevas necesidades: muebles, vestidos, adornos. La gente empieza a tener más
tiempo libre y se despierta la necesidad de crear teatros, paseos, fiestas, veladas artísticas y, en
general una vida de convivencia social muy intensa.
Hubo innovaciones en las manufacturas de hierro y acero, al igual que en los medios de transporte
al mejorarse caminos y ferrocarriles; los barcos de vela fueron sustituidos por los de vapor.
Sucesos económicos:
Entre los sucesos económicos de mayor relevancia estuvo la revolución Industrial, porque con los
nuevos descubrimientos, principalmente con la industria de los textiles ya que con ella se
sustituyeron los métodos manuales por los mecánicos, lo que ayudó a reducir el gasto en mano de
obra, pero que a la ves, provocó el desempleo, y nuevas necesidades; además la producción se
empieza hacer en serie.
Con todo esto se incrementaron nuevas necesidades; toman fuerza los sindicatos de los obreros.
Cosmovisión:
Características de la Literatura:
AUTORES OBRA
Realista
El periodo del realismo abarca la segunda mitad del siglo XIX, y el término realismo y realista se
utilizaron en Francia para designar, peyorativamente, a obras cuyo tema era sacado de la vida
cotidiana, término que con el tiempo se aplicó al arte que tenía como finalidad reflejar objetiva y
verazmente la vida diaria.
En la segunda mitad del siglo XIX, se presentó una serie de avances y descubrimientos científicos,
tales como: los de Oersted y Faraday, en electromagnetismo; los de Scheiden y Schwann, en
biología; los de Charles Darwin, que culminaron con la teoría de la evolución; los de Gregorio
Mendel que formula las leyes de herencia, entre otros.
Empezaron a proliferar las fábricas, que más tarde se convirtieron en centro masivos de trabajo. A
la par de los avances de la ciencia y de la técnica, se registraron algunos cambios en la filosofía,
porque lo que para el romanticismo era el idealismo, para la época realista fue el positivismo y
materialismo.
La teoría positivista de Augusto Comte, sostenía que los verdaderos conocimientos son los que se
refieren a la realidad, los cuales tratan de descubrir las leyes naturales para poder prever los
acontecimientos futuros y así, someter a la naturaleza a los designios del hombre. Su lema era:
“Saber para prever, y prever para poder”
Otro hecho de importancia, fue el materialismo de Carlos Marx y Federico Engels, el cual sostiene,
que lo económico es la base de todos los aspectos culturales que se dan en una sociedad.
En el aspecto social el principal fenómeno, fue el cambio de estructura, en cuanto que en lugar de
una sociedad con condiciones, se configura una sociedad con clase. Con el desarrollo industrial
nació la clase burguesa, como dueña de los bienes de producción, y la clase obrera o proletaria.
Este cambio tuvo varias consecuencias, pero la más relevante fue el conflicto que surgió entre las
dos clases, al adoptar la burguesía posiciones conservadoras a fin de sostener su jerarquía;
mientras que la clase obrera de varios paises europeos, para ejerce presión efectiva; formó grupos
y organizó la Primera Internacional, denominada Asociación Internacional de Trabajadores, creada
en 1864, y cuyos estatutos fueron redactados por Carlos Marx.
Sucesos económicos:
El poder económico de este periodo, estaba en manos de la clase burguesa, ya que era la que
contaba con la maquinaria para producir, y la clase obrera, era quien trabajaba en la producción.
Por lo anterior se puede decir que la clase burguesa era quien proveía de trabajo en los distintos
niveles.
Cosmovisión:
En este periodo el hombre busca darle un nuevo equilibrio al arte, ya que el romanticismo, llego a
caer en la exageración, en cambio en el realismo, el hombre propone volver a la realidad y dejar
atrás el mundo ideal y subjetivo, prefiere lo objetivo y lo racional. El hombre del realismo rechaza
las exaltaciones emotivas y la búsqueda idealista para centrarse en lo real.
Características de la Literatura:
• Enfoque: tiene un enfoque diferente del romanticismo, al transformar la realidad en materia
literaria; ya que existe subordinación al subjetivismo, mientras que en aquél predomina lo
objetivo.
• El arte realista es impersonal. Se manifiesta contra todo subjetivismo, rechaza la tendencia
romántica a la presencia constante del autor en todo lo que escribe. En consecuencia, el
escritor no debe permitir que su propia ideología aflore en sus textos.
• Reproducción exacta de la realidad: el realista tiene mucha estimación por la fidelidad
descriptiva; pretende a veces la exactitud científica tanto en los ambientes, como en el
aspecto psicológico.
• Estilo y forma: la retórica romántica y prefiere la prosa sobria. Se cultiva meticulosamente
el tratamiento de la forma hasta que el texto se convierte en la realidad misma. El arte de la
paciencia donde cada palabra se elige por su significación preferida, provoque brutalidad.
• Géneros y personajes: disminuye el drama y el lirismo. La novela es como una descripción
histórica de algo que realmente ocurrió a personas; de ahí su preferencia por los detalles
físicos y psicológicos y por la investigación minuciosa. Los personajes ya no son
arrastrados por fuerzas desconocidas, sino que todas sus actuaciones tienen una
explicación natural.
Naturalista
Corriente literaria Europea de finales del siglo XIX desarrollada fundamentalmente entre 1880 y
1900. El naturalismo es una forma de concebir la existencia humana y un método para estudiar y
transcribir el comportamiento humano.
Surgió como continuación aparente del realismo, aunque en verdad sea mucho más que él; ya que
se vale del método científico para efectuar un acercamiento riguroso y objetivo a la existencia
humana, contemplándola en las actitudes y motivaciones sórdidas de su conducta, ya sean de
burgueses o de humildes.
Varios escritores describieron al pueblo; sin embargo, nadie llegó tan lejos al pintar la miseria de la
condición humana como lo hizo el creador de esta corriente Emilio Zola. Las situaciones
particulares son sus preferidas para mostrar cómo los personajes se mueven en un ambiente
determinista.
Sucesos económicos:
El aspecto económico de esta corriente, al igual que el realismo, tuvo mucha influencia por parte de
los avances científicos y sociales que se dieron en la segunda mitad del siglo XIX.
Cosmovisión:
El hombre del naturalismo, estudiaba, y explicaba los hechos y las conductas humanas como
producto de fuerzas físicas gobernadas por las circunstancias que controlan su entorno.
Henri Beyle
Gustave Flaubert
Emile Zola
Jules Goncourt
Alejandro-Dumas, hijo
Teatro
Hipólito Taine
España
Juan Valera
A este periodo del modernismo y generación del 98 se le conoce históricamente, como “el fin de
siglo”, y tiene lugar los últimos años del siglo XIX y principios del XX.
MODERNISMO
En el aspecto político, al mismo tiempo que hay conflictos en los Balcanes, varios países, como
Italia y Alemania, adquieren su unificación definitiva. Francia, Inglaterra y Bélgica, en Europa, y
Estados Unidos, en América, consolidan su capacidad expansionista y su poderío militar y
económico.
En el aspecto social, se dio primero: Las migraciones en busca de una vida mejor, tanto de los
campos hacia los centros fabriles como de varios países de Europa hacia América; segundo: En la
población urbana se hace muy marcada la diferencia entre el mundo del proletariado que sólo tiene
la fuerza del trabajo, y el mundo elitista de los políticos y burgueses que, además del dinero, tienen
también el poder.
Generación del 98
A finales del siglo XIX la política en la Península Ibérica está controlada por los conservadores y los
liberales que se alternan en el gobierno. La población se integra en su mayoría por la masa rural,
dominada por los caciques, también existe el proletariado industrial y la aristocracia burguesa. Esta
situación da como resultado la decadencia y el debilitamiento del sistema.
En 1895, se inicia la guerra colonial. Las últimas posesiones españolas, Filipinas, Cuba y Puerto
Rico, luchan por adquirir su independencia, apoyadas por Estados Unidos.
La escuadra española es destrozada en Santiago de Cuba, por lo que España tiene que firmar el
tratado de París en 1898, en el que compromete a abandonar los restos de su antiguo imperio. A
este suceso se le conoce como “el desastre del 98”.
Sucesos económicos:
Se desarrolló una economía capitalista a raíz de los avances y progresos industriales, algunos
hechos de mayor relevancia fueron: La producción en cadena, la ampliación de mercados por
medio del intercambio comercial internacional y el mercado de las materias primas y de los metales
preciosos.
Cosmovisión:
La manera de percibir la realidad en este periodo, se da de dos maneras fundamentales, según los
filósofos que mayor influencia tuvieron: kierkegaard consideraba que la fe cristiana no puede
hallarse por medio de la racionalización, si no con el sentimiento, de igual manera el hombre llega
a conocer a Dios después de conocer su interior. En cuanto a Bergson y Nietzche son vitalistas, es
decir se oponen al racionalismo: la vida es el valor fundamental, el hombre puede convertirse en
superhombre por su propia voluntad; es por la intuición y no por la razón que obtenemos en el
conocimiento directo e inmediato de las cosas. En el modernismo el hombre busca un mundo
nuevo, moderno, audaz y emprendedor.
Características de la Literatura:
Moderna
Generación del 98
Francia AUTORES
Paul Verlaine
Stéphane Mallarmé
Pierre Loti
Post-simbolista
Anatole France
Hispanoamérica
Amado Nervo
Vanguardismo
Este periodo abarca la primera mitad del siglo XX. El termino vanguardia se utiliza para designar a
todas aquellas tendencias artísticas que aparecen en la primera mitad de este siglo, y que tienen
como finalidad oponerse a lo anterior, al proponer nuevos conceptos y técnicas.
La Primera Guerra Mundial: duró 4 años, del 28 de julio de 1914 hasta el 11 de noviembre de 1918.
El motivo principal fue el asesinato del archiduque Francisco Fernando en Sarajevo, capital de
Bonia. La guerra terminó cuatro años después, cuando las naciones centrales de Europa
capitularon y Alemania firmó el armisticio, aceptando los catorce puntos propuestos en Versalles.
Periodo entre guerras: Rusia hace una revolución, primero para derrocar al zaraismo y después
para eliminar a Kerenski.
Cosmovisión:
El hombre de este periodo, busca romper con todo lo que se había venido dando anteriormente, es
decir, busca entrar en una nueva etapa, que no se hubiera visto antes, y todo eso se puede ver o
percibir en las características del arte de este periodo.
• Expresionismo: postula que el arte tiene que ser creado y debe reflejar la realidad reflejada
por la subjetividad del artista.
Características de la Literatura:
- Experimentación estética:
Propuestas de abolición de los signos de puntuación. Búsqueda de nuevas formas poéticas como
el verso libre, ideal para transmitir las asociaciones libres.
Francia AUTORES
Paul Claudel
Jean Giraudoux
André Breton
Tristán Tzara
Surrealismo
Jean Cocteau
Louis Aragon
Alemania
Hermann Hesse
Emil Luswig
Literatura contemporánea
Este periodo a partir de la segunda mitad del siglo XX se presenta en un ambiente de intranquilidad
y protesta, debido a las circunstancias del momento.
Hacia la mitad del siglo XX, se inicia el declive del dominio político europeo, la URSS y Estados
Unidos surgen como superpotencias que polarizan el mundo económico, militar, ideológico y
cultural.
Al término de la 2da. Guerra Mundial, la URSS se separa de los aliados y en torno suyo aglutina el
Bloqueo del Este, al cual encierra detrás de la llamada “Cortina de hierro”.
Las naciones occidentales de Europa y Estados Unidos organizan el Tratado del Atlántico Norte, la
OTAN.
La guerra Indo-Pakistaní; El nacimiento de Israel, con su obligada consecuencia “La guerra árabe-
israelí”; el problema de la Federación Indochina que culminó con los estados independientes de
Laos y Camboya y la división de Vietnam; El conflicto coreano; La nacionalización del Canal de
Suez, que provocó la guerra entre Egipto; Francia e Inglaterra; La revolución cultural china; La
crisis de los misiles en el Caribe, Etc…
En cuanto al campo de la ciencia en esta parte del siglo XX, lo que mejor lo caracteriza son las
investigaciones que se refieren al átomo, a las computadoras y a la astronáutica. Otro avance de la
técnica es la aplicación de la energía atómica.
La exploración espacial también ha tenido éxitos espectaculares. En 1957, la URSS puso en órbita
el primer satélite artificial de la Tierra, llamado Sputnik. En Febrero de 1958, Estados Unidos inicia
su desarrollo espacial y once años después, el 21 de Julio de 1969, Neil Armstrong sale de Cabo
Kennedy a bordo del Apolo XI, y se convierte en el primer hombre que llega a la Luna.
En esta época se vive con más temores que anteriores, ya que estamos propicios a caer en
problemas sociales como: La drogadicción, favorecida por quienes ambicionan riqueza y control;
Los movimientos de liberación nacional, lo cuales enrolan víctimas con promesas ilusorias; El
empobrecimiento continuo del asalariado; El terrorismo internacional y local que con tal de lograr
sus objetivos, no duda en recurrir al secuestro y la muerte de cualquier inocente.
Cosmovisión:
El hombre de nuestros tiempo vive más preocupado quizás, que el hombre de la antigüedad,
porque sus miedos, ya no son a decir lo que siente, si no a que si lo dice, puede ser presa de un
secuestro, o de la misma drogadicción que cada ves va en decremento, debido que el salario de
los empleados se va empobreciendo, sienten la necesidad de hacerse dependientes de algún tipo
de vicio, según ellos para olvidar muchos de los problemas que cada uno como persona acarrea en
la vida.
Es difícil precisar las características de la literatura actual, ya que muchos de estos son
continuación de las anteriores, así que para hacer una diferenciación, se dividirá en dos:
Tendencias de continuidad y Tendencias nuevas.
Tendencias de continuidad:
• Análisis interno de las motivaciones de los caracteres, como la sexualidad, los complejos y
las neurosis.
• En la manifestación externa de la obra-argumento, descripciones, estilo-los escritores se
afilian al realismo, en virtud de que pretenden retratar objetivamente la problemática
planeada.
• Tratan conflictos morales desde el punto de vista psicológico.
• Analizan internamente las motivaciones de los personajes y su influencia en quienes los
rodean, sin importar el contenido de la obra o la técnica usada para presentarlo.
• Aborda ideas de amistad, altruismo y hermandad entre los hombres, especialmente con los
débiles.
• Abandera los movimientos que defienden los derechos civiles y los principios de libertad y
justicia.
• Rechaza el capitalismo y favorecen el liberalismo económico.
• Desmanda mayores derechos y privilegios para el hombre.
• Repudia los favoritismos, el chambismo, las corruptelas y los beneficios alcanzados a
través de cargos de administración pública.
• Pugna por la revisión de las estrategias económicas y políticas de los Estados modernos.
• Favorece vigorosamente los movimientos tanto pacifistas como ecologistas.
Tendencias nuevas:
• El tema principal de la obra literaria es el hombre concreto, existiendo con sus situaciones
límite y la consecuente angustia.
• El hombre no es parte de la sociedad, sino que ésta pertenece al ser del individuo, de
manera que lo social se lleva como una carga.
• La libertad no es una prerrogativa de lo humano, sino una obligación o una necesidad.
• El hombre es y será siempre un ente inacabado porque continuamente se está haciendo y
con este quehacer de proyecto se enfila hacia la muerte.
Francia AUTORES
Jean Anouilh
Teatro
Eugene Ionesco
André Malraux
André Maurois
Alain Robbe-Grillet
La nueva novela
Claude Simon
Jean-Paul Sartre
Existencialismo
Albert Camus
Italia
Giuseppe Ungarentti
Salvatore Quasimodo
Guido Piovene
Italo Calvino
BOOM LATINOAMERICANO
Este periodo se inicia con el padre y maestro del “Boom” latinoamericano, lo cual se hacer
referencia a la sorpresa del mundo occidental cuando se leyeron las obras de Rulfo, Fuentes,
Cortázar, Paz, Vargas Llosa, Carpentier, García Márquez.
Contexto histórico, político, social y Económico:
Antes de 1940 dominaba el movimiento literario llamado Regionalismo en el que se planteaban los
problemas económicos y políticos del país y de la región. Con el auge de las ciudades vino el
Cosmopolitismo que muestra la problemática urbana, enfoca su atención en lo filosófico, moral y
sicológico porque trabaja con la tensión de los habitantes de las grandes metrópolis.
La producción literaria del siglo XX resulta variada porque toma elementos del Cubismo, el
Existencialismo, el Neorrealismo, el Realismo Mágico, el Experimentalismo y el Boom
Latinoamericano. Borges es el jefe del Cosmopolitismo y la Fantasía porque fue el iniciador de una
literatura en la que se fabrican mundos y se atraviesa por laberintos de tiempo y de espacio.
“No es un movimiento literario en sí mismo. Es la sorpresa del mundo occidental cuando se leyeron
las obras de Rulfo, Fuentes, Cortázar, Vargas Llosa, Carpentier, García Márquez, encabezados por
la innegable calidad de Borges, quien, sin pertenecer a la misma generación, infundió en estos
escritores el espíritu riguroso del oficio de escritor. Estos escritores toman lo que conviene de cada
movimiento y aportan novedades creando obras en donde conviven Romanticismo, Naturalismo,
Barroco, vuelven a lo clásico y sobre todo, adoptan una nueva conciencia profesional. Sus temas
constantes son: la fusión de lo real, lo ideal y lo fantástico, urgencia de crear una literatura
distintiva; ajuste de su producción al avance de las comunicaciones; solución de problemas
morales, sicológicos y sociales; mezcla de técnicas, incluso de televisión, radio, cine, comic, teatro,
dibujo, creatividad publicitaria, etc.”
Cosmovisión:
En esta parte de la historia me referiré más acerca de la forma de ver el mundo de los escritores,
que fueron quienes iniciaron este movimiento, que más que literario, fue revelación a escribir
acerca de los movimientos que antes se mencionan, retomando el romanticismo, naturalismo,
barroco, vuelven a lo clásico, pero sobre todo adoptan una nueva conciencia profesional. En
general los poetas actuales prefieren volver los ojos a su intimidad que manifestarse a favor de
alguna ideología.
El Ultraísmo
“Movimiento literario español de vanguardia desarrollado entre 1918 y 1922 año en que deja de
publicarse la revista Ultra, neologismo tomado por Cansinos-Assens para titular un manifiesto en el
que se enuncia el propósito fundamental del grupo: Abandonar las técnicas de expresión poéticas
del modernismo decadente y crear un arte nuevo, abierto a los movimientos de vanguardia
europeos. Los iniciadores de este movimiento, aparte de Cansino-Assens, son Gerardo Diego y los
argentinos Jorge Luis Borges y González Lanuza.
El creacionismo
El Creacionismo es una versión americana del Ultraísmo español. El Creacionismo fue patrocinado
por el poeta chileno Vicente Huidobro. Como ejemplo se puede presentar su poema “Arte poética:”
La Literatura Fantástica
“La Literatura Fantástica Latinoamericana es una de las corrientes narrativas más notables, de
mayor arraigo y proyección en el mundo literario. Lo fantástico coincide con la liquidación o el
descrédito del positivismo, de la razón y de la lógica como únicos medios de aprehender la
realidad. El surrealismo y en cierta medida todos los movimientos de vanguardia rompen la fórmula
tradicional anulando la represión de la forma en busca de una total libertad.
El Realismo Mágico
Escritor Obras
Ciencias naturales
Las ciencias naturales son ciencias que tienen por objeto el estudio de la naturaleza. Las ciencias
naturales estudian los aspectos físicos y no humanos del mundo.
Como grupo, las ciencias naturales se distinguen de las ciencias sociales, por un lado, y de las
artes y humanidades por otro.
El término ciencia natural es también usado para diferenciar entre "ciencia" como una disciplina
que sigue el método científico, y "ciencia" como un campo de conocimiento en general, como vg.
ciencias de la computación, o incluso "la ciencia de la teología".
Ciencias naturales
Astronomía, el estudio de los objetos celestes y fenómenos que suceden fuera de la atmósfera
terrestre.
Biología, el estudio de la vida:
Botánica
Ecología, el estudio de las relaciones entre los seres vivos y el entorno.
Zoología
Ciencias de la Tierra, el estudio de la Tierra:
Geología
Geografía
Ciencia del suelo
Física, el estudio de los constituyentes últimos del universo, las fuerzas e interacciones y las
relaciones entre éstas.
Química, el estudio de la composición, propiedades y estructura de las sustancias y de las
transformaciones que sufren
• Física
Es la ciencia natural cuyo objeto es el estudio de los fenómenos en los que no cambia la
composición (naturaleza íntima) de las sustancias que intervienen en ellos.
El espacio (distancia entre 2 puntos) tiene como unidad patrón internacional el METRO.
Un METRO era, inicialmente (1889), la diezmillonésima parte de la longitud del cuadrante terrestre
que va desde el Polo Norte hasta el ecuador, pasando por París. Esa unidad se registró colocando
dos marcas sobre una barra de Platino-Iridio.
Las dificultades que originaba la reproducción de esa medida hicieron que en 1960 se definiera al
METRO como 1.650.763,73 veces la longitud de onda de la luz anaranjada emitida por el Kriptón-
86 encerrado en gas Kriptón cuando se lo somete a una descarga eléctrica. Tampoco era sencilla
de reproducir.
En 1983 se redefinió el METRO como la distancia recorrida por la luz en el vacío en 1/299.792.456
segundos (1/c, donde c es la velocidad de la luz en el vacío).
Unidades de tiempo:
Hasta 1960, un SEGUNDO era la 86.400 ava parte de 1 día solar medio.
Las unidades de velocidad surgen de la relación (razón o cociente) entre las unidades de espacio y
las de tiempo.
Algunas de las más utilizadas son:
• el centímetro por segundo (cm/s) (unidad de velocidad en el sistema cgs).
• el metro por segundo (m/s) (unidad de velocidad en los sistemas MKS y técnico).
• el kilómetro por hora (km/h)
• las revoluciones (vueltas) por minuto (RPM)
De allí surgen fácilmente relaciones tales como:
• 1 m/s = 102 cm/s
• l km/h = 1/3,6 m/s
• 1 m/s = 3,6 km/h
•
Unidades de aceleración:
Se denomina aceleración a la variación de una velocidad en magnitud, sentido o dirección. Es, por
tanto, la variación de una variación, ya que la velocidad es una medida de la variación de la
posición de un cuerpo con el paso del tiempo. a = v/t = (e/t)/t = e/t2
Las unidades de aceleración surgen de la relación (razón o cociente) entre las unidades de espacio
y las de tiempo, estas últimas elevadas al cuadrado (solamente por razones matemáticas, pues el
concepto de "tiempo al cuadrado" no existe). Algunas de las más utilizadas son:
• el centímetro por segundo al cuadrado (cm/s2) (unidad de aceleración en el sistema cgs).
• el metro por segundo al cuadrado (m/s2) (unidad de aceleración en los sistemas MKS y
técnico).
• el kilómetro por hora al cuadrado (km/h2)
•
Unidades de fuerza:
La presencia de una fuerza solamente puede apreciarse por sus efectos. Es la causa que puede
modificar el estado de movimiento (magnitud y/o dirección) de un cuerpo. Cuando a un cuerpo se
le aplica una fuerza se modifica su estado de inercia (tendencia a conservar su estado de
movimiento). Ambas circunstancias pueden unificarse diciendo que cuando a un cuerpo se le aplica
una fuerza (causa) se genera una aceleración (efecto).
De la 2da. ley de Newton, que define aceleración como la razón entre la fuerza aplicada y la masa
que recibe esa fuerza (a = F/m) puede deducirse la fuerza como el producto de la masa por la
aceleración (F = m . a) y de allí se obtiene:
• en el sistema cgs: g cm/s2 , que recibe el nombre de "dina" (Din) (término que, en griego,
significa "fuerza").
• en el sistema MKS: kg m/s2 , que recibe el nombre de "Newton" (N) (en homenaje al
científico inglés).
En el sistema técnico, la unidad de fuerza es una unidad fundamental (no derivada de otras),
el Kg fuerza, que es el peso del Kg masa patrón guardado en Sèvres, medido a nivel del mar y a
45º de latitud.
La aceleración que relaciona el Peso (fuerza con que la Tierra atrae a una masa)
con esa masa atraída (medido a nivel del mar y a 45º de latitud)
es la llamada "aceleración de la gravedad" (g) y tiene un valor de 9,8 m/s2.
Podemos establecer así que:
Peso = masa . g
Por tanto, pueden establecerse las relaciones entre las unidades en los distintos sistemas:
• l Kg (fuerza) = 9,8 N
• 1 N = 1/9,8 Kg (fuerza)
• 1 N = 105 Din
• 1 Din = 10-5 N
Unidades de trabajo:
Se denomina "trabajo" (W - por "work" en inglés o "Werk" en alemán) a la medida de uno de los
efectos posibles de la aplicación de una fuerza: el desplazamiento de un cuerpo, es decir, su
cambio de posición.
"Una fuerza realiza trabajo cuando hay desplazamiento del cuerpo sobre el cual se aplica. La
fuerza debe contribuir al movimiento." (Prof. Armando Villamizar V.- M.D.U. Univ. de Los Andes -
Colombia)
Las unidades de trabajo se obtienen multiplicando la fuerza aplicada por la distancia recorrida:
W=F.e
de donde:
• en el sistema cgs: Din . cm, que recibe el nombre de "ergio" (erg) (por "energía" en griego).
• en el sistema MKS: N . m, que recibe el nombre de "Julio" (J) (en honor al científico francés
Joule).
• en el sistema técnico: Kg (fuerza) . m (Kgrm), que recibe el nombre de Kilográmetro.
Como la energía es la capacidad de producir trabajo,
también pueden usarse las unidades de trabajo como unidades de muchos tipos de energía,
especialmente la energía mecánica (cinética y potencial).
Unidades de potencia:
Se conoce como "potencia" la eficiencia de una fuerza para realizar un determinado trabajo,
es decir, la cantidad de trabajo realizado por unidad de tiempo:
P = W/t
Algo o alguien es más "potente" cuando puede realizar más trabajo en la unidad de tiempo,
o tarda menos tiempo para realizar el mismo trabajo.
Es una medida de la rapidez con que se efectúa un trabajo.
El concepto de Energía:
La energía es, a nuestro entender, el principio y el fin del universo que conocemos.
De la energía proviene la masa (que Lavoisier llamaba "materia")
y el destino de toda masa es convertirse nuevamente en energía.
EMT = Ep + Ec
Como dijimos antes, las unidades de estas energías son las mismas que las del trabajo, ya que
"la energía es una medida de la capacidad de producir trabajo".
Mecánica
Partes de la Física Mecánica:
En función del objeto de su estudio, podemos dividir la Física Mecánica en tres partes o ramas:
• Estática: es la parte de la Mecánica que estudia las fuerzas que actúan en un sistema sin
tener en cuenta los efectos que su acción provoca.
• Dinámica: es la parte de la mecánica que estudia los efectos provocados por las fuerzas,
fundamentalmente los cambios en la dirección y/o magnitud de las velocidades. Estos
cambios se denominan "aceleraciones". Aquí introdujo Newton sus principios
fundamentales: el de inercia, el de masa y el de acción y reacción.
• Cinemática: es la parte de la mecánica que estudia los movimientos, generalmente sin
tener en cuenta ni las fuerzas que los provocan ni las masas sobre las que actúan.
Por qué las fuerzas se representan por vectores
Composición de fuerzas
a) fuerzas sobre una misma recta de acción (con igual dirección o "colineares"):
• con el mismo sentido: la fuerza resultante tiene la misma dirección y sentido que las
fuerzas componentes, su punto de aplicación es cualquiera de los de su recta de acción y
su medida es la suma de las medidas de las componentes.
• con sentido opuesto: la fuerza resultante tiene la misma dirección que las fuerzas
componentes, su sentido es el de la componente mayor, su punto de aplicación es
cualquiera de los de su recta de acción y su medida es la diferencia de las medidas de las
componentes.
b) fuerzas concurrentes (con el mismo punto de aplicación):
Del mismo modo, la unión del punto de aplicación con el extremo final de la última fuerza
nos indicará la dirección y el sentido de esa resultante.
c) fuerzas paralelas:
• con el mismo sentido: la resultante tiene una medida igual a la suma de las medidas de las
componentes, su dirección es paralela a las de las componentes (ubicada entre ellas y
más cerca de la mayor), y su sentido es el mismo que el de aquéllas. El punto de
aplicación se determina mediante la llamada "relación de Stevin" que dice que "cada fuerza
es directamente proporcional al segmento determinado por los puntos de aplicación de las
otras fuerzas". Puede aplicarse también el método gráfico llamado "del funicular".Ver con
más detalle estos métodos en cualquier texto o trabajo especializado.
• con sentido opuesto: la resultante tiene una medida igual a la resta de las medidas de las
componentes, su dirección es paralela a las de las componentes (ubicada no entre ellas
sino por fuera, del lado de la mayor), su sentido es el de la componente mayor. El punto de
aplicación también se determina mediante la "relación de Stevin".
d) fuerzas no colineares ni concurrentes ni paralelas: existe siempre algún procedimiento aplicable
al sistema dado que generalmente procurará trasladar las fuerzas componentes hasta asimilarlas
parcial o totalmente a cualquiera de los casos vistos.
Las fuerzas son causas que solamente se ven a través de sus efectos.
En Mecánica, una fuerza tiene como efecto la modificación del estado de movimiento del cuerpo
sobre el que se la aplica. Y hemos llamado "aceleración" a esa modificación del movimiento (esto
es, la variación de la velocidad y/o de la dirección de movimiento de un cuerpo).
Es necesario aplicar una fuerza solamente cuando se busca modificar la magnitud o dirección de
una velocidad.
Quizá sea el resultado de que el Universo intenta mantener su energía constante salvo que pueda
disminuirla mediante algún fenómeno espontáneo (por ejemplo, la caída de un cuerpo, la formación
de un compuesto químico más estable, etc.).
"Todo cuerpo continúa en su estado de reposo o de movimiento uniforme sobre una línea recta,
a no ser que se le obligue a variar ese estado mediante fuerzas que actúen sobre él."
(1686 - Principios matemáticos de filosofía natural).
a=F/m
Estos principios son el fundamento de la parte de la Física Mecánica que conocemos como
"Estática".
Fuerzas de fricción
Como en la vida práctica ninguna superficie es perfectamente lisa, las fuerzas que se aplican sobre
un cuerpo para iniciar o mantener su movimiento no tienen una eficiencia del 100%.
Esto se debe a la aparición de las fuerzas llamadas "de fricción" que se oponen a esos
movimientos.
Pueden ser producidas por rozamiento (en sólidos que se deslizan sobre sólidos), por rodadura (en
sólidos que ruedan sobre sólidos), o por viscosidad (sólidos, líquidos o gases que atraviesan otros
líquidos o gases).
a) rozamiento estático: como tuve el privilegio de que me fuera explicado por el eminente físico de
la UNLP Dr. Rafael Grinfeld allá por 1963 y jamás se me olvidaron (ni su explicación ni él), cuando
un cuerpo rugoso es apoyado sobre otro cuerpo rugoso, las irregularidades de uno "calzan" en las
irregularidades del otro. Es más: si ambos cuerpos son metálicos, el peso del superior provoca que
las eminencias de ambos lleguen a soldarse (microsoldaduras). Al intentar iniciar un deslizamiento,
se hace necesario "descalzar" un cuerpo del otro produciendo la ruptura de sus puntos más
salientes y, si existieran, también la ruptura de esas microsoldaduras. Esto hace que el rozamiento
estático tenga un valor inicial mayor que el que se produce cuando ya el cuerpo está en
movimiento. El cociente entre la fuerza de rozamiento estático y la fuerza normal o perpendicular
(compresión de un cuerpo sobre el otro) se denomina "coeficiente de rozamiento estático".
Otras veces, cuando se trata de automóviles (cuerpos que se mueven "por sí mismos", tales como
vehículos con motor o personas caminando), la eficiencia estará en relación con un mayor
rozamiento (el de los neumáticos contra el pavimento o el de las suelas de los zapatos contra el
piso, por ejemplo). Aquí se buscará aumentar el coeficiente de roce incrementando la rugosidad o
utilizando materiales tales como el caucho que tengan alta adherencia a otros.
Tomémonos un par de minutos para diferenciar con mayor claridad estos conceptos.
equilibrio: implica aceleración = cero, lo que puede darse en un cuerpo en reposo o en otro que se
mueva con velocidad uniforme sobre una trayectoria rectilínea.
reposo: implica velocidad = 0, lo que solamente puede darse en un cuerpo quieto (al menos, sin
desplazarse con respecto de otro que consideremos fijo).
Un cuerpo puede estar en equilibrio sin estar en reposo: por ejemplo, si se está moviendo con
velocidad constante sobre una trayectoria rectilínea.
Un cuerpo puede estar en reposo sin estar en equilibrio: por ejemplo, un cuerpo lanzado hacia
arriba que llega al punto máximo de su trayectoria y se detiene, pero que está siendo afectado por
la fuerza de gravedad que lo hará iniciar su caída libre.
Centro de gravedad y Centro de masa
Todo cuerpo tiene un volumen, es decir, ocupa un lugar en el espacio. Sin embargo, en la Física
Mecánica básica jamás lo mencionamos. Los cuerpos, para nosotros, son siempre puntos que no
tienen ni largo ni ancho ni alto, pero que tienen masa y tienen peso.
Esto significa que los resultados teóricos que obtenemos no serán realmente los verdaderos en la
práctica. Pero, para comenzar a estudiar los temas, es suficiente.
(Los juguetes del 6 de enero existen, aunque los Reyes Magos...).
Centro de masa: es el punto en el que puede considerarse concentrada toda la masa de un cuerpo.
Generalmente, la posición de ambos coincide y, en cuerpos homogéneos (de un material con peso
específico y densidad uniformes en toda su extensión), también coincide con el centro geométrico
del cuerpo.
Movimiento
Todos los puntos del Universo que conocemos están en movimiento, es decir, cambian su posición.
Cuando estás echado en tu sillón favorito y te recriminan por estar "quieto", puedes responder que
estás girando alrededor del eje terrestre a razón de un giro completo diario, con la Tierra alrededor
del Sol, con el Sistema Solar dentro de la Vía Láctea, con la Vía Láctea a través de las otras
galaxias, ...
Entonces, ¿qué está quieto y qué está en movimiento en forma absoluta? Nada.
Y las distintas posiciones que ocupa a medida que pasa el tiempo configurarán su trayectoria.
En este capítulo de la Física que se ha dado en llamar "Cinemática" veremos los movimientos sin
tener en cuenta las fuerzas que los originan, y aquí solamente veremos algunos de ellos: los
movimientos uniformes y los movimientos uniformemente variados, tanto rectilíneos como
circulares.
Movimientos rectilíneos
Llamaremos:
• "vf " a la velocidad final del móvil
• "v0" a su velocidad inicial (o a la única existente, en el caso del movimiento rectilíneo
uniforme)
• "a" a su aceleración ("g" cuando se trate de la aceleración de la gravedad = 9,8 m/s2)
• "e" al espacio recorrido ("h" cuando se trate de una altura)
• "t" al tiempo transcurrido
Entonces:
vf = v0 + a t
e = v0 t + 1/2 a t2
Electromagnetismo
El electromagnetismo, estudia los fenómenos eléctricos y magnéticos que se unen en una sola
teoría aportada por Faraday, que se resumen en cuatro ecuaciones vectoriales que relacionan
campos eléctricos y magnéticos conocidas como las ecuaciones de Maxwell. Gracias a la
invención de la pila de limón, se pudieron efectuar los estudios de los efectos magnéticos que se
originan por el paso de corriente eléctrica a través de un conductor.
El Electromagnetismo, de esta manera es la parte de la Física que estudia los campos eléctricos y
los campos magnéticos, sus interacciones con la materia y, en general, la electricidad y el
magnetismo y las partículas subatómicas que generan flujo de carga eléctrica.
El electromagnetismo, por ende se comprende que estudia conjuntamente los fenómenos físicos
en los cuales intervienen cargas eléctricas en reposo y en movimiento, así como los relativos a los
campos magnéticos y a sus efectos sobre diversas sustancias sólidas, líquidas y gaseosas.
El termino electromagnetismo proviene del hecho de que no podemos estudiar los campos
eléctricos y magnéticos por separado. Un campo magnético variable produce un campo eléctrico
(como ocurre en el fenomemo de inducción electromagnética, la cual es la base para el
funcionamiento de generadores eléctricos, motores de inducción eléctrica y transformadores).
Similarmente, un campo eléctrico variable genera un campo magnético.
Debido a esta dependencia mutua de los campos eléctricos y magnéticos, se considera logico
considerarlos como uno solo, el campo electromagnético. Esta unificación, la cual fue completada
por James Clerk Maxwell, es uno de los triunfos para los físicos del siglo 19. Estos estudios
trajeron consecuencias sumamente altas, siendo una de ellas la aclaración de la naturaleza de la
luz.
Como se ha ido descubriendo, lo que percibimos como “luz visible” es realmente una propagación
oscilatoria en el campo electromagnético, es decir, una onda electromagnética. Diferentes
frecuencias de oscilación dan a lugar a las diferentes formas de radiación electromagnética, desde
las ondas de radio de frecuencias bajas, la luz visible en frecuencias intermedias, hasta los rayos
gamma con las frecuencias bastante altas.
La idea anterior fue propuesta y materializada por el físico escocés James Clerk Maxwell (1831-
1879), quien luego de estudiar los fenómenos eléctricos y magnéticos concluyó que son producto
de una misma interacción, denominada interacción electromagnética, lo que le llevó a formular,
alrededor del año 1850, las ecuaciones antes citadas, que llevan su nombre, en las que se
describe el comportamiento del campo electromagnético. Estas ecuaciones dicen esencialmente
que:
Existen portadores de cargas eléctricas, y las líneas del campo eléctrico parten desde las cargas
positivas y terminan en las cargas negativas.
No existen portadores de carga magnética; por lo tanto, el número de líneas del campo magnético
que salen desde un volumen dado, debe ser igual al número de líneas que entran a dicho volumen.
Un imán en movimiento, o, dicho de otra forma, un campo magnético variable, genera una corriente
eléctrica llamada corriente inducida.
Cargas eléctricas en movimiento generan campos magnéticos.
Acústica
El sonido es la vibración de un medio elástico, bien sea gaseoso, liquido o sólido. Cuando nos
referimos al sonido audible por el oído humano, estamos hablando de la sensación detectada por
nuestro oído, que producen las rápidas variaciones de presión en el aire por encima y por debajo
de un valor estático. Este valor estático nos lo da la presión atmosférica (alrededor de 100.000
pascals) el cual tiene unas variaciones pequeñas y de forma muy lenta, tal y como se puede
comprobar en un barómetro.
¿Cómo son de pequeñas y de rápidas las variaciones de presión que causan el sonido?. Cuando
las rápidas variaciones de presión se centran entre 20 y 20.000 veces por segundo (igual a una
frecuencia de 20 Hz a 20 kHz) el sonido es potencialmente audible aunque las variaciones de
presión puedan ser a veces tan pequeñas como la millonésima parte de un pascal. Los sonidos
muy fuertes son causados por grandes variaciones de presión, por ejemplo una variación de 1
pascal se oiría como un sonido muy fuerte, siempre y cuando la mayoría de la energía de dicho
sonido estuviera contenida en las frecuencias medias (1kHz - 4 kHz) que es donde el iodo humano
es más sensitivo.
El sonido lo puede producir diferentes fuentes, desde una persona hablando hasta un altavoz, que
es una membrana móvil que comprime el aire generado ondas sonoras.
La frecuencia de una onda sonora se define como el número de pulsaciones (ciclos) que tiene por
unidad de tiempo (segundo). La unidad correspondiente a un ciclo por segundo es el hertzio (Hz).
Las frecuencias más bajas se corresponden con lo que habitualmente llamamos sonidos "graves”,
son sonidos de vibraciones lentas. Las frecuencias mas altas se corresponden con lo que
llamamos "agudos" y son vibraciones muy rápidas.
El espectro de frecuencias audible varia según cada persona, edad etc. Sin embrago normalmente
se acepta como los intervalos entre 20 Hz y 20 kHz.
En Acústica la mayoría de las veces el decibelio se utiliza para comparar la presión sonora, en el
aire, con una presión de referencia. Este nivel de referencia tomado en Acústica, es una
aproximación al nivel de presión mínimo que hace que nuestro iodo sea capaz de percibirlo. El
nivel de referencia varía lógicamente según el tipo de medida que estemos realizando. No es el
mismo nivel de referencia para la presión acústica, que para la intensidad acústica o para la
potencia acústica. A continuación se dan los valores de referencia.
- Nivel de Referencia para la Presión Sonora (en el aire) = 0.00002 = 2E-5 Pa (rms)
- Nivel de Referencia para la Intensidad Sonora (en el aire) = 0.000000000001 = 1E-12 w/m^2
- Nivel de Referencia para la Potencia Sonora (en el aire) = 0.00000000001 = 1E-12 w
Como su nombre indica el decibelio es la décima parte del Bel. El Bel es el logaritmo en base 10 de
la relación de dos potencias o intensidades. No obstante esta unidad resulta demasiado grande por
lo que se ha normalizado el uso de la décima parte del Bel, siendo el decibel o decibelio. La
formula para su aplicación es la siguiente, partiendo que la intensidad acústica en el campo lejano
es proporcional al cuadrado de la presión acústica, se define el nivel de presión sonora como:
Siendo Lp = Nivel de Presión sonora; p la presión medida; pr la presión de referencia (2E-5 Pa)
Como es fácil ver el nivel de referencia siempre se corresponde con el nivel de 0 dB:
- Lp = 20log (0.00002/0.00002) = 20log(1) = 20 * 0 = 0 dB
Por la tanto en 0 dB tenemos el umbral de audición del iodo humano, se supone que no es posible
oír por debajo de este nivel, o sea variaciones de nivel en la presión del aire inferiores a 0,00002
pascal.
La razón por la que se utiliza el decibelio, es que si no, tendríamos que estar manejando números
o muy pequeños o excesivamente grandes, llenos de ceros, con lo que la posibilidad de error seria
muy grande al hacer cálculos. Además, también hay que tener en cuenta que el comportamiento
del iodo humano esta mas cerca de una función logarítmica que de una lineal, ya que no percibe la
misma variación de nivel en las diferentes escalas de nivel, ni en las diferentes bandas de
frecuencias.
Para medir el nivel sonoro disponemos de los Sonómetros. Estos aparatos nos permiten conocer el
Nivel de Presión sonora o SPL (Sound Presure Level). Normalmente suelen ser sistemas digitales
y presentan en una pantalla de cristal liquido los valores medidos. Estos siempre se dan como
decibelios dB y en referencia al valor antes señalado de (2E-5 Pa). Con el sonómetro es posible
además del hallar el valor rms de la presión, también ver los picos máximos y niveles mínimos de
la medida. Como se verá en el capitulo de ponderaciones, los sonómetros normalmente no dan la
medida en dB lineales si no que dan ya con la ponderación y son dBA/dBC etc.
Una función muy utilizada a la hora de medir niveles de presión acústica y que ofrecen los
sonómetros es la medición en modo Leq. Normalmente se utiliza el Leq 1´ (leq a un minuto). El
sonómetro mide las diferentes presiones que se generan durante un tiempo determinado (Leq X)
siendo X = 1 minuto en nuestro caso, el valor que nos da al finalizar el minuto de medida es un
valor en dB que equivaldría al de una señal de valor continuo durante todo el minuto y que utilizaría
la misma energía que se ha medido durante el minuto. Hay que observar que en una medida de un
minuto los valores varían y si se quiere determinar un valor medio de ruido hay que hacerlo con la
función Leq, de otra forma se obtendrán valores erróneos puesto que podemos tener valores de
pico durante un instante y no ser representativos del nivel de ruido normal que se esta intentando
determinar.
En el punto anterior hemos visto que el dB es un valor lineal, quiere decir que los valores medidos
son los valores tomados como validos sin que sufran ninguna alteración. Si los valores de presión
acústica los medimos de esta forma, linealmente, aun siendo cierta dicha medida, tendrá poco
valor en cuanto a la percepción del odio humano. El oído no se comporta igual para el mismo nivel
de presión en diferentes frecuencias. Por ejemplo tomemos un sonido lineal en toda la banda de 20
Hz a 20 kHz tenemos en todas las bandas un nivel de 30 dB, si nuestro iodo fuese lineal oiríamos
los mismo o mejor con la misma intensidad auditiva las frecuencias más bajas, que las medias y
que las agudas. Sin embargo, esto no es cierto el iodo humano tiene una menor sensibilidad en las
frecuencias mas graves, y en las más agudas frente a las medias. Lo que más oímos, por tanto,
son las frecuencias medias, y las que menos las más graves seguidas de las más agudas.
Como vemos es necesario encontrar una forma de ajustar los niveles de dB que hemos medido
con la percepción que el oído tiene de los mismos según cada frecuencia. Esta corrección se
realiza ponderando los dB medidos mediante una tabla de ponderación ya especificada y que se
llama tabla "A". Los decibelios ya ponderados en "A" se representan como dBA y los no
ponderados, llamados lineales, como dB.
Por ejemplo si en una frecuencia de 100 Hz hemos medido 80 dB, al ponderarlo pasaran a ser 60,9
dBA, esto quiere decir que un nivel de presión sonora de 80 dB en una frecuencia de 100 Hz es
oída por nuestro sistema de audición como si realmente tuviese 60,9 dBA y no 80 dB.
Hemos visto que el decibelio es una función logarítmica y, por tanto, cuando hablamos de dB de
presión sonora no es posible sumarlos sin más. Por ejemplo 30 dB + 30 dB no es igual a 60 dB si
no a 33 dB como vamos a ver a continuación.
30 dB + 30 dB = 10 log(10^(30/10) + 10^(30/10) =
10 log(10^3 + 10^3) = 10 log (1000 + 1000) = 33 dB
La suma de dos dB nunca puede ser mas de 3 dB mas que el mayor de los dos. Si la diferencia
que hay entre los dos valores a sumar es mayor de 10 dB la suma no tiene valor practico y se toma
el valor del mayor de los dos. Por ejemplo si sumamos 20 dB + 10 dB el resultado será igual a 20
dB (aproximado). Solamente son significativos para la suma los valores que tienen una diferencia
menor a 10 dB.
Por encima de los 100 dBA es muy recomendable siempre que sea posible utilizar protectores para
los oídos. Si la exposición es prolongada, por ejemplo en puestos de trabajos, se considera
necesario el utilizar protectores en ambientes con niveles de 85 dBA, siempre y cuando la
exposición sea prolongada. Los daños producidos en el oído por exposiciones a ruidos muy fuertes
son acumulativos e irreversibles, por lo que se deben de extremar las precauciones. De la
exposición prolongada a ruidos se observan trastornos nerviosos, cardiacos y mentales.
Es el parámetro más fácil de medir, se puede medir con un sonómetro. Su valor depende del punto
donde midamos, del local etc. Realmente no da mucha información sobre las características
acústicas de la fuente, a no ser que se haga un análisis frecuencial de los nivel de presión, dado
que el SPL siempre esta influenciado por la distancia a la fuente, el local etc.
Se puede definir como la cantidad de energía sonora transmitida en una dirección determinada por
unidad de área. Con buen oído se puede citar dentro de un rango de entre 0.000000000001 w por
metro cuadrado, hasta 1 w.
Para realizar la medida de intensidades se utiliza actualmente analizadores de doble canal con
posibilidad de espectro cruzado y una sonda que consiste en dos micrófonos separados a corta
distancia. Permite determinar la cantidad de energía sonora que radia una fuente dentro de un
ambiente ruidoso. No es posible medirlo con un sonómetro. El nivel de intensidad sonora se mide
en w/m2.
La potencia acústica es la cantidad de energía radiada por una fuente determinada. El nivel de
potencia Acústica es la cantidad de energía total radiada en un segundo y se mide en w. La
referencia es 1pw = 1E-12 w.
Para determinar la potencia acústica que radia una fuente se utiliza un sistema de medición
alrededor de la fuente sonora a fin de poder determinar la energía total irradiada.
La potencia acústica es un valor intrínseco de la fuente y no depende del local donde se halle. Es
como una bombilla, puede tener 100 w y siempre tendrá 100 w la pongamos en nuestra habitación
o la pongamos dentro de una nave enorme su potencia siempre será la misma. Con la potencia
acústica ocurre lo mismo el valor no varia por estar en un local reverberante o en uno seco. Al
contrario de la Presión Acústica que si que varia según varíe las características del local donde se
halle la fuente, la distancia etc.
La velocidad de propagación del sonido en el aire es de unos 334 m/s. y a 0º es de 331,6 m/s. La
velocidad de propagación es proporcional a la raíz cuadrada de la temperatura absoluta y es
alrededor de 12 m/s mayor a 20º.
La velocidad es siempre independiente de la presión atmosférica.
Si necesitas más datos sobre la propagación del sonido en los materiales recurre al CRC
Handbook of Chemistry & Physics.
El Tiempo de Reverberación RT, es el tiempo que tarda una señal, desde que esta deja de sonar,
en atenuarse un nivel de 60 dB. Para realizar la medida se genera un ruido y se mide a partir de
que este deja de sonar, entonces se determina el tiempo que tarda en atenuarse 60 dB.
El Tiempo de Reverberación se mide de forma frecuencial, esto es, un local no tiene el mismo RT
en 200 Hz que en 4 kHz. Ello es debido a que el RT viene determinado por el Volumen de la sala, y
por los coeficientes de absorción de sus superficies, o si se prefiere por las superficies con un
coeficiente de absorción determinado. Como los coeficientes de absorción de los diferentes
materiales que componen cualquier local no son iguales para todas las frecuencias, las reflexiones
generadas en el interior del local serán diferentes para cada frecuencia y por lo tanto el RT del local
es diferente según las frecuencias.
Para calcular la RT de un local sin realizar mediciones se puede utilizar la formula de Sabine:
Como norma cuanto mayor sea el local mayor es el RT. Si los materiales que lo componen
internamente son poco absorbentes el RT también aumentara.
Sabiendo los materiales de una sala y sabiendo sus coeficientes de absorción podemos saber
como sonora esa sala en cada frecuencia y podremos también saber, mediante la formula de
Sabine, Eyring etc., el tiempo de reverberación también por frecuencias.
Nominal ..............Exacta
Cuando se genera un sonido en el interior de un local las superficies que componen el mismo
ocasionan una serie de diferentes efectos dependiendo de las características de dichas superficies.
Esto ocurre porque las ondas sonoras inciden en las diferentes superficies y estas las reflejan de
diferente forma según su coeficiente de reflexión acústica.
Como es lógico, primero siempre se percibe el sonido directo, esto es, el sonido que nos llega a
nuestro oído sin que aún se halla reflejado en ninguna superficie. Una vez recibido el sonido
directo, llegará a nuestros oídos, con un retraso de tiempo con respecto al sonido directo, el sonido
reflejado por las superficies del local.
Tanto el retraso como el nivel sonoro del sonido reflejado dependen de las características físicas
del local y sus superficies.
Si el retraso entre el sonido directo y el reflejado es mayor de 1/10 de segundo, nuestro sistema de
audición será capaz de separar las dos señales y percibirlas como tales, primero una y después la
otra, esto es lo que se entiende por eco. Por ejemplo: supongamos que estamos dentro de un local
de grandes dimensiones y una persona que esta separada de nosotros a cierta distancia nos dice
"HOLA"; primero llegara a nuestros oídos el "HOLA" del sonido directo, y en el caso de un Eco este
nos llegara como mínimo 1/10 segundo después, por lo tanto oiremos
Cuando en la misma situación que en el caso anterior, el sonido reflejado nos llega con un tiempo
inferior a 1/10 de segundo, nuestro sistema de audición no es capaz de separar ambas señales y
las toma como una misma pero con una duración superior de esta. Normalmente esto se entiende
como reverberación. La reverberación de un local se mide según su tiempo de reverberación (rt) en
segundos y varia según la frecuencia de análisis que se utilice. Esto es debido a que los diferentes
materiales que componen las superficies del local no se comportan por igual en todo el espectro
sonoro, y, por tanto, los coeficientes de absorción de cada superficie de un mismo material varia
según la frecuencia. Conociendo el tiempo de reverberación de un local podemos saber como se
comportara el mismo en diferentes aplicaciones. Cuando el tiempo de reverberación alcanza
valores muy altos con respecto al sonido directo, puede ocurrir un enmascaramiento de este y se
puede perder la capacidad de entender la información contenida en el mensaje que se percibe.
La resonancia se ocasiona cuando un cuerpo entra en vibración por simpatía con una onda sonora
que incide sobre el y coincide su frecuencia con la frecuencia de oscilación del cuerpo o esta es
múltiplo entero de la frecuencia de la onda que le incide.
Como ya sabemos la frecuencia es una entidad física y, por tanto, puede ser medida de forma
objetiva por diferentes medios. Por contra la altura o tono de un sonido es un fenómeno totalmente
subjetivo y, por tanto, no es posible medirlo de forma objetiva.
Normalmente cuando se aumenta la frecuencia de un sonido, su altura también sube, sin embargo,
esto no se da de forma lineal, o sea, no se corresponde la subida del valor de la frecuencia con la
percepción de la subida de tono.
La valoración subjetiva del tono se ve condicionada no sólo por el aumento de la frecuencia sino
también por la intensidad, y por el valor de dicha frecuencia. Para frecuencias inferiores a 1 kHz
(incluida esta), si se aumenta la intensidad el tono disminuye, entre 1 kHz y 5 kHz el tono es
prácticamente independiente de la intensidad que tenga, por encima de 5 kHz el tono aumenta si
aumenta la intensidad.
¿Por que podemos distinguir el sonido de un piano al de una trompeta, o el de un violín a una viola,
o la voz de nuestro hermano con la de un amigo?.
El timbre hace posible que cada instrumento pueda tener un color determinado y particular que lo
distingue de otros aun cuando su espectro sonoro pueda parecer similar.
El timbre esta formado por un conjunto de frecuencias de alturas sonoras fijas (ámbito de
formantes). De forma sencilla se puede decir que el timbre lo forma la frecuencia fundamental del
instrumento, más su composición armónica.
La frecuencia fundamental de dos instrumentos diferentes puede ser la misma, pero su
composición armónica es diferente y es lo que hace que los podamos distinguir. Por ejemplo: si
generamos una frecuencia de 440 Hz con un piano y con una guitarra, aun cuando ambos están
afinados en la misma frecuencia y generando la misma, cada uno suena diferente. Esto es debido
a que cada instrumento genera una serie de armónicos según la construcción del propio
instrumento, en el piano el arpa metálico y la caja generan una serie de armónicos con una serie
de niveles sonoros que le dan su sonido característico. En la guitarra la caja, las cuerdas etc. le
confieren a la misma frecuencia un sonido diferente.
La forma de ejecutar el instrumento y la intensidad hacen también que el timbre varíe, al hacer
variar su composición armónica.
El efecto Doppler se origina cuando hay un movimiento relativo entre la fuente sonora y el oyente
cuando cualquiera de los dos se mueven con respecto al medio en el que las ondas se propagan.
El resultado es la aparente variación de la altura del sonido. Existe una variación en la frecuencia
que percibimos con la frecuencia que la fuente origina.
Para entenderlo mejor supongamos que estamos paradas en el andén de una estación, a lo lejos
un tren viene a gran velocidad con la sirena accionada, mientras el tren este lejos de nosotros
oiremos el silbido de la sirena como una frecuencia determinada, cuando el tren pase delante
nuestro y siga su camino, el sonido de la sirena cambia con respecto al estábamos oyendo y con
respecto al que vamos a oír una vez que el tren nos rebasa y sigue su camino.
Fuente móvil
fx = (c/(c-u))fs
Receptor en movimiento:
fx = ((c-v)/c)fs
Ambos en movimiento:
fx = ((c-v)/(c-u))fs
fx = Frecuencia aparente
c = Velocidad del sonido
v = Velocidad del observador
u = Velocidad de la fuente
fs = Frecuencia de la fuente
El termino de octava se toma de una escala musical, se considera el intervalo entre dos sonidos
que tienen una relación de frecuencias igual a 2 y que corresponde a ocho notas de dicha escala
musical. Por ejemplo: si comenzamos con una nota como DO, la octava completa será: DO-RE-MI-
FA-SOL-LA-SI-DO. Si el primer DO estaba afinado en 440 Hz el segundo estará en 880 Hz, ya que
hemos indicado que en la octava hay una relación de frecuencias igual a 2.
En el caso de un ecualizador gráfico de una octava, las frecuencias centrales de los filtros podían
ser las siguientes: 16 Hz - 31,5 Hz - 63 Hz - 125 Hz - 250 Hz - 500 Hz - 1kHz - 2 kHz - 4 kHz - 8
kHz - 16 kHz. En algunos casos la relación de 2:1 de la octava no se cumple exactamente.
Cuando se necesitan filtros de mayor precisión, de un ancho de banda mas estrecho, se puede
dividir la octava en valores más pequeños, por ejemplo: la media octava divide cada octava en dos,
y, por tanto, tendremos el doble de puntos que en una octava, siguiendo con el ejemplo empleado
en una octava tendríamos: 16 Hz - 22,4 Hz - 31,5 Hz - 45 Hz - 63 Hz - 90 Hz - 125 Hz - 180 Hz -
250 Hz - 355 Hz - 500 Hz - 710 Hz - 1kHz - 1,4 kHz - 2 kHz - 2,8 kHz - 4 kHz - 5,6 kHz - 8 kHz -
11,2 kHz - 16 kHz.
En el caso de un tercio de octava, cada intervalo de la octava se divide en tres partes con lo que
tendremos tres veces mas de filtros para poder ajustar, quedando los cortes como siguen: 16 Hz -
20 Hz - 25 Hz - 31,5 Hz - 40 Hz - 50 Hz - 63 Hz - 80 Hz - 100 Hz - 125 Hz - 160 Hz - 200 Hz - 250
Hz - 315 Hz - 400 Hz - 500 Hz - 630 Hz - 800 Hz - 1 kHz - 1,25 kHz - 1,6 kHz - 2 kHz - 2,5 kHz -
3,15 kHz - 4 kHz - 5 kHz - 6,3 kHz - 8 kHz - 10 kHz - 12,5 kHz - 16 kHz
w = f2 - f1
fc = Raíz Cuadrada(f1*f2)
La frecuencia central se puede ajustar a cualquier punto del espectro y mantienen siempre el
mismo ancho de banda. Por ejemplo: supongamos que tenemos un filtro de ancho de banda
constante con un ancho de banda de 20 Hz, si lo colocamos de forma que la frecuencia inferior sea
100 Hz (f1) la superior será igual a 120 Hz y su frecuencia central será 109,54 Hz
aproximadamente. Si ahora nos desplazamos a un margen de frecuencias superior, f1 = 4.000 Hz,
f2 será igual a 4020 Hz y la frecuencia central será 4010 Hz. Como se ve el ancho de banda
siempre es constante y no varia al variar el punto de trabajo del filtro.
Los filtros de ancho de banda proporcional son filtros que cumplen la remisa de f2/f1 =constante, o
sea, que si dividimos la frecuencia superior por la inferior siempre nos tiene que dar un valor que
sea constante, por lo que el ancho de banda es proporcional a la frecuencia central. En el caso de
un filtro de octava y de tercio de octava la relación de proporción es :
Octava f2/f1 = 2
Como es fácil deducir el ancho de banda de este tipo de filtros varía al variar la frecuencia, cuanto
más subimos mayor es el ancho de banda, siempre manteniendo la proporción expresada según el
filtro sea de octava, tercio etc.
Cada vez que subimos una octava doblamos el ancho de banda del filtro. Por ejemplo supongamos
que estamos trabajando con un filtro de 1/3 de octava y nos situamos en la frecuencia de 100 Hz
tenemos que la frecuencia inmediatamente inferior es 80 Hz y la superior 125, podemos obtener la
relación de proporcionalidad del filtro según:
f2/f1 = constante
125/80 = 1,56
Podemos ver que tenemos un valor de 1,56 y que corresponde a un ancho de banda de
f2-f1 = 125-80 = 45 Hz.
Si ahora con el mismo valor de la proporción (1,56) colocamos el filtro en la frecuencia central de
200 Hz en lugar de los 100 Hz de antes, veremos que la proporción se mantiene pero el ancho de
banda aumenta justo al doble:
Cada vez que subamos la frecuencia central aumentara el ancho de banda del filtro en la
proporción expresada (1 octava =2 y 1/3 octava = 2^(1/3)). Cada vez que doblamos la frecuencia
se dobla el ancho de banda del filtro. Por lo tanto este tipo de filtros resultan más precisos en las
frecuencias bajas que en las altas, ya que en frecuencias como 8 kHz el ancho de banda aumenta
hasta 3.700 Hz mientras que como hemos visto para el mismo filtro en la frecuencia de 100 Hz
tiene un ancho de banda de 45 Hz.
Los filtros proporcionales con resoluciones de octava, tercio etc. son los mas utilizados tanto en
analizadores como en ecualizadores para fines musicales y acústicos.
El ruido rosa es un ruido cuyo nivel sonoro esta caracterizado por un descenso de tres decibelios
por octava.
Cuando el ruido rosa se visualiza en un analizador con filtros de octava, el ruido se ve como si
todas las bandas de octava tuviesen el mismo nivel sonoro, lo cual es cierto, pero el ruido rosa no
tiene el mismo nivel en todas las frecuencias.
Esto ocurre por que como hemos visto en el capitulo anterior los filtros de octava, tercio etc., son
filtros proporcionales y, por tanto, cada vez que subimos una octava, doblamos el ancho de banda
y por ese motivo el ruido rosa decrece 3 dB por octava, justo la proporción en que aumenta el
ancho de banda, el doble. De esta forma visualizamos el ruido rosa como un ruido de nivel
constante en todas las bandas de octava.
Se utiliza para analizar el comportamiento de salas, altavoces, equipos de sonido etc. Es una señal
conocida, mismo nivel en todas las bandas (sonido "plano") , y si lo amplificamos con un altavoz
dentro de una sala podemos conocer datos sobre el comportamiento acústico del altavoz, la sala
etc. Normalmente se genera entre 20 Hz y 20 kHz. Su sonido es muy parecido al que podemos oír
cuando se sintoniza entre dos emisoras de FM, en el espacio que se recibe únicamente el ruido, es
como un soplido.
El ruido blanco es un ruido cuyo nivel es constante en todas las frecuencias. Si lo visualizamos con
un analizador con filtros de octava, veremos que el espectro mostrado no es lineal como hemos
dicho que es el ruido blanco, si no que aumenta 3 dB por octava. Esto se debe al mismo fenómeno
que con el ruido rosa, al doblar la octava se dobla el ancho de banda y si se tenemos el mismo
nivel sonoro en todas las frecuencias, el nivel sonoro por octava se doblara y aumentara 3 dB con
respecto al anterior.
Si tenemos una fuente sonora determinada, y estamos situados a una distancia de ella, al alejarnos
o acercarnos el nivel de presión sonora varia según las características de la fuente, el lugar donde
se encuentre y la distancia entre otros factores. Podemos calcular el nivel de presión acústica
dentro de un local en cualquier punto con la siguiente formula:
Lp = Lw + 10 log ((Q/4*Pi*r*2)+(4/R))
En espacios al aire libre se considera que cada vez que se dobla la distancia entre la fuente sonora
y el oyente, se disminuye el nivel sonoro en 6 dB. Por ejemplo supongamos que estamos
escuchando un altavoz a una distancia de 10 metros, si utilizamos un sonómetro y medimos el
nivel de presión acústica obtenemos un valor supuesto de 80 dB, si ahora nos distanciamos 10
metros mas, o sea, doblamos la distancia del punto inicial, obtendremos una lectura de 74 dB, 6 dB
menos que en el primer punto, si por ultimo nos alejamos 20 metros de este ultimo punto, doblando
así su distancia, estamos a 40 metros de la fuente, obtendremos también un descenso de 6 dB,
tendremos por tanto 68 dB.
”ptica
La óptica es la rama de la física que estudia el comportamiento de la luz y, más generalmente, de
las ondas electromagnéticas. Según el modelo utilizado para la luz, se distingue entre las
siguientes ramas, por orden creciente de precisión (cada rama utiliza un modelo simplificado del
empleado por la siguiente):
La óptica geométrica: Trata a la luz como un conjunto de rayos que cumplen el principio de Fermat.
Se utiliza en el estudio de la transmisión de la luz por medios homogéneos (lentes, espejos), la
reflexión y la refracción.
La óptica ondulatoria: Considera a la luz como una onda plana, teniendo en cuenta su frecuencia y
longitud de onda. Se utiliza para el estudio de difracción e interferencia.
La óptica electromagnética: Considera a la luz como una onda electromagnética, explicando así la
reflectancia y transmitancia, y los fenómenos de polarización y anisotropía.
La óptica cuántica u óptica física: Estudio cuántico de la interacción entre las ondas
electromagnéticas y la materia, en el que la dualidad onda-corpúsculo desempeña un papel crucial.
Fenómenos ópticos
1. difracción
2. refracción
3. reflexión
4. arco iris
5. ilusión óptica
6. Aberración longitudinal
7. Aumento óptico
En física, la difracción es un fenómeno característico de las ondas que consiste en la dispersión y
curvado aparente de las ondas cuando encuentran un obstáculo. La difracción ocurre en todo tipo
de ondas, desde ondas sonoras, ondas en la superficie de un fluído y ondas electromagnéticas
como la luz y las ondas de radio. También sucede cuando un grupo de ondas de tamaño finito se
propaga; por ejemplo, por culpa de la difracción, un haz angosto de ondas de luz de un láser deben
finalmente diverger en un rayo más amplio a una distancia suficiente del emisor.
Comparación entre los patrones de difracción e interferencia producidos por una doble rendija
(arriba) y cinco rendijas (abajo).El fenómeno de la difracción es un fenómeno de tipo interferencial y
como tal requiere la superposición de ondas coherentes entre sí. Los efectos de la difracción
disminuyen hasta hacerse indetectables a medida que el tamaño del objeto aumenta comparado
con la longitud de onda.
En el espectro electromagnético los rayos X tienen longitudes de onda similares a las distancias
interatómicas en la material. Es posible por lo tanto utilizar la difracción de rayos X como un
método para explorar la naturaleza de la estructura cristalina. Esta técnica permitió descubrir la
estructura de doble hélice del ADN en 1953. La difracción producida por una estructura cristalina
verifica la ley de Bragg.
Debido a la dualidad onda-corpúsculo característica de la mecánica cuántica es posible observar la
difracción de partículas como neutrones o electrones. En los inicios de la mecánica cuántica este
fue uno de los argumentos más claros a favor de la descripción ondulatoria que realiza la mecánica
cuántica de las partículas subatómicas.
La refracción (del latín fractum, "quebrado") es el cambio de dirección que experimenta una onda
electromagnética debido al cambio de velocidad cuando pasa de un medio con un índice de
refracción dado a un medio con otro índice de refracción distinto.
Un ejemplo de este fenómeno se ve cuando se sumerge un lápiz en un vaso con agua: el lápiz
parece quebrado.
También ocurre cuando la luz pasa por una capa de aire sobre una superficie caliente, produciendo
un espejismo.
Refracción de la luz
Refracción de la luz. Se produce cuando la luz pasa de un medio de propagación a otro con una
densidad óptica diferente, sufriendo un cambio de velocidad y un cambio de dirección si no incide
perpendicularmente en la superficie. Esta desviación en la dirección de propagación se explica por
medio de la ley de Snell. Esta ley, así como la refracción en medios no homogéneos, son
consecuencia del principio de Fermat, que indica que la luz se propaga entre dos puntos siguiendo
la trayectoria de recorrido óptico de menor tiempo.
Por otro lado, la velocidad de propagación de la luz en un medio distinto del vacío está en relación
con la longitud de la onda y, cuando un haz de luz blanca pasa de un medio a otro, cada color sufre
una ligera desviación. Este fenómeno es conocido como dispersión de la luz. Por ejemplo, al llegar
a un medio más denso, las ondas más cortas pierden velocidad sobre las largas (ej: cuando la luz
blanca atraviesa un prisma). Las longitudes de onda corta son hasta 4 veces más dispersadas que
las largas lo cual explica que el cielo se vea azulado, ya que para esa gama de colores el índice de
refracción es mayor y se dispersa más.
Refracción del sonido
Es la desviación que sufren las ondas cuando el sonido pasa de un medio a otro diferente. A
diferencia de lo que ocurre en la reflexión, en la refracción, el ángulo de refracción ya no es igual al
de incidencia.
El término reflexión puede tener distintos significados:
En ”ptica se refiere al fenómeno por el cual un rayo de luz que incide sobre una superficie es
reflejado. El ángulo con la normal a esa superficie que forman los rayos incidente y reflejado son
iguales. Se produce también un fenómeno de absorción diferencial en la superficie, por el cual la
energía y espectro del rayo reflejado no coinciden con la del incidente. Para una explicación más
detallada véase radiación electromagnética.
Hace más de tres siglos, Isaac Newton logró demostrar con ayuda de un prisma que la luz blanca
del Sol contiene colores a partir del rojo, pasando por el amarillo, por el verde y por el azul, hasta
llegar al violeta. Esta separación de la luz en los colores que la conforman recibe el nombre de
descomposición de la luz blanca.
El experimento de Newton es relativamente fácil de reproducir, pues no es necesario contar con
instrumental científico especial para llevarlo a cabo. Incluso hoy en día resulta ser uno de los más
hermosos e instructivos para los incipientes estudiantes de óptica en educación básica y medio
superior.
Pero muchos siglos antes de que naciera Newton la naturaleza ya había descompuesto la luz del
Sol una y otra vez ante los ojos de nuestros antepasados. Algunas veces, luego de una llovizna;
otras, después de una tormenta. Lo cierto es que el arco iris fue durante mucho tiempo un
fenómeno tan asombroso como sobrecogedor. Tomado en ocasiones como portador de augurios,
en otras como inspiración de leyendas, y siempre como una obra de arte, nunca ha dejado de
parecer maravilloso al ser humano.
La Teoría Elemental del arco iris fue, sin embargo, anterior a Newton. Desarrollada primero por
Antonius de Demini en 1611, fue retomada y refinada luego por René Descartes. Posteriormente, la
Teoría Completa del arco iris fue propuesta en forma inicial por Thomas Young y, más tarde,
elaborada en detalle por Potter y Airy.
Cuando la luz solar incide sobre las gotas de lluvia, éstas se encargan de dispersarla en todas
direcciones, pero en algunas mucho más que en otras. Los rayos del Sol involucrados con la
formación del arco iris salen de las gotas de lluvia con un ángulo de aproximadamente 138 grados
respecto de la dirección que llevaban antes de entrar en ellas. Este es el "ángulo del arco iris",
descubierto por René Descartes en el año de 1637. Si la luz saliera a 180 grados, entonces
regresaría por donde vino. Como el ángulo de salida es de sólo 138 grados, la luz no se refleja
exactamente hacia su origen. Esto hace posible que el arco iris sea visible para nosotros, que no
solemos encontramos exactamente entre el Sol y la lluvia. De manera que siempre, si nos
colocamos de frente a un arco iris, el Sol estará detrás de nosotros.
Para ser más precisos, es la luz amarilla la que es dispersada a 138 grados de su trayectoria
original. La luz de otros colores es dispersada en ángulos algo distintos. La luz roja del arco iris se
dispersa en una dirección ligeramente menor que 138 grados, mientras que la luz violeta sale de
las gotas de lluvia en un ángulo un poco mayor.
Un rayo de luz solar, de los que "hacen" un arco iris, cambia su dirección tres veces mientras se
mueve a través de una gota de lluvia: Primero entra en la gota, lo cual ocasiona que se refracte
ligeramente. Entonces se mueve hacia el extremo opuesto de la gota, y se refleja en la cara interna
de la misma. Finalmente, vuelve a refractarse cuando sale de la gota de lluvia en forma de luz
dispersa.La descomposición en colores es posible porque el índice de refracción de la gota de
agua es ligeramente distinto para cada longitud de onda, para cada color del arco iris.
La luz solar emerge de muchas gotas de lluvia a un tiempo. El efecto combinado es un mosaico de
pequeños destellos de luz dispersados por muchas gotas de lluvia, distribuido como un arco en el
cielo. Los diversos tamaños y formas de las gotas afectan la intensidad de los colores del arco iris.
Gotas pequeñas hacen un arco iris pálido y de colores con tonalidades pastel; gotas grandes
producen colores muy vivos. Además, las gotas grandes son aplastadas por la resistencia del aire
mientras caen. Esta distorsión ocasiona que el "final" del arco iris tenga colores más intensos que
la cresta. Quizás sea ésta la causa de la leyenda que sugiere la existencia de una olla que contiene
oro resplandeciente en el final del arco iris.
A veces, es posible ver también lo que se conoce como arco iris secundario, el cual es más débil y
presenta los colores invertidos. El arco iris primario, que hemos dado en llamar simplemente "arco
iris", es siempre un arco interior del arco iris secundario. Este segundo arco existe porque ciertos
rayos de luz se reflejan una vez más dentro de la gota y se dispersan luego en un ángulo de
aproximadamente 130 grados.
Es interesante señalar que ninguna luz emerge en la región entre los arco iris primario y
secundario. Esto coincide con algunas observaciones, que señalan que la región entre los dos
arcos es muy oscura, mientras que en la parte exterior del arco secundario y en la parte interior del
arco primario es visible una considerable cantidad de luz. Esta zona oscura es conocida como
"Banda de Alejandro".
Teóricamente, tres, cuatro y cinco reflexiones de los rayos solares dentro de las gotas de lluvia
producirán otros tantos arco iris. Los arcos tercero y cuarto están localizados entre el observador y
el Sol pero, debido a que la luz solar directa es muy brillante comparada con los arcos débiles,
probablemente el fenómeno nunca será observado. Sin embargo, el quinto arco iris se produce en
la misma parte del cielo que los arcos primario y secundario, y debería poder verse excepto por lo
tenue de su luz. Es posible, en un experimento de laboratorio, demostrar que se pueden conseguir
hasta 13 arcos iris visibles, aunque, lógicamente su luminosidad se reduce considerablemente.
En algunas ocasiones, cuando los arco iris primario y secundario son muy brillantes, se puede
observar un tercero dentro del primario y un cuarto fuera del secundario. A estos arcos se les llama
arcos supernumerarios y se deben a efectos especiales de interferencia luminosa.
Alguien que ve un arco iris, en realidad no está viendo cosa alguna que esté en un sitio fijo. El arco
iris es sólo un fantasma, una imagen. Se cuenta que un pasajero de un pequeño avión le pidió una
vez al piloto de la aeronave que cruzara el centro del arco iris. El arco iris nunca fue creciendo
conforme el avión volaba hacia él. Luego de un rato, el arco iris se desvaneció, pues el avión voló
fuera del área donde la lluvia lo producía. Así, este inocente pasajero se quedó con las ganas de
volar a través del arco iris.
Cuando alguien mira un arco iris, lo que está viendo en realidad es luz dispersada por ciertas gotas
de lluvia. Otra persona que se encuentre al lado del primer observador verá luz dispersada por
otras gotas. De manera que, aunque suene gracioso, puede decirse que cada quien ve su propio
arco iris, distinto (hablando en un sentido estricto) del que ven todos los demás.
Si las condiciones atmosféricas y el sitio de observación son perfectos, entonces la lluvia y el Sol
trabajan juntos para crear un anillo de luz completo, denominado arco iris circular.
Desgraciadamente, no es posible ver un arco iris circular desde la superficie de la Tierra, debido a
que el horizonte limita considerablemente el campo de visión. Así, aunque las condiciones
atmosféricas sean las que se requieren para un arco iris circular, no es posible admirar este bello
fenómeno porque la parte de abajo del círculo es bloqueada por el horizonte. De tal suerte que
siempre vemos los arco iris como arcos, mas no como círculos en el cielo.
Respecto de las condiciones para ver un arco iris se reducen a que el observador tiene que estar
localizado entre el sol y una lluvia de gotas esféricas (una lluvia uniforme). Es posible que el
observador crea que la lluvia no es uniforme donde él se encuentra, pero sí debe serlo desde
donde localizaría el arco iris. ¿Y cuando son las gotas esféricas? Las gotas son esféricas cuando
caen a una velocidad uniforme, constante. Esto es posible en condiciones de aceleración
gravitatoria contando con las fuerzas viscosas de oposición del aire. Cuando se cumple que la
velocidad de las gotas es uniforme, la gota adquiere un volumen máximo con la mínima superficie
(esfera). Sólo en estas condiciones es posible la dispersión luminosa dentro de la gota y por tanto
el arco iris, aunque ligeras variaciones de la esfera puedan dar diversas variaciones en un arco iris.
Por lo tanto, la lluvia no debe ser torrencial, ni estar afectada por el viento. Es por ello que no
siempre se contempla el arco iris cuando hay lluvia y sol.
Es importante notar la altura del Sol cuando uno observa un arco iris, pues es algo que ayuda a
determinar qué tanto alcanza uno a ver de él: cuanto más bajo se encuentre el Sol, más alta será la
cresta del arco iris y viceversa. Alguien que pueda elevarse un poco sobre la superficie de la Tierra,
se daría cuenta de que ciertos arco iris continúan por debajo del horizonte. Quienes escalan
montañas altas han logrado ver en ocasiones una buena parte de arco iris circulares completos.
Pero ni siquiera las montañas poseen la suficiente altura como para poder llegar a observar un
arco iris circular en su totalidad.
Los aviadores han reportado algunas veces haber visto genuinos arco iris circulares completos, los
cuales curiosamente han pasado inadvertidos para los pasajeros de sus aeronaves. Esto puede
deberse a que las ventanas de los viajeros son muy estrechas y ofrecen un campo de visión muy
reducido, a diferencia del impresionante campo visual que tiene el piloto.
Descomposición de la luz en una gota de agua.De manera que, si usted es de las personas que
viajan muy a menudo en avión, no desprecie el asiento de ventanilla. Porque, durante un día
lluvioso y con un poco de suerte, tal vez llegue a ver un círculo de brillantes colores suspendido en
el cielo azul.
Una ilusión óptica es cualquier ilusión del sentido de la vista, que nos lleva a percibir la realidad
erróneamente. Éstas pueden ser de carácter fisiológico (como el encandilamiento tras ver una luz
potente) o cognitivo (como la variación en el tamaño aparente de la luna, que parece ser más chica
cuando está sobre nosotros y más grande cuando la vemos cerca del horizonte).
Increiblemente, el cuadrado A es exactamente del mismo color que el cuadrado BNo están
sometidos a la voluntad y pueden variar entre una persona y otra, dependiendo de factores como:
agudeza visual, campimetría, daltonismo, astigmatismo y otros.
Entender estos fenómenos es útil para comprender las limitaciones del sentido visual del ser
humano y la posibilidad de distorsión, ya sea en lo relativo a la forma, el color, la dimensión y la
perspectiva de lo observado.
Muchos artistas han aprovechado las ilusiones ópticas para dar a sus obras un aspecto mágico, de
profundidad, de ambigüedad y contrastes.
El cine también produce una ilusión óptica, ya que una película consiste en una serie de fotografías
que al ser proyectadas, dan la sensación de movimiento aparente. Los efectos especiales de las
películas, también se basan en ilusiones ópticas.
Ilusión de la cuadrícula
Espejismo
Holograma
Estereograma
Aunque no lo parezca, las líneas verticales son iguales y paralelasMuchos artistas han trabajado
con las ilusiones ópticas, incluyen M. C. Escher, Salvador Dalí, Giuseppe Arcimboldo, Marcel
Duchamp, Oscar Reutersvär y algunos otros que han trabajado con la perspectiva.
La ilusión óptica también se usa en el cine, conocida es la técnica de la perspectiva forzada, que
nos hace ver maquetas pequeñas como escenarios reales y gigantes
Aberración longitudinal
En óptica la aberración longitudinal es la distancia a lo largo del eje óptico desde el foco de los
rayos paraxiales hasta el punto en que los rayos provenientes de los bordes exteriores de las
lentes o superficies reflectantes intersectan dicho eje.
En la aberración de cromatismo, la distancia, medida sobre el eje óptico, entre los focos de dos
colores patrón.
Termodinámica
Los sistemas físicos que encontramos en la Naturaleza consisten en un agregado de un número
muy grande de átomos.
La materia está en uno de los tres estados: sólido, líquido o gas: En los sólidos, las posiciones
relativas (distancia y orientación) de los átomos o moléculas son fijas. En los líquidos las distancias
entre las moléculas son fijas, pero su orientación relativa cambia continuamente. En los gases, las
distancias entre moléculas, son en general, mucho más grandes que las dimensiones de las
mismas. Las fuerzas entre las moléculas son muy débiles y se manifiestan principalmente en el
momento en el que chocan. Por esta razón, los gases son más fáciles de describir que los sólidos y
que los líquidos.
El gas contenido en un recipiente, está formado por un número muy grande de moléculas,
6.02·1023 moléculas en un mol de sustancia. Cuando se intenta describir un sistema con un número
tan grande de partículas resulta inútil (e imposible) describir el movimiento individual de cada
componente. Por lo que mediremos magnitudes que se refieren al conjunto: volumen ocupado por
una masa de gas, presión que ejerce el gas sobre las paredes del recipiente y su temperatura.
Estas cantidades físicas se denominan macroscópicas, en el sentido de que no se refieren al
movimiento individual de cada partícula, sino del sistema en su conjunto.
Conceptos básicos
Se denomina ecuación de estado a la relación que existe entre las variables p, V, y T. La ecuación
de estado más sencilla es la de un gas ideal pV=nRT, donde n representa el número de moles, y R
la constante de los gases R=0.082 atm·l/(K mol).
Se denomina energía interna del sistema a la suma de las energías de todas sus partículas. En un
gas ideal las moléculas solamente tienen energía cinética, los choques entre las moléculas se
suponen perfectamente elásticos, la energía interna solamente depende de la temperatura.
dW=-Fdx=-pAdx=-pdV
El signo menos indica que si el sistema realiza trabajo (incrementa su volumen) su energía interna
disminuye, pero si se realiza trabajo sobre el sistema (disminuye su volumen) su energía interna
aumenta.
El trabajo total realizado cuando el sistema pasa del estado A cuyo volumen es VA al estado B cuyo
volumen es VB.
El calor
El calor no es una nueva forma de energía, es el nombre dado a una transferencia de energía de
tipo especial en el que intervienen gran número de partículas. Se denomina calor a la energía
intercambiada entre un sistema y el medio que le rodea debido a los choques entre las moléculas
del sistema y el exterior al mismo y siempre que no pueda expresarse macroscópicamente como
producto de fuerza por desplazamiento.
Se debe distinguir también entre los conceptos de calor y energía interna de una sustancia. El flujo
de calor es una transferencia de energía que se lleva a cabo como consecuencia de las diferencias
de temperatura. La energía interna es la energía que tiene una sustancia debido a su temperatura,
que es esencialmente a escala microscópica la energía cinética de sus moléculas.
El calor se considera positivo cuando fluye hacia el sistema, cuando incrementa su energía interna.
El calor se considera negativo cuando fluye desde el sistema, por lo que disminuye su energía
interna.
Q=nc(TB-TA)
Cuando no hay intercambio de energía (en forma de calor) entre dos sistemas, decimos que están
en equilibrio térmico. Las moléculas individuales pueden intercambiar energía, pero en promedio, la
misma cantidad de energía fluye en ambas direcciones, no habiendo intercambio neto. Para que
dos sistemas estén en equilibrio térmico deben de estar a la misma temperatura.
U=UB-UA
Supongamos que el sistema está en el estado A y realiza un trabajo W, expandiéndose. Dicho
trabajo mecánico da lugar a un cambio (disminución) de la energía interna de sistema
U=-W
También podemos cambiar el estado del sistema poniéndolo en contacto térmico con otro sistema
a diferente temperatura. Si fluye una cantidad de calor Q del segundo al primero, aumenta su
energía interna de éste último en
U=Q
• Si la transformación no es cíclica U 0
• Si no se realiza trabajo mecánico U=Q
• Si el sistema está aislado térmicamente U=-W
• Si el sistema realiza trabajo, U disminuye
• Si se realiza trabajo sobre el sistema, U aumenta
• Si el sistema absorbe calor al ponerlo en contacto térmico con un foco a temperatura
superior, U aumenta.
• Si el sistema cede calor al ponerlo en contacto térmico con un foco a una temperatura
inferior, U disminuye.
Todo estos casos, los podemos resumir en una única ecuación que describe la conservación de la
energía del sistema.
U=Q-W
Si el estado inicial y final están muy próximos entre sí, el primer principio se escribe
dU=dQ-pdV
Transformaciones
La energía interna U del sistema depende únicamente del estado del sistema, en un gas ideal
depende solamente de su temperatura. Mientras que la transferencia de calor o el trabajo
mecánico dependen del tipo de transformación o camino seguido para ir del estado inicial al final.
Q=ncV(TB-TA)
W=p(vB-vA)
Q=ncP(TB-TA)
Como la variación de energía interna dU no depende del tipo de transformación, sino solamente del
estado inicial y del estado final, la segunda ecuación se puede escribir como ncVdT=ncPdT-pdV
Empleando la ecuación de estado de un gas ideal pV=nRT, obtenemos la relación entre los calores
específicos a presión constante y a volumen constante
cV=cP-R
La curva p=cte/V que representa la transformación en un diagrama p-Ves una hipérbola cuyas
asíntotas son los ejes coordenados.
U=0
Q=W
Integrando
Si A y B son los estados inicial y final de una transformación adiabática se cumple que
Para calcular el trabajo es necesario efectuar una integración similar a la transformación isoterma.
Como podemos comprobar, el trabajo es igual a la variación de energía interna cambiada de signo
• Química
Química es la ciencia que estudia la estructura, propiedades y transformaciones de la materia a
partir de su composición atómica, formando diferentes sustancias
Campo de trabajo: el átomo
Átomo de Helio Los orígenes de la teoría atómica se remontan a la Grecia antigua, a la escuela
filosófica de los atomistas. La base empírica para tratar a la teoría atómica de acuerdo con el
método científico se debe a un conjunto de trabajos aportados por Lavoiser, Proust, Richter, Dalton,
Gay-Lussac y Avogadro, entre otros, hacia principios del siglo XIX.
El átomo es la menor fracción de materia de interés directo para la química, está constituido por
diferentes partículas que poseen diferentes tipos de cargas, los electrones con carga negativa, los
protones con carga positiva y los neutrones que como su nombre indica son neutros (sin carga);
todos ellos aportan masa para contribuir al peso del átomo. El estudio explícito de las partículas
subatómicas es parte del dominio de la física, la química sólo está interesada en estas partículas
en tanto en cuanto éstas definan el comportamiento de átomos y moléculas.
Los átomos son las partes más pequeñas de un elemento (como el carbono, el hierro o el oxígeno).
Todos los átomos de un mismo elemento tienen la misma estructura electrónica (responsable esta
de la gran mayoría de las características químicas), pudiendo diferir en la cantidad de neutrones
(isótopos). Las moléculas son las partes más pequeñas de una sustancia (como el azúcar), y se
componen de átomos enlazados entre sí. Si tienen carga eléctrica, tanto átomos como moléculas
se llaman iones: cationes si son positivos, aniones si son negativos.
Como los átomos, las moléculas y los iones son muy pequeños, normalmente se trabaja con
enormes cantidades de ellos. El mol se usa como contador de unidades, como la docena (12) o el
millar (1000), y equivale a . Se dice que 12 gramos de carbono, o un gramo de hidrógeno, o 56
gramos de hierro, contienen aproximadamente un mol de átomos.
Dentro de los átomos, podemos encontrar un núcleo atómico y uno o más electrones. Los
electrones son muy importantes para las propiedades y las reacciones químicas.
Los enlaces son las uniones entre átomos para formar moléculas. Siempre que existe una
molécula es porque ésta es más estable que los átomos que la forman por separado. A la
diferencia de energía entre estos dos estados se le denomina energía de enlace.
Generalmente, los átomos se combinan en proporciones fijas para dar moléculas. Por ejemplo, dos
átomos de hidrógeno se combinan con uno de oxígeno para dar una molécula de agua. Esta
proporción fija se conoce como estequiometría.
Los enlaces son las uniones entre átomos para formar moléculas. Siempre que existe una
molécula es porque ésta es más estable que los átomos que la forman por separado. A la
diferencia de energía entre estos dos estados se le denomina energía de enlace.
Generalmente, los átomos se combinan en proporciones fijas para dar moléculas. Por ejemplo, dos
átomos de hidrógeno se combinan con uno de oxígeno para dar una molécula de agua. Esta
proporción fija se conoce como estequiometría.
Los orbitales son funciones matemáticas para describir procesos físicos: un orbital solo existe en el
sentido matemático, como pueden existir una suma, una parábola o una raíz cuadrada. Los átomos
y las moléculas son también idealizaciones y simplificaciones: un átomo sólo existe en vacío, una
molécula sólo existe en vacío, y, en sentido estricto, una molécula sólo se descompone en átomos
si se rompen todos sus enlaces.
En el "mundo real" sólo existen los materiales y las sustancias. Si se confunden los objetos reales
con los modelos teóricos que se usan para describirlos, es fácil caer en falacias lógicas.
Formulación y nomenclatura
La IUPAC, un organismo internacional, mantiene unas reglas para la formulación y nomenclatura
química. De esta forma, es posible referirse a los compuestos químicos de forma sistemática y sin
equívocos.
Mediante el uso de fórmulas químicas es posible también expresar de forma sistemática las
reacciones químicas, en forma de ecuación química.
Campos de la química
Doble hélice de la molécula de ADNBioquímica - la química de los seres vivos y los procesos de la
vida
Química analítica - determinación cualitativa y cuantitativa de la composición de las muestras
Química física - determinación de las leyes y las constantes fundamentales que rigen los procesos
Química inorgánica - síntesis y estudio de los compuestos que no se basan en cadenas de carbono
Química orgánica - síntesis y estudio de los compuestos basados en cadenas de carbono
Química técnica - la química aplicada a procesos industriales
y otras disciplinas de la química
Propiedades de la materia
En Física la materia es aquello de lo que están hechos los objetos que constituyen el Universo
observable, lo que en común tienen en su composición. La materia tiene dos propiedades que
juntas la caracterizan, y éstas son que ocupa un lugar en el espacio y que tiene masa. Junto con la
energía, de la que puede considerarse un caso, la materia forma la base de los fenómenos
objetivos. Como explicó Einstein, la materia y la energía son interconvertibles, de tal modo que
podríamos decir, en sus propias palabras, que la materia es energía superconcentrada y que la
energía es materia superdiluida.
La materia y sus propiedades
La materia es todo lo que existe en el Universo y está compuesto por partículas elementales.
La materia se organiza jerárquicamente en varios niveles. El nivel más complejo es la agrupación
en moléculas y éstas a su vez son agrupaciones de átomos.
Los constituyentes de los átomos, que sería el siguiente nivel son:
Protones: partículas cargadas de electricidad positiva.
Electrones: partículas cargadas de electricidad negativa.
Neutrones: partículas sin carga eléctrica.
A partir de aquí hay todo un conjunto de partículas subatómicas que acaban finalmente en los
quarks o constituyentes últimos de la materia.
Estados de agregación
Comúnmente la materia se presenta en uno de cuatro estados de agregación molecular: sólido,
líquido, gaseoso y plasma. De acuerdo con la teoría cinética molecular la materia se encuentra
formada por moléculas y estas se encuentran animadas de movimiento, el cual cambia
constantemente de dirección y velocidad cuando chocan o bajo el influjo de otras interacciones
físicas. Debido a este movimiento presentan energía cinética que tiende a separarlas, pero también
tienen una energía potencial que tiende a juntarlas. Por lo tanto el estado físico de una sustancia
puede ser:
Plasma: Cuando la materia está muy caliente, tiene tanta energía cinética que los átomos no
pueden existir como tales y los componentes atómicos se disocian generando un gas altamente
ionizado y caliente. Dicho estado lo podemos encontrar en el sol.
Lavoiser un científico francés midió cuidadosamnete la masa de las sustancias antes y despues de
diversas reacciones químicas y llegó a la conclusión de que la materia no se puede crear ni
destruir, solon se transforma durante las reacciones. Lo anterior se conoce como la ley de la
conservación de la energía, y es una de las leyes más importantes de la Química. Se enuncia así:
Propiedades características
Permiten distinguir una sustancia de otra. También reciben el nombre de propiedades intensivas
porque su valor es independiente de la cantidad de materia. Las propiedades características se
clasifican en:
Físicas
Es el caso de la densidad, el punto de fusión, el punto de ebullición, el coeficiente de solubilidad, el
índice de refracción, el módulo de Young y las propiedades organolépticas.
Químicas
Están contituidas por el comportamiento de las sustancias al combinarse con otras, y los cambios
con su estructura íntima como consecuencia de los efectos de diferentes clases de energía.
Ejemplos:
corrosividad de ácidos
poder calorífico
acidez
reactividad
Estequiometría
La estequiometría (del griego στοιχειον, stoicheion, letra o elemento básico constitutivo y μετρον,
métron, medida) hace referencia al número relativo de átomos de varios elementos encontrados en
una sustancia química y a menudo resulta útil en la calificación de una reacción química.
Química orgánica
La química orgánica es la química de los compuestos de carbono.
El nombre engañoso <<orgánico>> es una reliquia de los tiempos en que los compuestos químicos
se dividían en dos clases: inorgánicos y orgánicos, según su procedencia. Los compuestos
inorgánicos eran aquellos que procedían de los minerales, y los orgánicos, los que se obtenían de
fuentes vegetales y animales, o sea, de materiales producidos por organismos vivos. De hecho,
hasta aproximadamente 1850 muchos químicos creían que los compuestos orgánicos debían tener
su origen en organismos vivos y, en consecuencia, jamás podrían ser sintetizados a partir de
sustancias inorgánicas.
Los compuestos de fuentes orgánicas tenían en común lo siguiente: todos contenían el elemento
carbono. Aun después de haber quedado establecido que estos compuestos no tenían
necesariamente que proceder de fuentes vivas, ya que podían hacerse en el laboratorio, resultó
conveniente mantener el nombre orgánico para describir éstos y otros compuestos similares,
persistiendo hasta la fecha esta división entre compuestos inorgánicos y orgánicos.
Aunque aún hoy muchos compuestos del carbono se aíslan mejor a partir de fuentes vegetales y
animales, la mayoría de ellos se obtienen por síntesis. A veces se sintetizan a partir de sustancias
inorgánicas, como carbonatos y cianuros, pero más a menudo se parte de otros compuestos
orgánicos. Hay dos grandes fuentes de las que se pueden obtener sustancias orgánicas simples: el
petróleo y el carbón. (Ambas son <<orgánicas>> en el sentido tradicional, puesto que son producto
de la descomposición de plantas y animales.) Estas sustancias simples se emplean como
elementos básicos, a partir de los cuales se pueden hacer compuestos más complicados.
¿Qué tienen de especial los compuestos del carbono que justifique su separación de los otros
ciento y pico elementos de la tabla periódica? Al menos parcialmente, la respuesta parece ser
ésta: hay muchísimos compuestos del carbono, y sus moléculas pueden ser muy grandes y
complejas.
El número de compuestos que contienen carbono es muchas veces mayor que el número de los
que no lo contienen. Estos compuestos orgánicos se han dividido en familias que, en general, no
tienen equivalentes entre los inorgánicos.
Se conocen moléculas orgánicas que contienen miles de átomos, cuyo ordenamiento puede ser
muy complicado, aun en moléculas relativamente pequeñas. Uno de los principales problemas en
química orgánica es encontrar cómo se ordenan los átomos en las moléculas, o sea, determinar
las estructuras de los compuestos.
Hay muchas maneras en que estas complicadas moléculas pueden romperse o reordenarse para
generar moléculas nuevas; hay muchas formas de agregar átomos a estas moléculas o de sustituir
átomos nuevos por antiguos. Una parte importante de la química orgánica se dedica a encontrar
estas reacciones, cómo suceden y cómo pueden emplearse para sintetizar las sustancias que
queremos.
¿Que tiene de especial el carbono para formar tantos compuestos? La respuesta a esta pregunta
se le ocurrió a August Kekulé en 1854 durante un viaje en ómnibus en Londres.
<<Era una noche de verano. Regresaba en el último ómnibus absorto como siempre, por las calles
desiertas de la ciudad, que a otras horas están llenas de vida. De pronto los vi, los átomos
danzaban ante mis ojos... Vi cómo, frecuentemente, dos pequeños átomos se unían formando un
par; vi cómo uno más grande aceptaba dos más pequeños; cómo uno aún mayor sujetaba a tres e
incluso a cuatro de loa más pequeños, mientras el conjunto continuaba arremolinándose en una
danza vertiginosa. Vi cómo los más grandes formaban una cadena... Pasé parte de la noche
vertiendo al papel algunos esbozos de estas formas soñadas.>> ( August Kekulé, 1890.)
Los átomos de carbono pueden unirse entre sí hasta grados imposibles para los átomos de
cualquier otro elemento. Pueden formar cadenas de miles de átomos o anillos de todos los
tamaños; estas cadenas y anillos pueden tener ramificaciones y uniones cruzadas. A los carbonos
de estas cadenas y anillos se unen otros átomos ; principalmente de hidrógeno, pero también
de flúor, cloro, bromo, yodo, oxígeno, nitrógeno, azufre, fósforo y muchos otros. [Véase, a modo
de ejemplos, la celulosa (Sec. 39.11), la clorofila (Sec. 35.1) y la oxitocina (sec. 40.8).]
Parte 2
La teoría estructural
<<La química orgánica actual está a punto de enloquecerme. Se me figura como un bosque
tropical primigenio lleno de las cosas más notables, una selva infinita y terrible en la que uno no se
atreve a penetrar porque parece que no hay salida. >> (Friedrich Wohler, 1835.)
¿Cómo podemos siquiera comenzar el estudio de una materia tan enormemente compleja? ¿Es
hoy la química orgánica como la veía Wohler hace siglo y medio? La selva aún está ahí- en gran
parte inexplorada- y en ella hay cosas mucho más notables que las que Wohler puedo haber
soñado. Sin embargo, mientras no vayamos demasiado lejos, ni demasiado aprisa, podremos
penetrar en ella sin el temor a perdernos, pues tenemos un mapa: la teoría estructural.
La teoría estructuras es la base sobre la cual se han acumulado millones de hechos acerca de
cientos de miles de compuestos individuales, ordenándolos en forma sistemática. Es la base sobre
la cual estos hechos pueden explicarse y comprenderse mejor.
La teoría estructural es el marco de ideas acerca de cómo se unen los átomos para formar
moléculas. Tiene que ver con el orden en que se juntan los átomos y con los electrones que los
mantienen unidos. Tiene que ver con las formas y tamaños de las moléculas que generan estros
átomos y con el modo de distribución de los electrones a su alrededor.
A menudo se presenta una molécula por un dibujo o un modelo; a veces por varios dibujos o varios
modelos. Los núcleos atómicos se presentan por letras o esferas de plástico, y los electrones que
los unen, por líneas, punto o varillas de plásticos. Estos modelos y dibujos aproximados son útiles
para nosotros sólo si entendemos lo qué representan. Interpretados en función de la teoría
estructural, nos revelan bastante acerca del compuesto cuyas moléculas representan; cómo
proceder para hacerlo, qué propiedades físicas se pueden esperar de él- punto de fusión, punto de
ebullición, densidad, tipo de disolventes en que se disolverá el compuesto, si será coloreado o no,
qué tipo de comportamiento químico esperar-, la clase de reactivos con los que reaccionará y el
tipo de productos que formará, y si reaccionará rápida y lentamente. Se podría saber todo esto
acerca de un compuesto desconocido para nosotros simplemente partiendo de su fórmula
estructural y de los que entendemos que ésta significa.
Parte 3
1.3 El enlace químico antes de 1926
Toda consideración de la estructura de las moléculas debe comenzar con un estudio de los enlaces
químicos, las fuerzas que mantienen unidos a los átomos en una molécula. Estudiaremos los
enlaces químicos en función de la teoría desarrollada antes de 1926, y luego en función de la
teoría actual. La introducción de la mecánica cuántica en 1926 provocó un gran cambio en las
ideas sobre la formación de las moléculas. Por conveniencia, aún suelen emplearse las
representaciones pictóricas y el lenguaje iniciales, más simples. Dándoles una interpretación
moderna.
En 1916 se describieron dos clases de enlace químico: el enlace iónico, por Walter Kossel
(Alemania), y el enlace covalente, por G. N. Lewis ( de la Universidad de California).
Tanto Kossel como Lewis basaron sus ideas en el siguiente concepto del átomo.
Un núcleo cargado positivamente está rodeado de electrones ordenados en capas o niveles
energéticos concéntricos. Hay un máximo de electrones que se pueden acomodar en cada capa:
dos en la primera, ocho en la segunda, ocho o dieciocho en la tercera, y así sucesivamente. La
estabilidad máxima se alcanza cuando se completa la capa externa, como en los gases nobles.
Tanto los enlaces iónicos como los covalentes surgen de la tendencia de los átomos a alcanzar
esta configuración electrónica estable.
El enlace iónico resulta de la transferencia de electrones, como, por ejemplo, en la formación del
fluoruro de litio. Un átomo de litio tiene dos electrones en su capa interna y uno en su capa
externa o de valencia; la pérdida de un electrón dejaría al litio con una capa externa completa de
dos electrones. Un átomo de flúor tiene dos electrones en su capa interna y siete en su capa de
valencia; la ganancia de un electrón daría el flúor una capa externa completa con ocho electrones.
El fluoruro de litio se forma por la transferencia de un electrón del litio al flúor; el litio tiene ahora
una carga positiva, y el flúor, una negativa. La atracción electrostática entre iones de carga opuesta
se denomina enlace iónico, el cual es típico en las sales formadas por combinación de elementos
metálicos (elementos electropositivos) del extremo izquierdo de la tabla periódica con los
elementos no metálicos ( elementos electronegativos) del extremo derecho.
H + H H H
F + F F F
H + F H F
H
2H + O H O
H
3H + N H N
H
H
4H + C H C
H
F
4 F + C F C F
F
El enlace covalente es típico de los compuestos del carbono; es el enlace de mayor importancia
en el estudio de la química orgánica.
Parte 4
1.4 Mecánica cuántica
En 1926 salió a la luz la teoría conocida como mecánica cuántica, cuyo desarrollo, en la forma más
útil para los químicos, se debe a Erwin Schrodinger (de la Universidad de Zurich), que desarrolló
expresiones matemáticas para describir el movimiento de un electrón en función de su energía.
Estas expresiones matemáticas se conocen como ecuaciones de onda, puesto que se basan en
el concepto de que el electrón no sólo presenta propiedades de partículas, sino también de ondas.
Una ecuación de onda tiene diversas soluciones, llamadas funciones de onda, y cada una
corresponde a un nivel de energía diferente para el electrón. Salvo para los sistemas más
simples, las matemáticas correspondientes a la obtención de soluciones consumen tanto tiempo
esto lo cambiarán algún día los computadores superveloces que sólo es posible obtener
soluciones aproximadas. Aun así, la mecánica cuántica da respuestas que concuerdan tan bien
con los hechos que es aceptada hoy día como la herramienta más útil para la comprensión de las
estructuras atómica y molecular.
<<La mecánica ondulatoria nos ha indicado lo que está sucediendo, y al nivel más profundo
posible... ha tomado los conceptos del químico experimental la percepción imaginativa que
poseían quienes vivieron en sus laboratorios y que permitieron que sus mentes recrearan
creativamente los hechos que habían descubierto y ha demostrado cómo todos encajaban; cómo,
si se quiere, todos ellos presentan una sola lógica, y cómo pueden develarse esta relación
escondida entre ellos.>> (C. A. Coulson. Londres, 1951.)
Parte 5
1.5 Orbitales atómicos
Una ecuación de onda no puede indicarnos exactamente el lugar en que se encuentra un electrón
en un instante particular ni lo rápido que se está moviendo; no nos permite dibujar una órbita
precisa en torno al núcleo. En cambio, nos revela la probabilidad de encontrar el electrón en
cualquier lugar particular.
Es útil visualizar un electrón como si se difundiera para formar una nube. Esta nube se puede
imaginar como una especie de fotografía borrosa del electrón en rápido movimiento. La forma de
la nube es la forma del orbital. La nube no es uniforme, sino que es más densa en aquellas
regiones en las cuales la probabilidad de hallar el electrón es máxima, o sea, en aquellas regiones
donde la carga negativa promedio, o densidad electrónica, es máxima.
Veamos cuáles son las formas de algunos orbitales atómicos. El orbital correspondiente al nivel
energético más bajo se denomina 1s, y es una esfera cuyo centro coincide con el núcleo del
átomo, como se representa en la figura 1.1. Un orbital no tiene un límite definido, puesto que hay
una probabilidad, aunque muy pequeña, de encontrar el electrón esencialmente separado del
átomo, e incluso sobre otro átomo. Sin embargo, la probabilidad decrece muy rápidamente más
allá de cierta distancia del núcleo, de modo que la distribución de carga está bastante bien
representada por la nube electrónica de la figura 1.1a. Para simplificar, podemos incluso
representar un orbital como en la figura 1.1b, en la que la línea continua encierra la región donde el
electrón permanece durante la mayor parte del tiempo (por ejemplo, el 95%).
S
(a) (b)
Fig. 1.1 Orbitales atómicos: orbital s. El núcleo está en el centro.
En el nivel energético siguiente se encuentra el orbital 2s, que también es una esfera con su centro
en el núcleo atómico, y es naturalmente mayor que el 1s: la mayor energía (menor estabilidad) se
debe a la mayor distancia promedio entre el electrón y el núcleo, con la consiguiente disminución
de la atracción electrostática. (Considérese el trabajo que debe realizarse la energía a introducir en
el sistema para alejar un electrón del núcleo, que tiene carga opuesta.)
A continuación hay tres orbitales de igual energía, llamados orbitales 2p, ilustrados en la figura 1.2.
Cada orbital 2p tiene forma de huso y consta de dos lóbulos entre los cuales está el núcleo
atómico. El eje de cada orbital 2p es perpendicular a los ejes de los otros dos. Se diferencian por
los símbolos 2px, 2py y 2pz, en los que x, y y z son los ejes correspondientes.
(a)
y x
(b)
z
Pz
Px Py
x
y
(c)
Fig. 1.2 Orbitales atómicos: orbitales p. Ejes mutuamente perpendiculares.
(a) Sección transversal mostrando los dos lóbulos de un orbital individual.
(b) Forma aproximada de pares de elipsoides distorsionados.
(c) Representación como pares de esferas que no llegan a tocarse.
Parte 6
1.6 Configuración electrónica. Principio de exclusión de Pauli
Hay una serie de <<reglas>> que determinan el modo de distribución de los electrones de un
átomo, es decir, que determinan la configuración electrónica de un átomo.
La más fundamental de estas reglas es el principio de exclusión de Pauli: un orbital atómico
determinado puede ser ocupado por sólo dos electrones, que para ello deben tener espines
opuestos. Estos electrones de espines opuestos se consideran apareados. Electrones de igual
espín tienden a separarse lo máximo posible. Esta tendencia es el más importante de los factores
que determinan las formas y propiedades de las moléculas.
El principio de exclusión, desarrollado en 1925 por Wolfgang Pauli hijo, del Instituto de Física
Teórica de Hamburgo (Alemania), se considera la piedra angular de la química.
Los diez primeros elementos de la tabla periódica tienen las configuraciones electrónicas
indicadas en la tabla 1.1. Podemos apreciar que un orbital no se ocupa hasta que los orbitales de
energía más baja están llenos ( o sea, 2s después de 1s, 2p después de 2s).
Observamos que un orbital no es ocupado por un par de electrones hasta que otros orbitales de
igual energía no sean ocupados por un electrón ( los orbitales 2p). Los electrones 1s completan la
primera capa de dos, y los electrones 2s y 2p completan la segunda capa de ocho. Para elementos
más allá de los diez primeros hay una tercera capa que contiene un orbital 3s, orbitales 3p, y así
sucesivamente.
Parte 7
1.7 Orbitales moleculares
En las moléculas, al igual que en los átomos aislados, y de acuerdo con las mismas <<reglas>>,
los electrones ocupan orbitales. Estos orbitales moleculares se consideran centrados en torno a
muchos núcleos, cubriendo quizá la molécula entera; la distribución de núcleos y electrones es
simplemente la que da como resultado la molécula más estable.
Para facilitar las complicadísimas operaciones matemáticas, por lo general se emplean dos
supuestos simplificadores: (a) que cada par de electrones está localizado esencialmente cerca de
dos núcleos solamente y (b) que las formas de estos orbitales moleculares localizados, y su
disposición con respecto a los demás, están relacionadas de modo sencillo con las formas y
disposiciones de los orbitales atómicos de los átomos que componen la molécula.
La idea de los orbitales moleculares localizados o lo que podríamos llamar orbitales de enlace sin
duda es buena, puesto que, matemáticamente, este método de aproximación es válido para la
mayoría de las moléculas (pero no para todas). Además, esta idea se acerca bastante al concepto
clásico de los químicos, según el cual un enlace es una fuerza que actúa entre dos átomos y es
prácticamente independiente del resto de la molécula; no es accidental que este concepto haya
funcionado bien durante cien años. Es significativo que las moléculas excepcionales, para las
cuales las fórmulas clásicas no funcionan, son justamente las mismas para las que tampoco sirve
el enfoque orbital molecular localizado. (Veremos que aun estos casos se pueden manejar por
medio de una adaptación bastante sencilla de fórmulas clásicas, una adaptación que también se
asemeja a un método de aproximación matemática.)
El segundo supuesto, el de una relación entre orbitales atómicos y moleculares, es evidente, como
se apreciará en la siguiente sección. Ha demostrado ser tan útil que, en ciertos casos, se han
inventado orbitales determinados sólo para poder mantener dicho supuesto.
Parte 8
1.8 El enlace covalente
Consideramos ahora la formación de una molécula. Por conveniencia, imaginaremos que esto
sucede por aproximación de átomos individuales, aunque la mayoría de las moléculas no se
forman así. Construimos modelos físicos de moléculas con esferas de madera o plástico que
representan los diversos átomos; la ubicación de hoyos o broches nos indica cómo unirlos. Del
mismo modo, haremos modelos mentales de moléculas con átomos imaginarios; la ubicación de
los orbitales atómicos algunos de ellos imaginarios nos indicará cómo unir los átomos.
Para que se forme un enlace covalente, deben ubicarse dos átomos de manera tal que el orbital
de uno de ellos solape al orbital del otro; cada orbital debe contener solamente un electrón.
Cuando sucede esto, ambos orbitales atómicos se combinan para formar un solo orbital de enlace
ocupado por ambos electrones, que deben tener espines opuestos, es decir, deben estar
aparecidos. Cada electrón dispone del orbital de enlace entero, por lo que puede considerarse
como <<perteneciente>> a ambos núcleos atómicos.
Esta disposición de electrones y núcleos contiene menos energía es decir, es más estable que la
disposición en los átomos aislados; como resultado, la formación de un enlace va acompañada de
liberación de energía. La cantidad de energía (por mol) desprendida durante la formación del
enlace (o la cantidad necesaria para romperlo) se denomina energía de disociación del enlace.
Para un par dado de átomos, cuanto mayor sea el solapamiento de orbitales atómicos, más fuerte
será el enlace.
El principio de solapamiento máximo, formulado por primera vez por Linus Pauling en 1931
(Instituto Tecnológico de California), ha sido clasificado en importancia sólo ligeramente por
debajo del principio de exclusión para la comprensión de la estructura molecular.
Como primer ejemplo, consideremos la formación de la molécula de hidrógeno, H2, a partir de dos
átomos. Cada átomo de hidrógeno tiene un electrón, el cual ocupa el orbital 1s. Como hemos visto,
éste es una esfera cuyo centro es el núcleo atómico. Para que se forme un enlace, ambos núcleos
deben acercarse lo suficiente para que se produzca el solapamiento de los orbitales atómicos
(Fig. 1.3). Para el hidrógeno, el sistema más estable resulta cuando la distancia entre los núcleos
es de 0.74 A, denominada longitud de enlace. A esta distancia, el efecto estabilizador del
solapamiento es exactamente compensado por la repulsión entre núcleos de igual carga. La
molécula de hidrógeno resultante contiene 104 kcal/mol menos de energía que los átomos a partir
de los cuales fue construida. Se dice que el enlace hidrógeno-hidrógeno tiene una longitud de 0.74
A y una fuerza de 104 kcal.
H H H
H
(a) (b)
H H H H
(c) (d)
Fig. 1.3 Formación de enlace: molécula de H2. (a) Orbitales s separados.
(b) Solapamiento de orbitales s. (c) y (d) El orbital de enlace o.
Este orbital de enlace tiene aproximadamente la forma que se espera obtener de la fusión de dos
orbitales s. Tal como indica la figura 1.3, tiene aspecto de salchicha, cuyo eje mayor coincide con
la línea que une los núcleos; en torno a este eje, es cilíndricamente simétrico, o sea, un corte de
esta salchicha es circular. Los orbitales de enlace que tienen este aspecto, se denominan orbitales
o (orbitales sigma) y los enlaces correspondientes son los enlaces o. Podemos imaginar la
molécula de hidrógeno como formada por dos núcleos sumergidos en una sola nube electrónica
con forma de salchicha. La densidad máxima de la nube está en la región entre ambos núcleos,
donde la carga negativa es atraída más intensamente por las dos cargas positivas.
Supongamos luego la formación de la molécula de flúor, F2, a partir de dos átomos. Según vemos
en la tabla de configuraciones electrónicas (Tabla 1.1), un átomo de flúor tiene dos elementos en el
orbital 1s y dos en cada uno de dos orbitales 2p; en el tercer orbital 2p hay un solo electrón no
apareado y disponible para formar un enlace. El solapamiento de este orbital p con uno similar
de otro átomo de flúor permite que los electrones se aparecen y que se forme el enlace (Fig. 1.4).
La carga electrónica se concentra entre ambos núcleos, de modo que el lóbulo posterior de cada
uno de los orbitales solapados se contrae hasta alcanzar un tamaño relativamente pequeño.
Aunque formado por el solapamiento de orbitales a atómicos de diferente tipo, el enlace flúor-
flúor tiene la misma forma general que el enlace hidrógeno-hidrógeno, por ser cilíndricamente
simétrico en torno a la línea de unión de los núcleos; también se denomina enlace o. El enlace
flúor-flúor tiene una longitud de 1.42 A y una fuerza de unas 38 kcal.
F F
(a)
F F F F
(c)
(b)
Fig. 1.4 Formación de enlace: molécula de F2. (a) Orbitales p separados.
(b) Solapamiento de orbitales p. (c) El orbital de enlace o.
Como indica el ejemplo, un enlace covalente resulta del solapamiento de dos orbitales atómicos
para formar un orbital de enlace ocupado por un par de electrones. Cada tipo de enlace covalente
una longitud y una fuerza características.
Parte 9
1.9 Orbitales híbridos: sp
Be
Para llegar a este átomo divalente de berilio, efectuamos un pequeño cálculo electrónico. En primer
lugar, <<promovemos>> uno de los electrones 2s a un orbital p vacío.
1s 2s 2p
Un electrón promovido:
Be dos electrones no apareados
Esto proporciona dos electrones no apareados, necesarios para enlazar con dos átomos de cloro.
Sería de esperar ahora que el berilio formase un enlace de un tipo empleando el orbital p y uno de
otro tipo con el orbital s. Nuevamente, esto no corresponde a los hechos: se sabe que los dos
enlaces del cloruro de berilio son equivalentes.
1s 2s p
Be
Hibridación sp
sp
1s 2p
Be
(a)
sp
sp
180º
(b) (c)
Fig. 1.5 Orbitales atómicos: orbitales híbridos sp (a) Corte transversal y forma aproximada de un
orbital individual, definitivamente dirigido a lo largo de un eje. (b) Representación como una esfera,
con omisión del pequeño lóbulo posterior. (c) Dos orbitales con ejes a lo largo de una línea recta.
Estos orbitales híbridos específicos se conocen como orbitales sp, puesto que se consideran como
el resultado de la mezcla de un orbital s y uno p, y tienen la forma indicada en la figura 1.5a; por
conveniencia, depreciaremos el pequeño lóbulo posterior y representaremos el delantero como una
esfera.
Construyamos el cloruro de berilio usando este berilio sp-hibridizado. Surge aquí un concepto
extremadamente importante: el ángulo de enlace. Para lograr el solapamiento máximo entre los
orbitales sp del berilio y los p de los cloruros, los dos núcleos de cloro deben encontrarse sobre
los ejes de los orbitales sp, es decir, deben estar localizados en lados exactamente opuestos del
átomo de berilio (Fig. 1.6). Por tanto, el ángulo entre los enlaces berilio-cloro debe ser de 180º.
CI p sp Be sp p CI
(a)
CI Be CI CI Be CI
(b) 180º
(c)
Fig. 1.6 Formación de enlaces: molécula de BeCI2. (a) Solapamiento de orbitales sp y p. (b) Los
orbitales de enlace o. (c) Forma de la molécula.
No hay nada de mágico en el aumento del carácter direccional que acompaña a la hibridación; los
dos lóbulos del orbital p son de fase opuesta (Sec. 33.2); la combinación con un orbital s significa
adición a un lado del núcleo, pero sustracción en el otro.
s p sp
Si se tiene curiosidad con respecto a las fases y su efecto sobre los enlaces, léanse las secciones
33.1 a 33.4, que permitirán entender este punto.
Parte 10
1.10 Orbitales híbridos: sp2
Veamos ahora el trifluoruro de boro, BF3. El boro (Tabla 1.1) tiene sólo un electrón no apareado,
que ocupa un orbital 2p. Para tres enlaces necesitamos tres electrones no apareados, por lo que
promovemos uno de los electrones 2s a un orbital 2p:
1s 2s 2p
B
Un electrón promovido:
tres electrones no apareados
2p
1s 2s
2p
2s
1s
B
Hibridación sp2
1s 2p2 2p
Si ahora queremos <<construir>> la molécula más estable posible, debemos <<hacer>> los enlaces
más fuertes posibles, para lo que hay que proporcionar los orbitales atómicos más intensamente
direccionales que se pueda. Nuevamente, la hibridación nos proporciona tales orbitales: tres de
ellos híbridos y exactamente equivalente entre sí. Cada uno tiene la forma indicada en la figura 1.7
y, como antes, despreciaremos el pequeño lóbulo posterior y representaremos el delantero como
una esfera.
(a)
sp sp2
sp2
120º
(b)
(c)
Fig. 1.7 Orbitales atómicos: orbitales híbridos sp2. (a) Corte transversal y forma aproximada de un
orbital aislado, definitivamente dirigido a lo largo de un eje. (b) Representación como una esfera,
con omisión del pequeño lóbulo posterior. (c) Tres orbitales, con ejes dirigidos hacia los vértices de
un triángulo equilátero.
Estos orbitales híbridos se llaman sp2, debido a que se consideran generados por la mezcla de un
orbital s y dos orbitales p. Se encuentran en un plano que incluye el núcleo atómico y dirigidos
hacia los vértices de un triángulo equilátero, de modo que el ángulo entre dos orbitales
cualesquiera es de 120º. Nuevamente, observamos la geometría que permite la separación
máxima posible de los orbitales: en este caso, es una disposición trigonal ( de tres vértices).
Cuando ordenamos los átomos para lograr el solapamiento máximo de cada uno de los orbitales
sp2 del boro con un orbital p del flúor, obtenemos la estructura ilustrada en la figura 1.8: una
molécula plana, con el átomo de boro en el centro de un triángulo y los tres átomos de flúor en los
vértices; cada ángulo de enlace es de 120º.
2
F sp sp2
2 B F
sp
F 120º
Por experimentación se ha demostrado que el fluoruro de boro tiene esta estructura plana y
simétrica calculada por mecánica cuántica.
Parte 11
1.11 Orbitales híbridos: sp3
Consideremos ahora una de las moléculas orgánicas más simples, el metano, CH4.
El carbono (Tabla 1.1) tiene un electrón no apareado en cada uno de los dos orbitales p, por lo que
sería de esperar que formara el compuesto CH2. (Lo forma, pero el CH2 es una molécula altamente
reactiva cuyas propiedades se centran en torno a la necesidad de procurarle al carbono dos
enlaces adicionales.) Observamos nuevamente la tendencia a formar el máximo posible de
enlaces; en este caso, la combinación con cuatro átomos de hidrógeno.
1s 2s 2p
C
1s 2s 2p Un electrón promovido:
cuatro electrones no apareados
C
Una vez más, los orbitales más intensamente direccionales son híbridos: esta vez son orbitales sp3,
que resultan de la mezcla de un orbital s y tres p. Cada uno tiene la forma ilustrada en la figura 1.9;
tal como hemos hecho con los orbitales sp y sp2, despreciaremos al pequeño lóbulo posterior y
representaremos el delantero por medio de una esfera.
1s 2s 2p
Hibridación sp2
1s sp3
¿Qué disposición espacial tienen los orbitales sp3? Para nosotros, la respuesta no es una sorpresa:
aquella que les permite separarse al máximo. Se dirigen hacia los vértices de un tetraedro regular.
El ángulo entre dos orbitales cualesquiera es el tetraédrico de 109.5º
(a)
sp23
(b)
Fig. 1.9 Orbitales atómicos: Orbitales híbridos sp3.(a) Corte transversal y forma aproximada de un
orbital aislado, definitivamente dirigido a lo largo de un eje. (b) Representación como una esfera,
con omisión del pequeño lóbulo posterior. (c) Cuatro orbitales, con ejes dirigidos hacia los vértices
de un tetraedro.
(Fig. 1.9). AI igual que genera dos enlaces lineales o tres trigonales, la repulsión mutua entre
orbitales también genera cuatro enlaces tetraédricos.
El solapamiento de cada uno de los orbitales sp3 del carbono con un orbital s del hidrógeno genera
metano, con el carbono en el centro de un tetraedro regular y los cuatro hidrógenos en los vértices
(Fig. 1.10).
Así pues, en estas tres últimas secciones hemos visto que con los enlaces covalentes no sólo
están asociadas longitudes y energías de disociación de enlaces características, sino también
ángulos de enlace característicos; estos enlaces pueden relacionarse sin dificultad con la
disposición de los orbitales atómicos incluyendo los híbridos que intervienen en la formación de los
enlaces y se derivan por último del principio de exclusión de Pauli y de la tendencia de los
electrones no apareados a separarse al máximo.
A diferencia del enlace iónico, igualmente fuerte en todas las direcciones, el enlace covalente es
dirigido. Podemos comenzar a ver por qué la química del enlace covalente se ocupa tanto de la
forma y el tamaño moleculares.
Dado que los compuestos del carbono están unidos principalmente por enlaces covalentes, la
química orgánica también está muy interesada en la forma y el tamaño moleculares; para
ayudarnos en su estudio, utilizaremos con frecuencia modelos moleculares. En la figura 1.11 se
observa el metano representado por tres tipos diferentes de modelos: esferas y palillos, armazón
y semiesferas. Estas últimas están hechas a escala y reflejan con exactitud no solamente los
ángulos de enlace, sino también sus longitudes relativas y el tamaño de los átomos.
Parte 12
1.12 Pares de electrones no compartidos.
Dos compuestos conocidos, el amoniaco (NH3) y el agua (H2O), ilustran cómo pares de electrones
no compartidos pueden afectar a la estructura molecular.
2p
1s 2s
N
Hibridación sp3
1s sp3
El nitrógeno del amoniaco se asemeja al carbono del metano: tiene hibridación sp3, pero tiene
solamente tres electrones no apareados (Tabla 1.1), que ocupan tres de los orbitales sp3. El
solapamiento de cada uno de esos orbitales con el orbital s de un átomo de hidrógeno genera
amoniaco (Fig. 1.12). El cuarto orbital sp3 del nitrógeno contiene un par de electrones.
Si ha de haber solapamiento máximo, y por tanto fuerza máxima de enlace, los tres núcleos de
hidrógeno deben localizarse en tres vértices de un tetraedro, mientras que el cuarto deberá ser
ocupado por un par de electrones no compartido. Si se consideran sólo núcleos atómicos, la
molécula de amoniaco debería tener forma piramidal, con el nitrógeno en el ápice y los hidrógenos
en los vértices de una base triangular. Cada ángulo de enlace debería ser el tetraédrico de 109.5º.
Se ha encontrado experimentalmente que el amoniaco tiene la forma piramidal calculada por
mecánica cuántica. Los ángulos de enlace son de 107º, ligeramente menores que el valor
predicho, por lo que se ha sugerido que el par de electrones no compartido ocupa más espacio que
cualquiera de los átomos de hidrógeno, tendiendo así a comprimir ligeramente los ángulos de
enlace. La longitud del enlace nitrógeno-hidrógeno es de 1.01 A; se necesitan 103 kcal/mol para
romper uno de los enlaces del amoniaco.
El orbital sp3 ocupado por el par de electrones no compartido es una región de alta densidad
electrónica. Esta región es una fuente de electrones para átomos y moléculas que los buscan, lo
que confiere al amoniaco sus propiedades básicas ( Sec. 1.22).
Pueden concebirse dos configuraciones adicionales para el amoniaco, pero ninguna satisface los
hechos.
(a) Como el nitrógeno está unido a otros tres átomos, podríamos haberlo concebido utilizando
orbitales sp2, como hace el boro en el trifluoruro de boro. Pero el amoniaco no es una molécula
plana, por lo que debemos rechazar esta posibilidad. El par de electrones no compartido del
nitrógeno es el responsable de la diferencia entre el NH3 y el BF3; estos electrones necesitan
alejarse de los que están en los enlaces carbono-hidrógeno, y la forma tetraédrica lo hace posible.
(b) Podríamos haber imaginado al nitrógeno empleando simplemente los orbitales p para el
solapamiento, puesto que proporcionarían los tres electrones no apareados necesarios; pero esto
generaría ángulo de enlace de 90º - recuérdese que los orbitales p son perpendiculares entre sí -,
en contraste con los ángulos observados de 107º. Más importante aún es que el par no
compartido se encontraría sumergido en un orbital s, y por los momentos dipolares (Sec. 1.16) se
envidia que no es así. Es evidente que la estabilidad ganada por el empleo de los orbitales sp3
fuertemente direccionales en la formación de enlaces compensa sobradamente la promoción de un
par no compartido de un orbital s a otro sp3 más energético.
Un hecho adicional acerca del amoniaco, es que la espectroscopia revela que la molécula sufre
inversión, es decir, se vuelve de dentro afuera (Fig. 1.13). Entre una disposición piramidal y la otra
equivalente hay una barrera energética de sólo 6 kcal/mol, energía que es proporcionada por
colisiones moleculares; aun a temperatura ambiente, la fracción de colisiones suficientemente
violentas para realizar la tarea es tan grande que la conversión entre disposiciones piramidales
sucede con gran velocidad.
H
H H
N
N
H H
N
2p
1s 2s
O
Hibridación sp3
1s sp3
Finalmente, consideremos el agua, H2O. La situación es análoga a la del amoniaco, excepto que el
oxígeno sólo tiene dos electrones no apareados, por lo que solamente se enlaza con dos átomos
de hidrógeno, que ocupan dos vértices de un tetraedro; los otros dos están ocupados por pares de
electrones no compartidos (Fig. 1.14).
Según las mediciones, el ángulo H - O - H es de 105º, menor que el ángulo tetraédrico calculado y
menor aún que el ángulo en el amoniaco. Aquí tenemos dos voluminosos pares de electrones no
compartidos que comprimen los ángulos de enlace. La longitud del enlace oxígeno-hidrógeno es
0.96 A; se necesitan 118 kcal/mol para romper uno de los enlaces del agua.
Si examinaremos la figura 1.15 podremos ver la gran semejanza que existe entre la forma de las
moléculas de metano, amoniaco y agua, que, debido a la comparación que hemos utilizado, se
debe a la semejanza de los enlaces.
Debido a los pares de electrones no compartidos del oxígeno, el agua es básica, aunque no tan
marcadamente como el amoniaco (sec. 1.22).
Parte 13
1.13 Fuerzas intramoleculares
Debemos recordar que el método específico para la construcción mental de moléculas que
estamos aprendiendo a usar es artificial: es un proceso puramente intelectual que comprende
solapamientos imaginarios de orbitales imaginarios. Hay otras posibilidades, igualmente artificiales,
que emplean modelos mentales o físicos diferentes. Nuestro conjunto de modelos atómicos
mentales sólo contendrá tres <<clases>> de carbono: tetraédrico (hibridado sp3), trigonal (hibridado
sp2) y digonal (hibridado sp). Descubriremos que con este conjunto se puede lograr un trabajo
extraordinario en la construcción de cientos de miles de moléculas orgánicas.
Sin embargo, cualquiera que sea el modo de establecerla, vemos que la estructura verdadera de
una molécula es el resultado neto de una combinación de fuerzas repulsivas y atractivas, que están
relacionadas con la carga y el espín electrónicos.
(a) Fuerzas repulsivas. Los electrones tienden a mantenerse separados al máximo, porque tienen
la misma carga, y también cuando no están apareados, porque tienen igual espín (principio de
exclusión de Pauli). Núcleos atómicos de igual carga también se repelen mutuamente.
(b) Fuerzas atractivas: Los electrones son atraídos por núcleos atómicos lo mismo que los núcleos
por los electrones debido a su carga opuesta, y por ello tiende a ocupar la región entre dos
núcleos; el espín opuesto permite (aunque, por sí mismo, no lo estimule realmente) que dos
electrones ocupen la misma región.
En el metano, por ejemplo, los cuatro núcleos de hidrógeno se hallan separados al máximo. La
distribución de los ocho electrones enlazantes es tal que cada uno ocupa la región deseable cerca
de dos núcleos - el orbital de enlace - y, sin embargo, exceptuando a su pareja, se sitúa lo más
lejos posible de los demás electrones. Podemos visualizar cada electrón aceptado -quizá
renuentemente, debido a sus cargas similares - un compañero de orbital con espín opuesto, pero
manteniéndose alejado al máximo del resto de los electrones, y aun, como se mueve dentro de los
confines difusos de su orbital, haciendo lo posible para evitar la cercanía de su inquieto
compañero.
Parte 14
1.14 Energía de disociación de enlace. Homólisis y heterólisis
Hemos visto que cuando se combinan átomos para formar una molécula se libera energía. Para
descomponer una molécula en sus átomos, debe consumirse una cantidad de energía equivalente.
La cantidad de energía que se consume o libera cuando se rompe o forma un enlace se conoce
como energía de disociación de enlace, D, y es característica del enlace específico. La tabla 1.2
contiene los valores medidos para algunas energías de disociación de enlaces. Puede apreciarse
que varía mucho, desde enlaces débiles, como I - I (36 kcal/mol), hasta enlaces muy fuertes,
como H - F (136 kcal/mol). Aunque los valores aceptados pueden variar a medida que mejoran
los métodos experimentales, hay ciertas tendencias claras.
No debemos confundir la energía de disociación de enlace (D) con otra medida de fuerza de
enlace, llamada energía de enlace (E). Si comenzamos con el metano, por ejemplo, y rompemos
sucesivamente cuatro enlaces carbono-hidrógeno, encontraremos cuatro energías de disociación
de enlace diferentes:
CH4 CH3 + H D(CH3-H)=104 Kal/mol
CH2 CH + H D(CH-H)=106
CH C + H D(C-H)=81
Por otra parte, la energía de enlace carbono-hidrógeno en el metano, E(C - H), es un solo valor
promedio:
Encontraremos que, en general, las energías de disociación de enlaces son más útiles para
nuestros propósitos.
Hasta el momento, hemos hablado de romper moléculas en dos átomos, o en un átomo y un grupo
de ellos, de modo que de los dos electrones que forman el enlace uno se queda con cada
fragmento; esta ruptura de enlace se denomina homólisis. También encontraremos reacciones que
implican ruptura de enlaces de un tipo diferente, heterólisis, en la que ambos electrones del
enlace quedan en un mismo fragmento.
(Estas palabras proceden del griego: homo, el mismo; hetero, diferente, y lisis, pérdida. Para un
químico, lisis significa <<ruptura>> , como, por ejemplo, hidrólisis, <<ruptura por agua>>.)
Las energías de disociación de enlaces indicadas en la tabla 1.2 corresponden a homólisis, por lo
que son energías de disociación homolítica de enlaces. Pero también se han medido para la
heterólisis: algunas de estas energías de disociación heterolítica de enlaces se presentan en la
tabla 1.3.
Si examinamos estos valores, observaremos que son considerablemente mayores que los de la
tabla 1.2. La heterólisis simple de una molécula neutra genera, desde luego, un ión positivo y otro
negativo. La separación de estas partículas de carga opuesta consume gran cantidad de energía:
alrededor de 100 kcal/mol más que la separación de partículas neutras. Por consiguiente, en la
fase gaseosa, la disociación de enlaces generalmente sucede por homólisis, que es la vía más
fácil. Pero en un disolvente ionizante (Sec. 6.5) el modo preferido de ruptura es la heterólisis.
Parte 15
1.15 Polaridad de los enlaces
Aparte de las propiedades ya descritas, algunos enlaces covalentes tienen otra: la polaridad. Dos
átomos unidos por un enlace covalente comparten electrones, y sus núcleos son mantenidos en
la misma nube electrónica. Pero en la mayoría de los casos, estos núcleos no comparten los
electrones por igual: la nube es más densa en torno a un átomo que en torno al otro. En
consecuencia, un extremo del enlace es relativamente negativo, y el otro, relativamente positivo,
es decir, se forma un polo negativo y otro positivo. Se dice que éste es un enlace polar o que tienen
polaridad.
Podemos indicar la polaridad empleando los símbolos &+ y &-, que indican cargas parciales + y -.
(Se dice <<delta más>> y <<delta menos>>.) Por ejemplo:
Cabe esperar que un enlace covalente sea polar si une átomos que difieren en su tendencia a
atraer electrones, es decir, que difieren en electronegatividad. Es más, cuanto mayor sea la
diferencia en electronegatividad, más polar será el enlace.
Los elementos más electronegativos son los que se encuentran en el extremo superior derecho
del sistema periódico. De los elementos que encontraremos en química orgánica, la
electronegatividad más elevada la presenta el flúor, luego el oxígeno, seguido del nitrógeno y el
cloro, a continuación el bromo y, finalmente, el carbono. El hidrógeno no difiere mucho en
electronegatividad del carbono; no se sabe con certeza si es más electronegativo o menos.
Las polaridades de los enlaces están íntimamente ligadas tanto a las propiedades físicas como a
las químicas. La polaridad de los enlaces puede conducir a polaridades de moléculas, afectando
considerablemente a los puntos de fusión y ebullición, y a la solubilidad. La polaridad también
determina el tipo de reacción que puede suceder en ese enlace, e incluso afecta a la reactividad
de los enlaces cercanos.
Parte 16
1.16 Polaridad de las moléculas
Una molécula es polar cuando el centro de la carga negativa no coincide con el de la positiva. Tal
molécula constituye un dipolo: dos cargas iguales y opuestas separadas en el espacio. A menudo
se usa el símbolo → para caracterizar un dipolo, en el que la flecha apunta desde el extremo
positivo hacia el negativo. La molécula tiene un momento dipolar µ, que es igual a la magnitud de
la carga, e, multiplicada por la distancia, d, entre los centros de las cargas:
µ = e x d
en en en
unidades u.e.s. cm
Debye, D
Es posible medir los momentos dipolares de moléculas por un método que no puede describirse
aquí; algunos de los valores obtenidos se dan en la tabla 1.4. Nos interesan los valores de los
momentos dipolares como indicaciones de las polaridades relativas de diversas moléculas.
Es un hecho que ciertas moléculas son polares, lo que ha dado origen a la especificación de que
ciertos enlaces son polares. Nos hemos ocupado primero de la polaridad de los enlaces
simplemente porque es conveniente considerar que la polaridad de una molécula es una
combinación de las polaridades de los enlaces individuales.
Moléculas como H2, O2, N2, CI2 y Br2 tienen momentos dipolares nulos, o sea, no son polares. Los
dos átomos idénticos de cada una de estas moléculas tienen, por supuesto, la misma
electronegatividad y comparten electrones por igual; e es cero y, por consiguiente, también lo es
µ.
Una molécula como el fluoruro de hidrógeno tiene el considerable momento dipoalr de 1.75 D. A
pesar de que es una molécula pequeña, el flúor, muy electronegativo, atrae fuertemente los
electrones: aunque d es pequeña, e es grande y, en consecuencia, µ lo es también.
El metano y el tetracloruro de carbono, CCI4, tiene momentos dipolares nulos. Lógicamente, sería
de esperar que los enlaces individuales al menos los del tetracloruro de carbono fuesen polares,
pero debido a la disposición tetraédrica, altamente simétrica, sus momentos se anulan (Fig. 1.16).
Sin embargo, en el cloruro de metilo, CH3CI, la polaridad del enlace carbono-cloro no se anula, por
lo que tiene un momento dipolar de 1.86 D. Así, la polaridad de una molécula no sólo depende de
la polaridad de sus enlaces individuales, sino también de sus direcciones, es decir, de la forma de
la molécula.
El amoniaco tiene un momento dipolar de 1.46 D, el cual podría considerarse como un momento
dipolar neto (una suma vectorial) resultante de los momentos de los tres enlaces individuales, y su
dirección sería la indicada en el diagrama. El momento dipolar de 1.84 D del agua se podría
interpretar de forma similar.
¿Que tipo de momento dipolar cabría esperar para el trifluoruro de nitrógeno, NF3, que es
piramidal como el amoniaco? El flúor es el elemento más electronegativo de todos por lo que sin
duda debería atraer fuertemente los electrones del nitrógeno; los enlaces N - F deberían ser muy
polares y su suma vectorial debería ser grande, mucho mayor que para el amoniaco, con sus
enlaces N-H moderadamente polares.
Los momentos dipolares de la mayoría de los compuestos no se han medido nunca; para estas
sustancias debemos predecir la polaridad a partir de sus estructuras. Con nuestros conocimientos
sobre electronegatividad podemos estimar la polaridad de enlace; con los ángulos de enlace
podemos estimar la polaridad de las moléculas, considerando también los pares de electrones no
compartidos.
Parte 17
1.17 Estructura y propiedades físicas
Acabamos de estudiar una propiedad física de los compuestos: el momento dipolar. También nos
conciernen otras, como los puntos de fusión y ebullición, y la solubilidad en un disolvente
determinado. Las propiedades físicas de un compuesto nuevo dan indicaciones valiosas sobre su
estructura, y a la inversa, la estructura de una sustancia a menudo nos dice qué propiedades
físicas esperar de ella.
Al intentar la síntesis de un compuesto nuevo, por ejemplo, debemos planificar una serie de
reacciones para convertir una sustancia que tenemos en la que queremos; además, debemos
desarrollar un método para separar nuestro producto de todos los demás compuestos que forman
parte de la mezcla reaccionante: reactivos no consumidos, disolvente, catalizador, subproductos.
Generalmente, el aislamiento y la purificación del producto consumen más tiempo y esfuerzo que
la propia preparación. La posibilidad de aislar el producto por destilación depende de su punto de
ebullición y de los puntos de ebullición de los contaminantes; su aislamiento por recristalización
depende de su solubilidad en varios disolventes y de la de los contaminantes. El éxito en
laboratorio a menudo depende de una adecuada predicción de propiedades físicas a partir de la
estructura. Los compuestos orgánicos son sustancias reales, no solamente colecciones de letras
escritas sobre un trozo de papel, por lo que debemos aprender a manejarlas.
Hemos visto que hay dos tipos extremos de enlaces químicos, generados por transferencia de
electrones, y covalentes, formado por electrones compartido. Las propiedades físicas de un
compuesto dependen en gran medida del tipo de enlaces que mantienen unidos los átomos de una
molécula.
Parte 18
1.18 Punto de fusión
En un sólido cristalino las partículas que actúan como unidades estructurales iones o moléculas se
hallan ordenadas de una forma muy regular y simétrica; hay un modelo geométrico que se repite
en el cristal.
Fusión es el cambio desde una disposición muy ordenada de partículas en el retículo cristalino al
más desordenado que caracteriza a los líquidos (véanse Figs. 1.18 y 1.19). La fusión se produce
cuando se alcanza una temperatura a la cual la energía térmica de las partículas es
suficientemente grande como para vencer las fuerzas intracristalinas que las mantienen en
posición.
Un compuesto iónico forma cristales en los que las unidades estructurales son iones. El cloruro de
sodio sólido, por ejemplo, está constituido por iones sodio positivos y iones cloruro negativos que
se alternan de un modo muy regular. Cada ión positivo está rodeado equidistantemente por seis
iones negativos; uno a cada lado, uno arriba y otro abajo, uno al frente y otro detrás. A su vez, cada
ión negativo está rodeado de forma análoga por seis positivos. No hay nada que podamos llamar
molécula de cloruro de sodio; un ión sodio determinado no <<pertenece>> a ningún ión cloruro en
particular; seis cloruros lo atraen por igual. El cristal es una estructura muy fuerte y rígida, pues las
fuerzas electrostáticas que mantienen a cada ión en posición son poderosas. Estas poderosas
fuerzas interiónicas sólo se superan a una temperatura muy elevada: el cloruro de sodio tiene un
punto de fusión de 801ºC.
Los cristales de otros compuestos iónicos son semejantes a los del cloruro de sodio, en el sentido
de que tienen un retículo iónico, aunque la disposición geométrica exacta puede ser diferente. En
consecuencia, éstos también tienen puntos de fusión elevados. Muchas moléculas contienen tanto
enlaces iónicos como covalentes: el nitrato de potasio, KNO3, por ejemplo, está formado por iones
K+ y NO3-; los átomos de oxígeno y nitrógeno del ión NO3- se mantienen unidos entre sí por
enlaces covalentes. Las propiedades físicas de compuestos como éste están determinadas en
gran medida por los enlaces iónicos; el nitrato de potasio tiene aproximadamente el mismo tip de
propiedades físicas que el cloruro de sodio.
Un compuesto no iónico, aquel cuyos átomos se mantienen unidos entre sí por enlaces covalentes,
forma cristales en los que las unidades estructurales son moléculas. Para que ocurra la fusión,
deben ser superadas que mantienen juntas a estas moléculas; en general, estas fuerzas
intermoleculares son muy débiles, comparadas con las fuerzas que unen los iones. Para fundir el
cloruro de sodio debemos suministrar energía suficiente para romper los enlaces iónicos entre el
Na+ y el CI-; para fundir el metano, CH4, no necesitamos suministar energía suficiente para romper
los enlaces covalentes entre el carbono y el hidrógeno, basta con proporcionar energía suficiente
para separar mole´culas de CH4 entre sí. Al contrario que el cloruro de sodio, el metano se funde a
-183ºC.
Parte 19
1.19 Fuerzas intermoleculares
¿Qué tipo de fuerzas mantienen juntas las moléculas neutras? Al igual que las interiónicas, estas
fuerzas parecen ser de naturaleza electrostática, en las que cargas positivas atraen cargas
negativas. Hay dos clases de fuerzas intermoleculares: interaccione dipolo-dipolo y fuerzas de Van
der Waals.
La interacción dipolo-dipolo es la atracción que ejerce el extremo positivo de una molécula polar
por el negativo de otras semejante. En el cloruro de hidrógeno, por ejemplo, el hidrógeno
relativamente positivo de una molécula es atraído por el cloro relativamente negativo de otra:
Como resultado de esta interacción dipolo-dipolo, las moléculas polares por lo general se unen
entre sí más firmemente que las no polares de peso molecular comparable; esta diferencia entre la
intensidad de las fuerzas intermoleculares se refleja en las propiedades físicas de los compuestos
implicados.
Un tipo de atracción dipolo-dipolo particularmente fuerte es el enlace por puente de hidrógeno, en
el cual un átomo de hidrógeno sirve como puente entre dos átomos electronegativos, sujetando a
uno con un enlace covalente, y al otro, con fuerzas puramente electrostáticas. Cuando el hidrógeno
se encuentra unido a un átomo muy electronegativo, la nube electrónica se distorsiona
considerablemente hacia éste, exponiendo el núcleo del hidrógeno. La fuerte carga positiva del
escasamente protegido núcleo del hidrógeno es atraída por la carga negativa del átomo
electronegativo de una segunda molécula. Esta atracción tiene una fuerza de unas 5 kcal/mol, por
lo que es mucho más débil que el enlace covalente unas 50-100 kcal/mol- que lo mantiene unido al
primer átomo electronegativo. Es, sin embargo, bastante más fuerte que otras atracciones dipolo-
dipolo. En las fórmulas, Los enlaces por puentes de hidrógeno se indican generalmente por una
línea de puntos:
H H H H
H F H F H O H O H N H N H N H O
H H H H H
Para que un enlace por puente de hidrógeno sea importante, ambos átomos electronegativos
deben ser del grupo F, O, N. Sólo es suficientemente positivo un hidrógeno enlazado a uno de
estos elementos y sólo estos tres elementos deben su efectividad especial a la carga negativa
concentrada sobre sus átomos pequeños.
Deben existir fuerzas entre las moléculas de un compuesto no polar, puesto que aun estas
sustancias se pueden solidificar. Tales atracciones se conocen como fuerzas de Van der Waals. Su
existencia está explicada por la mecánica cuántica y podemos describir su origen
aproximadamente como sigue: la distribución promedio de carga en torno a una molécula de
metano, por ejemplo, es simétrica, por lo que no hay un momento dipolar neto. Sin embargo, los
electrones se desplazan, de modo que un instante cualquiera esa distribución probablemente se
distorsionará y habrá un pequeño dipolo. Este dipolo momentáneo afectará a la distribución de
electrones en otra molécula cercana de metano; el extremo negativo un dipolo de orientación
opuesta en la molécula vecina:
A pesar de que los dipolos momentáneos y los inducidos cambian constantemente, resulta una
atracción neta entre ambas moléculas.
Estas fuerzas de Van der Waals son de muy corto alcance: sólo actúan entre las partes de
moléculas diferentes que están en contacto íntimo, es decir, entre sus superficies. Veremos que la
reacción enttre la magnitud de las fuerzas de Van der Waals y el área de las superficies
moleculares (Sec. 3.12) nos ayudará a comprender el efecto del tamaño y las formas moleculares
sobre las propiedades físicas.
Cada átomo tiene con respecto a otros con los que no esté unido - ya sea en otra molécula o en
otra parte de la misma - un <<tamaño>> efectivo, conocido como su radio de Van der Waals. A
medida que se acercan dos átomos no alcanzados, aumenta la atracción entre ellos, que llega al
máximo justamente cuando se tocan, es decir, cuando la distancia entre los núcleos es igual a la
suma de los radios de Van der Waals. Si son forzados a juntarse aún más, la atracción es
rápidamente reemplazada por repulsión de Van der Waals, de modo que los átomos no
alcanzados aceptan juntarse, pero resisten vigorosamente la sobrecarga.
Veremos que las fuerzas de Van der Waals, tanto atractivas como repulsivas, son importantes para
comprender la estructura molecular.
En el capítulo 6 analizaremos con detalle todas estas fuerzas intermoleculares, este tipo de
enlaces secundarios.
Parte 20
1.20 Punto de ebullición.
Aunque en un líquido las partículas tienen un arreglo menos regular y gozan de mayor libertad de
movimiento que en un cristal, cada una de ellas es atraída por muchas otras. La ebullición implica
la separación de moléculas individuales, o pares de iones con carga opuesta, del seno del líquido
(Véanse Figs. 1.20 y 1.21). Esto sucede cuando se alcanza una temperatura suficiente para que la
energía térmica delas partículas supere las fuerzas de cohesión que las mantienen en el líquido.
En el estado líquido, la unidad de un compuesto iónico es de nuevo el ión. Cada ión es retenido
firmemente por varios otros de carga opuesta. Una vez más, no hay nada que podamos
denominar realmente molécula. Se necesita mucha energía para que un par de iones de carga
opuesta pueda abandonar el líquido; la ebullición sólo se produce a temperatura muy alta. El punto
de ebullición del cloruro de sodio, por ejemplo, es de 1413ºC. En el estado gaseoso tenemos un
par iónico, que puede considerarse como una molécula de cloruro de sodio.
En el estado líquido, la unidad de un compuesto no iónico es de nuevo la molécula. Aquí, las
débiles fuerzas intermoleculares interaccione dipolo-dipolo y fuerzas de Van der Waals son más
fáciles de vencer que las considerables fuerzas Inter.-iónicas de los compuestos iónicos, por lo que
la ebullición se produce a temperatura mucho más bajas. El metano no polar hierve a 161.5ºC, y el
cloruro de hidrógeno polar a sólo -85ºC.
Los líquidos cuyas moléculas se mantienen unidas por puentes de hidrógeno se denominan
líquidos asociados. La ruptura de estos puentes requiere una energía considerable, por lo que un
líquido asociado tiene un punto de ebullición anormalmente elevado para un compuesto de su peso
molecular y momento dipolar. El fluoruro de hidrógeno, por ejemplo, hierve a una temperatura 100
grados más alta que el cloruro de hidrógeno, más pesado, pero no asociados; el agua hierve a una
temperatura 160 grados más alta que el sulfuro de hidrógeno.
También hay compuestos orgánicos que contienen oxígeno o nitrógeno con puentes de hidrógeno
Consideremos el metano, por ejemplo, y reemplacemos uno de sus hidrógenos por un grupo
hidroxilo, -OH. El compuesto resultante, CH3OH, es metanol, el miembro más pequeño de la familia
de los alcoholes. Estructuralmente, no sólo se parece al metano, sino también al agua:
H H
H C H H O H H C O H
H H
Metano Agua Metanol
CH3
CH3 O H O
H
Cuanto más grandes son las moléculas, más fuertes son las fuerzas de Van der Waals. Se
conservan otras propiedades - polaridad, puentes de hidrógeno -, pero el punto de ebullición
aumenta con el tamaño molecular. Los puntos de ebullición de sustancias orgánicas son bastante
más elevados que el de la pequeña molécula no polar del metano, pero rara vez encontramos
puntos de ebullición por encima de 350ºC; a temperaturas más elevadas, comienzan a romperse
los enlaces covalentes dentro de las moléculas, con lo que compiten la descomposición y la
ebullición. Para bajar el punto de ebullición y así minimizar la descomposición, a menudo se
realiza la destilación de compuestos orgánicos a presión reducida.
Parte 21
1.21 Solubilidad
Cuando se disuelve un sólido o un líquido, las unidades estructurales iones o moléculas se separan
unas de otras y el espacio entre ellas pasa a ser ocupado por moléculas de disolvente. Durante la
disolución, igual que en la fusión y la ebullición, debe suministrarse energía para vencer las fuerzas
Inter.-iónicas o intermoleculares. ¿De dónde proviene esta energía? La que se requiere para
romper los enlaces entre las partículas del soluto es aportada por la formación de enlaces entre
partículas de soluto y moléculas de disolvente: las fuerzas atractivas anteriores son reemplazadas
por otras nuevas.
Ahora bien, ¿cómo son estos enlaces que se establecen entre el soluto y el disolvente?
Consideremos primero el caso de los solutos iónicos.
Se necesita una cantidad considerable de energía para vencer las poderosas fuerzas
electrostáticas que sostienen un retículo iónico. Sólo el agua y otros disolventes muy polares
pueden disolver apreciablemente compuestos iónicos. ¿Qué tipo de enlaces se forman entre iónes
y un disolvente polar? Por definición, una molécula polar tiene un extremo positivo y otro negativo;
por tanto, hay atracción electrostática entre un ión positivo y el extremo negativo de una molécula
de disolvente, y entre un ión negativo y la parte positiva de la molécula de disolvente. Estas
atracciones se llaman enlaces ión-dipolo. Cada uno de estos enlaces ión-dipolo es relativamente
débil, pero en conjunto aportan suficiente energía para vencer las fuerzas interiónicas del cristal.
En la solución, cada ión está rodeado por muchas moléculas de disolvente, por lo que se dice que
está solvatado; si el disolvente es agua, se dice que el ión está hidratado. En solución, tanto en
estado sólido como líquido, la unidad de una sustancia como el cloruro de sodio en el ión, aunque
en este caso es un ión solvatado (véase Figura 1.22).
+
_ _
+
+ _ _
_ +
_
+ + +
_ _
_
_ + _ + +
+ + _
+ _
Para que un disolvente pueda disolver compuestos iónicos, debe tener también una constante
dieléctrica elevada, o sea, debe poseer propiedades altamente aislantes para disminuir la atracción
entre iones de carga opuesta cuando están solvatados.
El agua debe sus relevantes propiedades como disolvente de sustancias iónicas, no solamente a
su polaridad y asu elevada constante dieléctrica, sino también a otro factor: contiene el grupo -OH,
por lo que puede formar puentes de hidrógeno. El agua solvata tanto cationes como aniones; los
cationes en su polo negativo (básicamente, sus electrones no compartidos), y los aniones, por
medio de puentes de hidrógeno.
Pasemos ahora a la disolución de solutos no iónicos.
Las características de la solubilidad de compuestos no iónicos están determinadas principalmente
por su polaridad. Las sustancias no polares o débilmente polares se disuelven en disolventes no
polares o ligeramente polares; los compuestos muy polares lo hacen en disolventes no polares o
ligeramente polares; los compuestos muy polares lo hacen en disolventes de alta polaridad. <<Una
sustancia disuelve a otra similar>>, es una regla empírica muy útil. El metano es soluble en
tetracloruro de carbono, porque las fuerzas que mantienen unidas las moléculas de metano y las
de tetracloruro de carbono - las interacciones de Van der Waals - son reemplazadas por otras muy
similares, las que unen moléculas de tetracloruro de carbono a moléculas de metano.
Ni el metano ni el tetracloruro de carbono son apreciablemente solubles en agua, cuyas
moléculas, muy polares, se atraen mutuamente por interacciones dipolo-dipolo muy intensas: los
puentes de hidrógeno; por otra parte, sólo podría haber fuerzas atractivas muy débiles entre las
moléculas de agua y las no polares de metano o de tetracloruro de carbono.
Por el contrario, el metanol, CH3OH, compuesto orgánico muy polar, es totalmente soluble en
agua. Los puentes de hidrógeno entre las moléculas de agua y las de metanol pueden reemplazar
fácilmente a los puentes de hidrógeno similares formados entre diferentes moléculas de metanol y
diferentes moléculas de agua.
La comprensión de la naturaleza de las soluciones es fundamental para entender la química
orgánica. La mayoría de las reacciones orgánicas se efectúan en solución, y es cada vez más
evidente que el disolvente hace mucho más que simplemente unir moléculas diferentes para que
puedan reaccionar entre sí. El disolvente está implicado en las reacciones que tienen lugar en él;
cuánto y en qué forma está implicado es algo que empieza a saberse ahora. En el capítulo 6,
cuando estudiamos un poco más las reacciones orgánicas y cómo se realizan, volveremos sobre
este tema - que apenas tocamos aquí y examinaremos en detalle la función del disolvente.
Parte 22
1.22 Acidos y bases
Al pasar ahora de las propiedades físicas a la químicas, revisemos brevemente un tema conocido
que es fundamental para la comprensión de la química orgánica: acidez y basicidad.
Los términos ácido y base se han definido de varias formas, correspondiendo cada definición a un
modo particular de considerar las propiedades de acidez y basicidad. Nos será útil observar ácidos
y bases desde dos de estos puntos de vista; el que elijamos dependerá del problema que se
tenga a mano.
De acuerdo con la definición de Lowry-Bronsted, un ácido es una sustancia que entrega un protón,
y una base, una que lo acepta. Al disolver ácido sulfúrico en agua, el ácido H2SO4 entrega un
protón (núcleo de hidrógeno) a la base H2O para formar el nuevo ácido H3O+ y la nueva base
HSO4-. Cuando el cloruro de hidrógeno reacciona con el amoniaco, el ácido HCI entrega un protón
a la base NH3 para formar el nuevo ácido NH4+ y a la nueva base CI-.
el nuevo ácido H2O y la nueva base NH3. En ambos casos, la base fuerte, el ión hidróxido, ha
aceptado un protón para formar el ácido débil H2O. Si disponemos estos ácidos en el orden
indicado, debemos disponer necesariamente las bases (conjugadas) correspondientes en orden
opuesto.
Fuerza ácida H2SO4 > H3O+ > NH4+ > H2O
HCI
Fuerza básica HSO4- < H2O < NH3 < OH-
CI-
Al igual que el agua, muchos compuestos orgánicos que contienen oxígeno pueden actuar como
bases y aceptar protones; el alcohol etílico y el dietil éter, por ejemplo, forman los iones oxonio I y
II. Por conveniencia, a menudo nos referimos a una estructura del tipo I como un alcohol
protonado, y a una del tipo II, como un éter protonado.
F F
F B + :NH3 F B :NH3
F F
Acido Base
F F
F B + O(C2H5)2 F B O(C2H5)2
F F
Acido Base
El cloruro de aluminio, AICI3, es un ácido por la misma razón. El cloruro estánnico, SnCI4, tiene un
octeto completo en el estaño, pero puede aceptar pares de electrones adicionales (por ejemplo, en
SnCI62-), por lo que también es un ácido.
Indicamos una carga formal negativa sobre el boro en estas fórmulas porque tiene un electrón más
uno del par compartido con oxígeno o nitrógeno de lo que puede neutralizar por medio de su carga
nuclear; correspondientemente, se indica el nitrógeno u oxígeno con una carga formal positiva.
Entre los compuestos orgánicos, puede esperarse que tengan una acidez de Lowry-Bronsted
apreciable aquellos que contienen los grupos O - H, N - H y S - H.
Para que una molécula sea ácida en el sentido de Lewis, debe ser deficiente en electrones; en
particular, buscaríamos en ella un átomo con sólo un sexteto electrónico.
Para ser básica, tanto en el sentido de Lowry-Bronsted como en el de Lewis, una molécula debe
disponer de un par de electrones para compartir. Su disponibilidad está determinada en gran
medida por el átomo que los contiene: su electronegatividad, su tamaño y su carga. La función de
estos factores es aquí necesariamente opuesta a lo que hemos observado para la acidez: cuanto
mejor acomode el átomo al apr de electrones, menos disponibles estará éste par ser compartido.
Parte 23
1.23 Isomería
Antes de comenzar el estudio sistemático de las distintas clases de compuestos orgánicos, veamos
un concepto adicional que ilustra particularmente bien la importancia fundamental de la estructura
molecular: el concepto de isomería.
El compuesto alcohol etílico es un líquido que hierve a 78ºC. Su análisis (por métodos que se
describen más adelante, sec. 2.27) demuestra que contiene carbono, hidrógeno y oxígeno en la
proporción 2C:6H:IO. Su espectro de masas indica que su peso molecular es 46, por lo que su
fórmula molecular debe ser C2H6O. Es un conpuesto bastante reactivo; por ejemplo, si se deja
caer un trozo de sodio metálico en un tubo de ensayo que contiene alcohol etílico, se produce un
burbujeo vigoroso y se consume el sodio; se desprende hidrógeno gaseoso y queda un compuesto
de fórmula C2H5ONa. También reacciona con ácido yodhídrico para formar agua y un compuesto
de fórmula C2H5I.
El compuesto dimetil éter es un gas con punto de ebullición de -24ºC. Es, evidentemente, una
sustancia diferente del alcohol etílico: no sólo difiere en sus propiedades físicas, sino también en
las químicas. No reacciona con el sodio metálico. Como el alcohol etílico, reacciona con el ácido
yodhídrico, pero da un compuesto de fórmula CH3I. El análisis del dimetil éter indica que contiene
carbono, hidrógeno y oxígeno en la misma proporción que el alcohol etílico, 2C:6H:IO; tiene el
mismo peso molecular, 46. Concluimos que tiene la misma fórmula molecular, C2H6O.
Tenemos aquí dos sustancias, alcohol etílico y dimetil éter, que tienen la misma fórmula molecular,
C2H6O, y, sin embargo, son dos compuestos claramente diferentes. ¿Cómo podemos explicar su
existencia? La respuesta es que difieren en su estructura molecular. El alcohol etílico tiene la
estructura representada por I y el dimetil éter la representada por II. Veremos que las diferencias en
propiedades físicas y químicas de estos dos compuestos pueden explicarse fácilmente a partir de
sus diferencias estruturales.
Los compuestos diferentes que tienen la misma fórmula molecular se llaman isómeros ( del griego:
isos, igual, y meros, parte). Contienen igual número de las mismas clases de átomos, pero éstos
están unidos entre sí de manera distinta. Los isómeros son compuestos diferentes, porque tienen
estructuras moleculares distintas.
Esta diferencia en estructura molecular genera propiedades distintas; son estas diferencias las que
nos revelan que estamos tratando compuestos diferentes. En algunos casos, la diferencia
estructural y por consiguiente las propiedades distintas es tan marcada que los isómeros se
clasifican en familias químicas diferentes como, por ejemplo, alcohol etílico y dimetil éter. En otros
casos, la diferencia estructural es tan sutil que sólo puede describirse en función de modelos
tridimensionales. Entre estos dos extremos hay otros tipos de isomería
Termodinámica
Primera ley Termodinamica
Del estudio de la mecánica recordará, que cuando un objeto se mueve de un punto inicial a otro
final , en un campo gravitacional en ausencia de fricción, el trabajo hecho depende solo de las
posiciones de los puntos y no, en absoluto, de la trayectoria por la que el cuerpo se mueve. De
esto concluimos que hay una energía potencial, función de las coordenadas espaciales del cuerpo,
cuyo valor final menos su valor inicial, es igual al trabajo hecho al desplazar el cuerpo. Ahora, en la
termodinámica, encontramos experimentalmente, que cuando en un sistema ha cambiado su
estado al , la cantidad dependen solo de las coordenadas inicial y final y no, en
absoluto, del camino tomado entre estos puntos extremos. Concluimos que hay una función de las
coordenadas termodinámicas, cuyo valor final, menos su valor inicial es igual al cambio en
el proceso. A esta función le llamamos función de la energía interna.
Representemos la función de la energía interna por la letra . Entonces la energía interna del
sistema en el estado , , es solo el cambio de energía interna del sistema, y esta cantidad
tiene un valor determinado independientemente de la forma en que el sistema pasa del estado al
estado f: Tenemos entonces que:
Como sucede para la energía potencial, también para que la energía interna, lo que importa es su
cambio. Si se escoge un valor arbitrario para la energía interna en un sistema patrón de referencia,
su valor en cualquier otro estado puede recibir un valor determinado. Esta ecuación se conoce
como la primera ley de la termodinámica, al aplicarla debemos recordar que se considera
positiva cuando el calor entra al sistema y que será positivo cuando el trabajo lo hace el
sistema.
A la función interna , se puede ver como muy abstracta en este momento. En realidad, la
termodinámica clásica no ofrece una explicación para ella, además que es una función de estado
que cambia en una forma predecible. ( Por función del estado, queremos decir, que exactamente,
que su valor depende solo del estado físico del material: su constitución, presión, temperatura y
volumen.) La primera ley de la termodinámica, se convierte entonces en un enunciado de la ley de
la conservación de la energía para los sistemas termodinámicos.
Podrá parecer extraño que consideremos que sea positiva cuando el calor entra al sistema y
que sea positivo cuando la energía sale del sistema como trabajo. Se llegó a esta convención,
porque fue el estudio de las máquinas térmicas lo que provocó inicialmente el estudio de la
termodinámica. Simplemente es una buena forma económica tratar de obtener el máximo trabajo
con una maquina de este tipo, y minimizar el calor que debe proporcionársele a un costo
importante. Estas naturalmente se convierten en cantidades de interés.
Si nuestro sistema sólo sufre un cambio infinitesimal en su estado, se absorbe nada más una
cantidad infinitesimal de calor y se hace solo una cantidad infinitesimal de trabajo , de tal
manera que el cambio de energía interna también es infinitesimal. Aunque y no son
diferencias verdaderas, podemos escribir la primera ley diferencial en la forma:
Podemos expresar la primera ley en palabras diciendo: Todo sistema termodinámico en un estado
de equilibrio, tiene una variable de estado llamada energía interna cuyo cambio en un
proceso diferencial está dado por la ecuación antes escrita.
Hay algunas preguntas importantes que no puede decir la primera ley. Por ejemplo, aunque nos
dice que la energía se conserva en todos los procesos, no nos dice si un proceso en particular
puede ocurrir realmente. Esta información nos la da una generalización enteramente diferente,
llamada segunda ley de la termodinámica, y gran parte de los temas de la termodinámica
dependen de la segunda ley.
Kelvin (con Planck) enuncio la segunda ley con palabras equivalentes a las siguientes: es
completamente imposible realizar una transformación cuyo único resultado final sea el de cambiar
en trabajo el calor extraído de una fuente que se encuentre a la misma temperatura. Este
enunciado elimina nuestras ambiciones de la máquina térmica, ya que implica que no podemos
producir trabajo mecánico sacando calor de un solo depósito, sin devolver ninguna cantidad de
calor a un depósito que esté a una temperatura más baja.
Para demostrar que los dos enunciados son equivalentes, necesitamos demostrar que si
cualquiera de los enunciados es falso, el otro también debe serlo. Supóngase que es falso el
enunciado de Clausius, de tal manera que se pudieran tener un refrigerador que opere sin que se
consuma el trabajo. Podemos usar una máquina ordinaria para extraer calor de un cuerpo caliente,
con el objeto de hacer trabajo y devolver parte del calor a un cuerpo frío.
Pero conectando nuestro refrigerador “perfecto” al sistema, este calor se regresaría al cuerpo
caliente, sin gasto de trabajo, quedando así utilizable de nuevo para su uso en una máquina
térmica. De aquí que la combinación de una maquina ordinaria y el refrigerador “perfecto” formará
una máquina térmica que infringe el enunciado de Kelvin-Planck. O podemos invertir el argumento.
Si el enunciado Kelvin-Planck fuera incorrecto, podríamos tener una máquina térmica que
sencillamente tome calor de una fuente y lo convierta por completo en trabajo. Conectando esta
máquina térmica “perfecta” a un refrigerador ordinario, podemos extraer calor de un cuerpo
ordinario, podemos extraer calor de un cuerpo caliente, convertirlo completamente en trabajo, usar
este trabajo para mover un refrigerador ordinario, extraer calor de un cuerpo frío, y entregarlo con
el trabajo convertido en calor por el refrigerador, al cuerpo caliente. El resultado neto es una
transmisión de calor desde un cuerpo frío, a un cuerpo caliente, sin gastar trabajo, lo infringe el
enunciado de Clausius.
La segunda ley nos dice que muchos procesos son irreversibles. Por ejemplo, el enunciado de
Clausius específicamente elimina una inversión simple del proceso de transmisión de calor de un
cuerpo caliente, a un cuerpo frío. Algunos procesos, no sólo no pueden regresarse por sí mismos,
sino que tampoco ninguna combinación de procesos pueden anular el efecto de un proceso
irreversible, sin provocar otro cambio correspondiente en otra parte.
la entropia de todos los sólidos cristalinos perfectos es cero a la temperatura de cero absoluto.
La entropia de cualquier sustancia pura en equilibrio termodinamico tiende a cero a medida que la
temperatura tiende a cero.
La importancia de la tercera ley es evidente. Suministra una base para el calculo de las entropías
absolutas de las sustancias, las cuales pueden utilizarse en las ecuaciones apropiadas para
determinar la dirección de las reacciones químicas. Una interpretación estadística de la tercera ley
es más bien sencilla, puesto que la entropia se ha definido como:
cuando 0.
Esto significa que sólo existe una forma de ocurrencia del estado de energía mínima para una
sustancia que obedezca la tercera ley. Hay varios casos referidos en la literatura en donde los
cálculos basados en la tercera ley no están desacuerdo con los experimentos. Sin embargo, en
todos los casos es posible explicar el desacuerdo sobre la base de que la sustancia no es “pura”,
esto es, pueda haber dos o más isótopos o presentarse moléculas diferentes o, también, una
distribución de no equilibrio de las moléculas. En tales casos hay más de un estado cuántico en el
cero absoluto y la entropia no tiende a cero.
Calor y Temperatura
Con muy pocas excepciones todos los cuerpos aumentan de volumen al calentarse y diminuyen
cuando se enfrían. En caso de los sólidos, el volumen suele incrementarse en todas las direcciones
se puede observar este fenómeno en una de ellas con experiencia del pirometró del cuadrante.
El, pirometro del cuadrante consta de una barra metálica apoyada en dos soportes, uno de los
cuales se fija con un tornillo, mientras que el otro puede deslizarse y empujar una palanca acodada
terminada por una aguja que recorre un cuadrante o escala cuadrada. Cuando, mediante un
mechero, se calienta fuertemente la barra, está se dilata y el valor del alargamiento, ampliado por
la palanca, aparece en el cuadrante.
Otro experimento igualmente característico es el llamado del anillo de Gravesande. Este aparato se
compone de un soporte del que cuelga una esfera metálica cuyo diámetro es ligeramente inferior al
de un anillo el mismo metal por el cual puede pasar cuando las dos piezas están a l a misma
temperatura. Si se calienta la esfera dejando el anillo a la temperatura ordinaria, aquella se dilata y
no pasa por el anillo; en cambio puede volver a hacerlo una vez enfriada o en el caso en que se
hayan calentando simultáneamente y a la misma temperatura la esfera y el anillo.
La dilatación es, por consiguiente, una primera propiedad térmica de los cuerpos, que permite
llegar a la noción de la temperatura. La segunda magnitud fundamental es la cantidad de calor que
se supone reciben o ceden los cuerpos al calentarse o al enfriarse, respectivamente. La cantidad
de calor que hay que proporcionar a un cuerpo para que su temperatura aumente en un numero de
unidades determinado es tanto mayor cuanto más elevada es la masa de dicho cuerpo y es
proporcional a lo que se denomina calor especifico de la sustancia de que está constituido. Cuando
se calienta un cuerpo en uno de sus puntos, el calor se propaga a los que son próximos y la
diferencia de temperatura entre el punto calentado directamente y otro situado a cierta distancia es
tanto menor cuando mejor conducto del calor es dicho cuerpo. Si la conductabilidad térmica de un
cuerpo es pequeña, la transmisión del calor se manifiesta por un descenso rápido de la
temperatura entre el punto calentado y otro próximo. Así sucede con el vidrio, la porcelana, el
caucho, etc. En el caso contrario, por ejemplo con metales como el cobre y la plata, la
conductabilidad térmica es muy grande y la disminución de temperatura entre un punto calentado y
el otro próximo es muy reducida.
Se desprende de lo anterior que el estudio del calor sólo puede hacerse después de haber definido
de una manera exacta los dos términos relativos al propio calor, es decir, la temperatura, que se
expresa en grados, y la cantidad de calor, que se expresa en calorías. Habrá que definir después
algunas propiedades específicas de los cuerpos en su manera de comportarse con respecto al
calor y la conductabilidad térmica.
Energía calorifica
De una manera general, la energía mecánica total de un sistema disminuye con el frotamiento y los
choques. Si por ejemplo, se frena un cuerpo durante su caída por un plano inclinado, de forma que
su velocidad permanezca constante, se producirá una disminución de su energía potencial sin que
aumente su energía cinética. Pero, en todos los fenómenos de esta naturaleza se produce calor.
Así el fósforo de las cerillas se inflama por frotamiento, las herramientas se calientan al labrar los
metales, etc. Sí una bala de plomo se dispara contra una placa de acero, se puede alcanzar, en el
momento del choque, una temperatura superior a su punto de fusión. El calor debe, por
consiguiente, considerarse como una forma de energía, hipótesis que se ve corroborada por la
posibilidad de producir trabajo mecánico consumiendo calor, por ejemplo, en las maquinas de calor.
El azul del cielo y el rojo de la puesta del sol, se deben a un fenómeno llamado <<difusión>>.
Cuando la luz del sol pasa por la atmósfera de la Tierra, mucha de la luz es recogida por las
moléculas del aire y cedida otra vez en alguna otra dirección. El fenómeno es muy similar a la
acción de las ondas del agua sobre los objetos flotantes. Si, por ejemplo, las ondulaciones
procedentes de una piedra arrojada a un estanque de agua inmóvil encuentran algún corcho
pequeño flotando en su superficie, el corcho cabecea subiendo y bajando con la frecuencia de las
ondas que pasan.
La luz se describe como actuando del mismo modo sobre moléculas del aire y finas partículas de
polvo. Una vez puestas en vibración por una onda luminosa, una molécula o una partícula pueden
emitir de nuevo luz absorbida, algunas veces en la misma dirección, pero generalmente en
cualquier otra.
Los experimentos demuestran, de acuerdo con la teoría de la difusión, que las ondas más cortas
se difunden más fácilmente que las más largas. Para ser más específicos, la difusión es
inversamente proporcional a la cuarta potencia de la longitud de onda.
Difusión ∝ 1/λ4
De acuerdo con esta ley las ondas cortas de la luz violeta se difunden diez veces más fácilmente
que las ondas largas de la luz roja. Los otros colores se difunden en proporciones intermedias. Así
cuando la luz solar entra en la atmósfera de la Tierra, la luz violeta y la azul, se difunden más,
seguidas del verde, amarilla, anaranjada y roja, en el orden indicado.
Para cada diez ondas violetas ( λ = 0,00004 cm ) difundidas en un haz, hay sólo una onda roja ( λ
= 0,00007 cm ).
10 7 5 3 2 1
A mediodía, en un día claro cuando el Sol está directamente en el cenit, el cielo entero aparece
como azul claro. Este es el color compuesto de la mezcla de colores difundidos más efectivamente
por las moléculas del aire. Puesto que el azul claro del triángulo de los colores se obtiene de la
mezcla aditiva de violeta, azul, verde y amarillo.
Las puestas de sol son rojas, la luz del cielo esta polarizada linealmente en bastante grado, como
puede comprobarse sin dificultad mirando al cielo directamente hacia arriba, a través de una lamina
polarizante, puesto que la luz difusa es sustraída del haz original, que resulta debilitado durante
este proceso.
Tc = T - 273.150
relaciona la temperatura Celsius Tc (0C) y la temperatura Kelvin T(K). Vemos que el punto triple del
agua (=273.16K por definición), corresponde a 0.010C. La escala Celsius se definió de tal manera
que la temperatura a la que el hielo y el aire saturado con agua se encuentran en equilibrio a la
presión atmosférica - el llamado punto de hielo - es 0.00 0C y la temperatura a la que el vapor y el
agua liquida, están en equilibrio a 1 atm de presión -el llamado punto del vapor- es de 100.00 0C.
La escala Fahrenheit, todavía se usa en algunos países que emplean el idioma ingles
aunque usualmente no se usa en el trabajo científico. Se define que la relación entre las escalas
Fahrenheit y Celsius es:
De esta relación podemos concluir que el punto del hielo (0.000C) es igual a 32.0 0F, y que el punto
del vapor (100.00C) es igual a 212.0 0F, y que un grado Fahrenheit es exactamente igual del
Entropía
La entropía, como todas las variables de estado, dependen sólo de los estados del sistema, y
debemos estar preparados para calcular el cambio en la entropía de procesos irreversibles,
conociendo sólo los estados de principio y al fin. Consideraremos dos ejemplos:
1.- Dilatación libre: Dupliquemos el volumen de un gas, haciendo que se dilate en un recipiente
vacío, puesto que no se efectúa reacción alguna contra el vacío, y, como el gas se
encuentra encerrado entre paredes no conductoras, . por la primera ley se entiende que
o:
donde y se refieren a los estados inicial y final (de equilibrio). Si el gas es ideal, depende
únicamente de la temperatura y no de la presión o el volumen, y la ecuación implica que
.
En realidad, la dilatación libre es irreversible, perdemos el control del medio ambiente una vez que
abrimos la llave. Hay sin envergo, una diferencia de entropía , entre los estados de
que esta relación se aplica únicamente a trayectorias reversibles; si tratamos de usar la ecuación,
tendremos inmediatamente la facultad de que Q = 0 para la dilatación libre - además - no sabremos
como dar valores significativos de T en los estados intermedios que no son de equilibrio.
Esto representa un grupo de operaciones muy diferentes de la dilatación libre y tienen en común
la única condición de que conectan el mismo grupo de estados de equilibrio, y f. De la ecuación
y el ejemplo 1 tenemos.
Esto es positivo, de tal manera que la entropía del sistema aumenta en este proceso adiabático
irreversible. Nótese que la dilatación libre es un proceso que, en la naturaleza se desarrolla por sí
mismo una vez iniciado. Realmente no podemos concebir lo opuesto, una compresión libre en la
que el gas que en un recipiente aislado se comprima en forma espontanea de tal manera que
ocupe solo la mitad del volumen que tiene disponible libremente. Toda nuestra experiencia nos dice
que el primer proceso es inevitable y virtualmente, no se puede concebir el segundo.
2.- Transmisión irreversible de calor. Como otro ejemplo, considérense dos cuerpos que son
semejantes en todo, excepto que uno se encuentra a una temperatura TH y el otro a la temperatura
TC, donde TH> TC. Si ponemos ambos objetos en contacto dentro de una caja con paredes no
conductoras, eventualmente llegan a la temperatura común Tm, con un valor entre TH y TC; como la
dilatación libre, el proceso es irreversible, por que perdemos el control del medio ambiente, una vez
que colocamos los dos cuerpos en la caja. Como la dilatación libre, este proceso también es
adiabático (irreversible), por que no entra o sale calor en el sistema durante el proceso.
Para calcular el cambio de entropía para el sistema durante este proceso, de nuevo debemos
encontrar un proceso reversible que conecte los mismos estados inicial y final y calcular el cambio
imaginamos que tenemos a nuestra disposición un deposito de calor de gran capacidad calorífica,
cuya temperatura T este bajo nuestro control, digamos, haciendo girar una perilla. Primero
ajustamos, la temperatura del deposito a TH a Tm, quitando calor al cuerpo caliente al mismo
tiempo. En este proceso el cuerpo caliente pierde entropía, siendo el cambio de esta magnitud
Aquí T2 es una temperatura adecuada, escogida para que quede entre Tc y Tm y Q es el calor
agregado. El calor Q agregado al cuerpo frío es igual al Q extraído del cuerpo caliente. Los dos
cuerpos se encuentran ahora en la misma temperatura Tm y el sistema se encuentra en el estado
de equilibrio final. El cambio de entropía para el sistema completo es:
Como T1>T2, tenemos Sf >Si. De nuevo, como para la dilatación libre, la entropía del sistema
aumenta en este proceso reversible y adiabático. Nótese que, como la dilatación libre, nuestro
ejemplo de la conducción del calor es un proceso que en la naturaleza se desarrolla por sí mismo
una vez que se ha iniciado. En realidad no podemos concebir el proceso opuesto, en el cual, por
ejemplo, una varilla de metal en equilibrio térmico a la temperatura del cuarto espontáneamente se
ajuste de tal manera, que un extremo quede más caliente y en el otro más frío. De nuevo, la
naturaleza tiene la preferencia irresistible para que el proceso se efectúe en una dirección
determinada y no en la opuesta.
En cada uno de estos ejemplos, debemos distinguir cuidadosamente el proceso real (irreversible)
(dilatación libre o transmisión del calor) y el proceso reversible que se introdujo, para que se
pudiera calcular el cambio de entropía en el proceso real.
Podemos escoger cualquier proceso reversible, mientras conecte los mismos estados inicial y final
que el proceso real; todos estos procesos reversibles llevarán al mismo cambio de entropía porque
ella depende sólo los estados inicial y final y no de los procesos que los conectan, tanto si son
reversibles como si son irreversibles.
• Biología
La biología (del griego «βιος» bios, vida, y «λογος» logos, estudio) es una de las ciencias naturales
que tiene como objeto de estudio la materia viva y más especificamente su origen y evolución; así
como de su propiedades (génesis, nutrición, morfogénesis, reproducción, patogenia, etc.). La
biología se ocupa tanto de la descripción de las características y los comportamientos de los
organismos individuales, como de las especies en su conjunto, así como de la reproducción de los
seres vivos y de las interacciones entre ellos y el entorno. En otras palabras, se preocupa de la
estructura y la dinámica funcional comunes a todos los seres vivos con el fin de establecer las
leyes generales que rigen la vida orgánica y los principios explicativos fundamentales de ésta.
La palabra biología en su sentido moderno parece haber sido introducida independientemente por
Gottfried Reinhold Treviranus (Biologie oder Philosophie der lebenden Natur, 1802) y por Jean-
Baptiste Lamarck (Hydrogéologie, 1802). Generalmente se dice que el término fue acuñado en
1800 por Karl Friedrich Burdach, aunque se menciona en el título del tercer volumen de
Philosophiae naturalis sive physicae dogmaticae: Geologia, biologia, phytologia generalis et
dendrologia, por Michael Christoph Hanov publicado en 1766.
La biología abarca un amplio espectro de campos de estudio que a menudo se tratan como
disciplinas independientes. Juntas, estudian la vida en un amplio campo de escalas. La vida se
estudia a escala atómica y molecular en la biología molecular, en la bioquímica y en la genética
molecular. Desde el punto de vista celular, se estudia en la biología celular, y a escala multicelular,
se estudia en la fisiología, la anatomía y la histología. La biología del desarrollo estudia el
desarrollo o la ontogenia de un organismo individual.
Las clasificaciones de los seres vivos son muy numerosas, se proponen, desde la tradicional
división en dos reinos establecida por Linneo en el siglo XVII, entre animales y plantas, hasta las
propuestas actuales de los sistemas cladísticos con tres dominios que comprenden más de 20
reinos.
La biología estudia la variedad de formas de vida. En sentido horario: E. coli, Sauce japonés,
gacela, y escarabajo Goliath.T
Historia de la biología
La biología se ha desarrollado a lo largo del tiempo gracias a los aportes de notables
investigadores que dedicaron su vida al estudio de la naturaleza.
Entre los más destacados se encuentra el filósofo griego Aristóteles. Fue el más grande naturalista
de la Antigüedad, estudió y describió más de 500 especies animales; estableció la primera
clasificación de los organismos que no fue superada hasta el siglo XVIII por Carl Linné.
Carl Linné estableció una clasificación de las especies conocidas hasta entonces, basándose en el
concepto de especie como un grupo de individuos semejantes, con antepasados comunes. Agrupó
a las especies en géneros, a éstos en órdenes y, finalmente, en clases, considerando sus
características.
Estrechamente vinculado con el aspecto taxonómico, Linneo propuso el manejo de la nomenclatura
binominal, que consiste en asignar a cada organismo dos palabras en latín, un sustantivo para el
género y un adjetivo para la especie, lo que forma el nombre científico que debe subrayarse o
destacarse con otro tipo de letra en un texto. El nombre científico sirve para evitar confusiones en
la identificación y registro de los organismos.
Otro científico que hizo una gran contribución a la biología fue Charles Darwin, autor del libro
denominado El Origen de las Especies. En él expuso sus ideas sobre la evolución de las especies
por medio de la selección natural. Esta teoría originó, junto con la teoría celular y la de la herencia
biológica, la integración de la base científica de la biología actual.
La herencia biológica fue estudiada por Gregor Mendel, quien hizo una serie de experimentos para
estudiar cómo se heredan las características de padres a hijos, con lo que asentó las bases de la
Genética. Uno de sus aciertos fue elegir chícharos para realizar sus experimentos, estos
organismos son de fácil manejo ocupan poco espacio, se reproducen con rapidez, muestran
características fáciles de identificar entre los padres e hijos y no son producto de una combinación
previa.
Por otra parte, Louis Pasteur demostró la falsedad de la hipótesis de la generación espontánea al
comprobar que un ser vivo procede de otro. El suponía que la presencia de los microorganismos
en el aire ocasionaba la descomposición de algunos alimentos y que usando calor sería posible
exterminarlos, este método recibe actualmente el nombre de pasterización o pasteurización.
Pasteur asentó las bases de la bacteriología, investigó acerca de la enfermedad del gusano de
seda; el cólera de las gallinas y, desarrolló exitosamente la vacuna del ántrax para el ganado y la
vacuna antirrábica.
Alexandr Ivánovich Oparin, en su libro El origen de la vida sobre la Tierra (1936) dio una
explicación de cómo pudo la materia inorgánica transformarse en orgánica y cómo esta última
originó la materia viva.
James Watson y Francis Crick elaboraron un modelo de la estructura del ácido desoxirribonucleico,
molécula que controla todos los procesos celulares tales como la alimentación, la reproducción y la
transmisión de caracteres de padres a hijos. La molécula de DNA consiste en dos bandas
enrolladas en forma de doble hélice, esto es, parecida a una escalera enrollada.
Entre los investigadores que observaron el comportamiento animal destaca Konrad Lorenz quien
estudió un tipo especial de aprendizaje conocido como impresión o impronta. Para verificar si la
conducta de las aves de seguir a su madre es aprendida o innata, Lorenz graznó y caminó frente a
unos patitos recién nacidos, mismos que lo persiguieron, aun cuando les brindó la oportunidad de
seguir a su madre o a otras aves. Con esto Lorenz demostró que la conducta de seguir a su madre
no es innata sino aprendida.
Principios de la biología
A diferencia de la física, la biología no suele describir sistemas biológicos en términos de objetos
que obedecen leyes físicas inmutables descritas por las matemáticas. No obstante, la biología se
caracteriza por seguir algunos principios y conceptos de gran importancia, entre los que se
incluyen: la universalidad, la evolución, la diversidad, la continuidad, la homeóstasis y las
interacciones.
Se llama filogenia al estudio de la historia evolutiva y las relaciones genealógicas de las estirpes.
Las comparaciones de secuencias de ADN y de proteínas, facilitadas por el desarrollo técnico de la
biología molecular y de la genómica, junto con el estudio comparativo de fósiles u otros restos
paleontológicos, generan la información precisa para el análisis filogenético. El esfuerzo de los
biólogos por abordar científicamente la comprensión y la clasificación de la diversidad de la vida,
han dado lugar al desarrollo de diversas escuelas en competencia, como la fenética, que puede
considerarse superada, o la cladística. No se discute que el desarrollo muy reciente de la
capacidad de descifrar sobre bases sólidas la filogenia de las especies, está catalizando una nueva
fase de gran productividad en el desarrollo de la biología.
Árbol filogenético de los seres vivos basado en datos sobre su rARN. Los tres reinos principales de
seres vivos aparecen claramente diferenciados: bacterias, archaea, y eucariotas tal y como fueron
descritas inicialmente por Carl Woese. Otros árboles basados en datos genéticos de otro tipo
resultan similares pero pueden agrupar algunos organismos en ramas ligeramente diferentes,
presumiblemente debido a la rápida evolución del rARN. La relación exacta entre los tres grupos
principales de organismos permanece todavía como un importante tema de debate.A pesar de la
unidad subyacente, la vida exhibe una asombrosa diversidad en morfología, comportamiento y
ciclos vitales. Para afrontar esta diversidad, los biólogos intentan clasificar todas las formas de
vida. Esta clasificación científica refleja los árboles evolutivos (árboles filogenéticos) de los
diferentes organismos. Dichas clasificaciones son competencia de las disciplinas de la sistemática
y la taxonomía. La taxonomía sitúa a los organismos en grupos llamados taxa, mientras que la
sistemática trata de encontrar sus relaciones.
Monera —
Protista —
Fungi —
Plantae —
Animalia
Sin embargo, actualmente este sistema de cinco reinos se cree desfasado. Entre las ideas más
modernas, generalmente se acepta el sistema de tres dominios:
Virus —
Viroides —
Priones
El reciente descubrimiento de una nueva clase de virus, denominado Mimivirus, ha causado que se
proponga la existencia de un cuarto dominio debido a sus características particulares, en el que por
ahora solo estaría incluído ese organismo.
La noción de que "toda vida proviene de un huevo" (del latín "Omne vivum ex ovo") es un concepto
fundacional de la biología moderna, y viene a decir que siempre ha existido una continuidad de la
vida desde su origen inicial hasta la actualidad. En el siglo XIX se pensaba que las formas de vida
podían aparecer de forma espontánea bajo ciertas condiciones (véase abiogénesis). Los biólogos
consideran que la universalidad del código genético es una prueba definitiva a favor de la teoría del
descendiente común universal (DCU) de todas las bacterias, archaea, y eucariotas (véase sistema
de tres dominios).
Homeostasis: adaptación al cambio
La homeostasis es la propiedad de un sistema abierto para regular su medio interno para mantener
unas condiciones estables, mediante múltiples ajustes de equilibrio dinámico controlados por
mecanismos de regulación interrelacionados. Todos los organismos vivos, sean unicelulars o
pluricelulares tienen su propia homeostasis. Por poner unos ejemplos, la homeostasis se manifesta
celularmente cuando se mantiene una acidez interna estable (pH); a nivel de organismo, cuando
los animales de sangre caliente mantienen una temperatura corporal interna constante; y a nivel de
ecosistema, al consumir dióxido de carbono las plantas regulan la concentración de esta molécula
en la atmósfera. Los tejidos y los órganos también pueden mantener su propia homeostasis.
Simbiosis entre un pez payaso del género de los Amphipriones y las anémonas de mar. El pez
protege a las anémonas de otros peces comedores de anémonas mientras que los tentáculos de
las anémonas protegen al pez payaso de sus depredadores.Todos los seres vivos interactúan con
otros organismos y con su entorno. Una de las razones por las que los sistemas biológicos pueden
ser difíciles de estudiar es que hay demasiadas interacciones posibles. La respuesta de una
bacteria microscópica a la concentración de azúcar en su medio (en su entorno) es tan compleja
como la de un león buscando comida en la sabana africana. El comportamiento de una especie en
particular puede ser cooperativo o agresivo; parasitario o simbiótico. Los estudios se vuelven
mucho más complejos cuando dos o más especies diferentes interactúan en un mismo ecosistema;
el estudio de estas interacciones es competencia de la ecología.
Alcance de la biología
La biología se ha convertido en una iniciativa investigadora tan vasta que generalmente no se
estudia como una única disciplina, sino como un conjunto de subdisciplinas. Aquí se considerarán
cuatro amplios grupos.
El primero de ellos consta de disciplinas que estudian las estructuras básicas de los sistemas
vivos: células, genes, etc.;
el segundo grupo considera la operación de estas estructuras a nivel de tejidos, órganos y cuerpos;
una tercera agrupación tiene en cuenta los organismos y sus historias; la última constelación de
disciplinas está enfocada a las interacciones.
Sin embargo, es importante señalar que estos límites, agrupaciones y descripciones son una
descripción simplificada de la investigación biológica. En realidad los límites entre disciplinas son
muy inseguros y, frecuentemente, muchas disciplinas se prestan técnicas las unas a las otras. Por
ejemplo, la biología de la evolución se apoya en gran medida de técnicas de la biología molecular
para determinar las secuencias de ADN que ayudan a comprender la variación genética de una
población; y la fisiología toma préstamos abundantes de la biología celular para describir la función
de sistemas orgánicos.
Estructura de la vida
Esquema de una tipica célula animal con sus orgánulos y estructurasArtículos principales: Biología
molecular, Biología celular, Genética, Biología del desarrollo, Bioquímica
La biología molecular es el estudio de la biología a nivel molécular. El campo se solapa con otras
áreas de la biología, en particular con la genética y la bioquímica. La biología molecular trata
principalmente de comprender las interacciones entre varios sistemas de una célula, incluyendo la
interrelación de la síntesis de proteínas de ADN y ARN y del aprendizaje de cómo se regulan estas
interacciones.
La biología celular estudia las propiedades fisiológicas de las células, así como sus
comportamientos, interacciones y entorno; esto se hace tanto a nivel microscópico como molecular.
La biología celular investiga los organismos unicelulares como bacterias y células especializadas
de organismos pluricelulares como los humanos.
Los genes codifican la información necesaria para sintetizar proteínas, que a su vez, juegan un
gran papel influyendo (aunque, en muchos casos, no lo determinan completamente) el fenotipo
final del organismo.
La biología del desarrollo estudia el proceso por el que los organismos crecen y se desarrollan.
Con origen en la embriología, la biología del desarrollo actual estudia el control genético del
crecimiento celular, la diferenciación celular y la morfogénesis, que es el proceso por el que se
llega a la formación de los tejidos, de los órganos y de la anatomía.
Los organismos modelo de la biología del desarrollo incluyen el gusano redondo Caenorhabditis
elegans, la mosca de la fruta Drosophila melanogaster, el pez cebra Brachydanio rerio, el ratón
Mus musculus, y la hierba Arabidopsis thaliana.
Tradicionalmente se han dividido los estudios fisiológicos en fisiología vegetal y fisiología animal
aunque los principios de la fisiología son universales, no importa que organismo particular se está
estudiando. Por ejemplo, lo que se aprende de la fisiología de una célula de levadura puede
aplicarse también a células humanas.
El campo de la fisiología animal extiende las herramientas y los métodos de la fisiología humana a
las especies animales no humanas. La fisiología vegetal también toma prestadas técnicas de los
dos campos.
La anatomía es una parte importante de la fisiología y considera cómo funcionan e interactúan los
sistemas orgánicos de los animales como el sistema nervioso, el sistema inmunológico, el sistema
endocrino, el sistema respiratorio y el sistema circulatorio. El estudio de estos sistemas se
comparte con disciplinas orientadas a la medicina, como la neurología, la inmunología y otras
semejantes. La anatomía comparada estudia los cambios morfofisiológicos que han ido
experimentando las especies a lo largo de su historia evolutiva, valiéndose para ello de las
homologías existentes en las especies actuales y el estudio de restos fósiles.
Por otra parte, más allá del nivel de organización organísmico, la Ecofisiología estudia los procesos
fisiológicos que tienen lugar en las interacciones entre organismos, a nivel de comunidades y
ecosistemas, así como de las interrelaciones entre los sistemas vivos y los inertes (como por
ejemplo el estudio de los Ciclos biogeoquímicos o los intercambios biosfera-atmósfera).
Clasificación de la vida
El sistema de clasificación dominante se llama taxonomía de Linneo, e incluye rangos y
nomenclatura binomial. El modo en que los organismos reciben su nombre está gobernado por
acuerdos internacionales, como el Código Internacional de Nomenclatura Botánica (CINB o ICBN
en inglés), el Código Internacional de Nomenclatura Zoológica (CINZ o ICZN en inglés) y el Código
Internacional de Nomenclatura Bacteriana (CINB o ICNB en inglés). En 1997 se publicó un cuarto
borrador del biocódigo (BioCode) en un intento de estandarizar la nomenclatura en las tres áreas,
pero no parece haber sido adoptado formalmente. El Código Internacional de Clasificación y
Nomenclatura de Virus (CICNV o ICVCN en inglés) permanece fuera del BioCode.
Organismos en interacción
Uno de los pilares fundamentales de la ecología es estudiar el flujo de energía que se propaga a
través de la red trófica, desde los productores primarios hasta los consumidores y detritívoros,
perdiendo calidad dicha energía en el proceso al disiparse en forma de calor. El principal aporte de
energía a los ecosistemas es la energía proveniente del sol, pero las plantas (en ecosistemas
terrestres, o las algas en los acuáticos) tienen una eficiencia fotosintética limitada, al igual que los
herbívoros y los carnívoros tienen una eficacia heterotrófica. Esta es la razón por la que un
ecosistema siempre podrá mantener un mayor número y cantidad de herbívoros que de carnívoros,
y es por lo que se conoce a las redes tróficas también como "pirámides", y es por esto que los
ecosistemas tienen una capacidad de carga limitada (y la misma razón por la que se necesita
mucho más territorio para producir carne que vegetales).
La etología, por otra parte, estudia el comportamiento animal (en particular de animales sociales
como los insectos sociales, los cánidos o los primates), y a veces se considera una rama de la
zoología. Los etólogos se han ocupado, a la luz de los procesos evolutivos, del comportamiento y
la comprensión del comportamiento según la teoría de la selección natural. En cierto sentido, el
primer etólogo moderno fue Charles Darwin, cuyo libro La expresión de las emociones en los
animales y hombres influyó a muchos etólogos posteriores al sugerir que ciertos rasgos del
comportamiento podrían estar sujetos a la misma presión selectiva que otros rasgos meramente
físicos.
El especialista en hormigas E.O.Wilson despertó una aguda polémica en tiempos más recientes
con su libro de 1980 Sociobiología: La Nueva Síntesis, al pretender que la Sociobiología debería
ser una disciplina matriz, que partiendo de la metodología desarrollada por los etólogos, englobase
tanto a la Psicología como a la antropología o la Sociología y en general a todas las ciencias
sociales, ya que en su visión la naturaleza humana es esencialmente animal. Este enfoque ha sido
criticado por autores como el genético R.C.Lewontin por exhibir un reduccionismo que en última
instancia justifica y legitima las diferencias instituidas socialmente.
Los seres vivos atendiendo a su organización celular se clasificarán en acelulares (virus, viroides) y
celulares, siendos estos a su vez clasificados en eucariotas y procariotas.
Para alcanzar sus objetivos, los biólogos celulares se ven obligados a estudiar los componentes de
la célula a nivel molecular (biología molecular).
membrana plasmática
citoesqueleto
núcleo celular
ribosomas
retículo endoplásmico
aparato de Golgi
mitocondrias
cloroplastos
lisosomas
peroxisomas
vacuolas
pared celular
La célula es una unidad mínima de un organismo capaz de actuar de manera autónoma. Todos los
organismos vivos están formados por células, y en general se acepta que ningún organismo es un
ser vivo si no consta al menos de una célula. Algunos organismos microscópicos, como bacterias y
protozoos, son células únicas, mientras que los animales y plantas están formados por muchos
millones de células organizadas en tejidos y órganos.
Aunque los virus y los extractos acelulares realizan muchas de las funciones propias de la célula
viva, carecen de metabolismo, capacidad de crecimiento y reproducción (características propias de
los seres vivos) y, por tanto, no se consideran organismos vivos. La biología celular estudia las
células en función de su constitución molecular y la forma en que cooperan entre sí para constituir
organismos muy complejos, como el ser humano. Para poder comprender cómo funciona el cuerpo
humano sano, cómo se desarrolla y envejece y qué falla en caso de enfermedad, es
imprescindible conocer las células que lo constituyen.
Hay células de formas y tamaños muy variados. Algunas de las células bacterianas más pequeñas
tienen forma cilíndrica de menos de una micra (1 micra es igual a una millonésima de metro ). En el
extremo opuesto se encuentran las células nerviosas, corpúsculos de forma compleja con
numerosas prolongaciones delgadas que pueden alcanzar varios metros de longitud (las del cuello
de la jirafa constituyen un ejemplo espectacular). Casi todas las células vegetales tienen entre 20 y
30 micras de longitud, forma poligonal y pared celular rígida. Las células de los tejidos animales
suelen ser compactas, entre 10 y 20 micras de diámetro y con una membrana superficial
deformable y casi siempre muy plegada.
Pese a las muchas diferencias de aspecto y función, todas las células están envueltas en una
membrana —llamada membrana plasmática— que encierra una sustancia rica en agua llamada
citoplasma.
En el interior de las células tienen lugar numerosas reacciones químicas que le permiten crecer,
producir energía y eliminar residuos. El conjunto de estas reacciones se llama metabolismo
(término que proviene de una palabra griega que significa cambio). Todas las células contienen
información hereditaria codificada en moléculas de ácido desoxirribonucleico (ADN); esta
información dirige la actividad de la célula y asegura la reproducción y el paso de los caracteres a
la descendencia.
Estas y otras numerosas similitudes (entre ellas muchas moléculas idénticas o casi idénticas)
demuestran que hay una relación evolutiva entre las células actuales y las primeras que
aparecieron sobre la tierra.
Composición química
En los organismos vivos no hay nada que contradiga las leyes de la química y la física. La química
de los seres vivos, objeto de estudio de la bioquímica, está dominada por compuestos de carbono
y se caracteriza por reacciones acaecidas en solución acuosa y en un intervalo de temperaturas
pequeño. La química de los organismos vivientes es muy compleja, más que la de cualquier otro
sistema químico conocido. Está dominada y coordinada por polímeros de gran tamaño, moléculas
formadas por encadenamiento de subunidades químicas; las propiedades únicas de estos
compuestos permiten a células y organismos crecer y reproducirse. Los tipos principales de
macromoléculas son las proteínas, formadas por cadenas lineales de aminoácidos; los ácidos
nucleicos, ADN y ARN, formados por bases nucleotídicas, y los polisacáridos, formados por
subunidades de azúcares.
MEMBRANA CELULAR
Características
La célula puede existir como entidad individual porque su membrana regula el pasaje de materiales
hacia su exterior e interior. La membrana celular, o también llamada membrana plasmática solo
mide de 7 a 9 nanómetros de espesor.
Todas las membranas de la célula, incluso las que rodean a los diversos orgánulos, poseen esta
misma estructura, pero existen diferencias en la composición de sus lípidos y, en particular, en la
cantidad y tipo de proteínas y carbohidratos.
Estas diferencias imparten a las membranas de distintos tipos de células y a los distintos orgánulos
propiedades singulares que pueden correlacionarse con diferencias en la función de la membrana.
La membrana celular no es fija, sino dinámica, pues es capaz de modificarse, y en ese proceso
genera canales o poros y otras modificaciones que veremos después.
Debido a dicha estructura fluida las moléculas pueden desplazarse a través de ella y así se
establece una comunicación del citoplasma con el medio externo.
En otros casos, sobre todo en los de célula libre (organismos unicelulares) o cuando el tamaño de
las partículas no permiten que pasen a través de la membrana, esta se deforma, englobando las
partículas. En células animales que usan como alimento a nutrientes complejos, es necesario
someterlo previamente a una transformación (digestión) para convertirlos en sustancias más
simples que puedan atravesar la membrana celular.
Las células responden a los estímulos de forma muy variada, pero la mayor parte responde con un
movimiento o con la elaboración de algún producto (secreción). En ellos participa la membrana
plasmática y el citoplasma. Los movimientos celulares pueden dar lugar al desplazamiento de toda
la célula, es decir a su locomoción; o bien quedar reducidos a cambios de posición de algunas de
sus partes. El tipo de movimiento originado puede ser muy variable: por emisión de pseudopodos,
por cilios, por flagelos; incluso movimientos endocelulares que afectan al citoplasma celular.
¿Cómo se mueven las células? Todas las células exhiben algún tipo de movimiento. Hasta las
células vegetales, encasilladas en una rígida pared celular. Hasta el momento se identifican dos
mecanismos de movimiento celular:
Por proteína celular: Los músculos esqueléticos de los vertebrados contienen intrincados
conjuntos contráctiles que consisten en filamentos proteicos. las dos proteínas principales de la
musculatura esquelética son actina y miosina. A estas proteínas se les suele conocer como
proteínas musculares. Sin embargo, ahora se sabe que la actina en particular existe en una gran
variedad de células, incluso en vegetales. Como se recordara los microfilamentos del citoesqueleto
consisten en subunidades de actina. Dispuesta en estos microfilamentos, la actina participa en el
movimiento de la célula y en el movimiento interno celular. Las proteínas contráctiles intervienen en
procesos celulares muy diversos. Los citólogos están llegando a la conclusión de que las proteínas
"musculares" son comunes a todas las células y la intrincada maquinaria contráctil de las células
de los músculos esqueléticos es una especialización es una evolución reciente.
Por cilios y flagelos: Son estructuras largas finas (0.2 micrómetros) que parten de la superficie
de muchas células eucariotas. Excepto por su longitud los cilios y flagelos poseen la misma
estructura. Cuando son más cortas y más numerosas se les suele llamar cilias; cuando son más
cortas y menos numerosas, flagelos: las células procariotas también poseen flagelos, pero su
estructura es muy distinta.
En las eucariotas y en algunos animales pequeños las cilias y flagelos se asocian con la
locomoción del organismo. Por ejemplo, un tipo de Paramecium tiene unas 17000 cilias, cada una
de unos 10 micrómetros de longitud, que lo propulsan por el agua de manera coordinada. Otros
organismos unicelulares, como los miembros del género de los Chlamydomonas, sólo tienen 2
flagelos en látigo que sobresalen del extremo anterior del organismo y lo desplazan por el agua.
Muchas células que revisten la superficie del cuerpo humano también son ciliadas. Estas cilias no
mueven a la célula, sino que sirven para arrastrar sustancias ambientales a lo largo de la superficie
celular. Por ejemplo las cilias del tracto respiratorio, que pulsan hacia arriba cualquier sustancia
inhalada accidentalmente.
Casi todas las cilias y flagelos de los eucariotas tienen la misma estructura: nueve pares de
microtúbulos fusionados que forman un anillo en torno a otros dos microtúbulos solitarios centrales.
Mecanismos de transporte
La difusión
Endocitosis y exocitosis
Como se verá en la figura, la superficie de la membrana que mira hacia al interior de un vacuolos
es equivalente a la superficie que mira hacia el exterior de la célula: del mismo modo, la superficie
de la membrana del vacuolo que mira hacia el citoplasma es equivalente a la superficie
citoplasmática de la membrana celular. El material necesario para la expansión de la membrana
celular a medida que crece la célula, sería transportado ya listo, desde los cuerpos de Golgi hasta
la membrana, mediante un proceso similar a la exocitosis. También hay evidencia que las
porciones de la membrana celular que se utilizan para formar vacuolos endocitóticos vuelven a la
membrana en la exócitosis, de modo que los lípidos y proteínas de la membrana se reciclen
Fagocitosis
Es cuando la sustancia que ha ser captada por la célula mediante endocitosis es un sólido, como
una célula bacteriana, dicho proceso se le denomina fagocitosis, de la palabra griega fago,
"comer". Muchos organismos unicelulares como las amebas, se alimentan de esta manera y los
glóbulos blancos del torrente sanguíneo humano engloban bacterias y otros invasores en vacuolos
fagocitarios. A veces los lisosomas se fusionan con los vacuolos, descargando en ellos sus
enzimas y dirigiendo o destruyendo así su contenido. A la captación de moléculas disueltas, en
lugar de partículas, se le da a veces el nombre de pinocitosis, aunque en principio es lo mismo que
la fagocitosis. La pinocitosis no sólo ocurre en organismos unicelulares, sino también en
pluricelulares. una célula en la cual se le observó con frecuencia es el óvulo humano. A medida que
el óvulo madura en el ovario d la mujer, es rodeado por la "células nodrizas" que le transmitirían
principios nutritivos los que son captados por el óvulo mediante pinocitosis.
A los sistemas de transporte de membrana en los que intervienen moléculas portadoras, pero, en
esencia son similares porque todos dependen de la capacidad de la membrana para "reconocer"
determinadas moléculas. Esta capacidad, por supuesto es consecuencia de miles de millones de
años de un proceso evolutivo y comenzó, según podemos discernir, con la formación de una frágil
película en torno de unas pocas moléculas orgánicas, que separó así a estas moléculas de su
ambiente externo y les permitió mantener el tipo de organización en particular que reconocemos
como vida.
Se dice que la membrana que permite el pasaje de algunas sustancias y bloquea el de otras es,
selectivamente permeable. El movimiento de moléculas de agua a través de este tipo de
membrana es un caso especial de difusión que se conoce como osmosis. La osmosis ocasiona
una transferencia neta de agua desde una solución con potencial hídrico más alto hacia otra que
tiene un potencial más bajo. En ausencia de otros factores que influyen en el potencial hídrico, en
la osmosis el agua se desplaza desde una región donde la concentración de solutos es menor,
hacia una región donde la concentración de solutos es mayor. La presencia de soluto reduce el
potencial hídrico y crea así un gradiente de potencial hídrico a lo largo del cual el agua se difunde.
La presión osmótica refleja el potencial osmótico de la solución, es decir, la tendencia del agua a
atravesar una membrana hacia la solución.
Existen muchos mecanismos para hacer que las moléculas hidrofílicas y los iones atraviesen la
membrana.
Primero, en la membrana existirían aberturas por las cuales pueden difundir moléculas de agua.
Estas aberturas pueden ser poros permanentes creados por la estructura terciaria de algunas
proteínas integrales o aberturas momentáneas debido a los movimientos de las moléculas lipídicas
de la membrana. Otras moléculas polares también pueden pasar por estas aberturas si son lo
suficientemente pequeñas. La permeabilidad de la membrana para estos solutos es inversamente
proporcional al tamaño de las moléculas.
Citoplasma
La solución acuosa concentrada en la que están suspendidos los orgánulos se llama citosol. Es un
gel de base acuosa que contiene gran cantidad de moléculas grandes y pequeñas, y en la mayor
parte de las células es, con diferencia, el compartimiento más voluminoso (en las bacterias es el
único compartimento intracelular). En el citosol se producen muchas de las funciones más
importantes de mantenimiento celular, como las primeras etapas de descomposición de moléculas
nutritivas y la síntesis de muchas de las grandes moléculas que constituyen la célula. Aunque
muchas moléculas del citosol se encuentran en estado de solución verdadera y se desplazan con
rapidez de restringidas un lugar a otro por difusión libre, otras están ordenadas de forma rigurosa.
Estas estructuras ordenadas confieren al citosol una organización interna que actúa como marco
para la fabricación y descomposición de grandes moléculas y canaliza muchas de las reacciones
químicas celulares a lo largo de vías.
A continuación se verán algunas de las estructuras que se encuentran al interior del citoplasma.
Citoesqueleto
El gran avance en la microcoscopía electrónica, permitió la visualización tridimensional del interior
de la célula, la cual ha revelado interacciones insospechadas entre las estructuras proteicas
filamentosas del interior del citoplasma. Estas estructuras internas forman el citoesqueleto interno,
que mantiene la forma de la célula, le permite moverse, fija a sus orgánulos y dirige su "transito".
En el citoesqueleto se identificaron cuatro tipos de estructura: microtúbulos, microfilamentos, fibras
internas y microtrabéculas.
• Los microfilamentos: son unos fino filos proteicos de sólo3 a 6 nanómetros de diámetro que
consisten en moléculas de una proteína globular conocida como actina. Lo mismo que los
microtúbulos la célula los puede armar y desarmar con facilidad. Los microfilamentos
intervienen en la movilidad celular. En las células que se mueven mediantes cambios
graduales de forma, como las amebas, aparecen concentrados en haces o en una maya
cerca del borde móvil.
• Las fibras intermedias: como su nombre lo sugiere tienen un tamaño promedio, entre el de
los microtúbulos y el de los microfilamentos, pues su diámetro es de 7 a 10 nanómetros. A
diferencia de los microtúbulos y de los microfilametos, que consisten en subunidades de
proteína globular, las fibras intermedias están constituidas por proteínas fibrosas y la célula
no puede desarmarlas con facilidad una vez que se han formado. Se supone que estas
poseen una estructura con forma de soga semejante a la del colágeno y su densidad es
máxima en las células sometidas a esfuerzos mecánicos.
• Los elementos del citoesqueleto descubiertos en épocas más recientes son las
mictotrabéculas, fibras a modo de mechones, que constituyen una densa red que
interconecta a todas las otras estructuras citoplasmáticas, aunque todavía no se conoce
bien su composición química, se supone que contienen proteínas.
Mitocondria
La mitocondria está rodeada por una membrana doble - la externa es relativamente porosa,
mientras que la interna contiene numerosos dobleces llamados crestas, mientras más activa sea la
célula más crestas tendrá la mitocondria. Las proteínas del transporte de electrones se encuentran
en la superficie de las crestas. Muchas de las enzimas involucradas en el CATC se encuentran
libres dentro de la matriz de la mitocondria, así como el ARN y ADN mitocondriales, que controlan
la síntesis de algunas enzimas mitocondriales. El incremento en el número de mitocondrias ocurre
durante el incremento en el tamaño de las células.
Centriolos y cuerpos basales
Muchas células, especialmente eucariotas poseen centriolos, que son pequeños cilindros de unos
0.2 micrómetros de diámetro, que están formados por 9 tripletes de microtúbulos. Estos centriolos
se disponen en pares con sus ejes perpendiculares entre sí, en el centro de la célula cerca del
núcleo.
El centriolo forma parte del huso mitótico durante la división celular en animales y tendría alguna
responsabilidad en el desplazamiento de los cromosomas.
Debajo de cada cilio y flagelo se encuentra un cuerpo basal de idéntica estructura que los
centriolos.
Cuerpos de Golgi
Cada cuerpo de Golgi consiste en unos sacos membranosos aplanados que se hallan apilados
flojamente los unos sobre los otros y están rodeados por túbulos y vesículas. El cuerpo de Golgi
cumple la función de recibir vesículas procedentes del retículo endoplásmico, modificar las
membranas de las vesículas, procesar más su contenido y distribuir el producto terminado a otras
partes de las células, en particular a la superficie celular. En consecuencia, servirían de centros de
empaquetamiento y distribución.
En el cuerpo de Golgi tiene lugar el montaje final de las proteínas y carbohidratos que están en la
superficie de las membranas celulares. En las células vegetales, los cuerpos de Golgi también
reúnen a algunos componentes de las células, donde se les ensambla. Los cuerpos de Golgi
existen en la mayoría de las células eucarióticas, las células de los animales suelen contener de 10
a 20 cuerpos de Golgi y las de las plantas pueden contener varios centenares.
Plastos o plastidios
Los plastidios son orgánulos membranosos que sólo existen en las células de las plantas y de las
algas. Están rodeados por dos membranas, lo mismo que la mitocondrias, y poseen un sistema
membranoso interno que puede formar intrincados plegamientos. Los plástidos maduros son de
tres tipos.
Los leucoplastos (leuco = blanco) almacenan almidón o, a veces, proteínas o aceites. Los
leucoplastos tienden a ser numerosos en órganos de almacenamiento como raíces, el nabo, o
tubérculos, ejemplo en la papa.
Los cromoplastos (cromo = color) contienen pigmentos y se asocian con el intenso color
anaranjado y amarillo de frutos, flores, hojas otoñales y zanahorias.
Los cloroplastos (cloro = verde) son los plastidios que contienen la clorofila y en los cuales
tiene lugar la fotosíntesis.
Lisosomas
Los lisosomas tienen una estructura muy sencilla, semejantes a vacuolas, rodeados solamente por
una membrana, contienen gran cantidad de enzimas digestivas que degradan todas las moléculas
inservibles para la célula.
Funcionan como "estómagos" de la célula y además de digerir cualquier sustancia que ingrese del
exterior, vacuolas digestivas ingieren restos celulares viejos para digerirlos también, llamados
entonces vacuolas autofágicas
Los lisosomas se forman a partir del Retículo endoplásmico rugoso y posteriormente las enzimas
son empaquetadas por el Complejo de Golgi.
Son vesículas englobadas por una membrana que se forman en el aparato de Golgi y que
contienen un gran número de enzimas digestivas (hidrolíticas y proteolíticas) capaces de romper
una gran variedad de moléculas. La carencia de algunas de estas enzimas puede ocasionar
enfermedades metabólicas como la enfermedad de Tay-Sachs
Las enzimas proteolíticas funcionan mejor a pH ácido y, para conseguirlo la membrana del
lisosoma contiene una bomba de protones que introduce H+ en la vesícula. Como consecuencia de
esto, el lisosoma tiene un pH inferior a 5.0.
Las enzimas lisosomales son capaces de digerir bacterias y otras sustancias que entran en la
célula por fagocitosis, u otros procesos de endocitosis. Eventualmente, los productos de la
digestión son tan pequeños que pueden pasar la membrana del lisosoma volviendo al citosol
donde son recicladas
Los lisosomas utilizan sus enzimas para reciclar los diferentes orgánulos de la célula,
englobándolos, digiriéndoles y liberando sus componentes en el citosol. De esta forma los
orgánulos de la célula se están continuamente reponiendo. El proceso de digestión de los
orgánulos se llama autofagia. Por ejemplo, las células hepáticas se reconstituyen por completo una
vez cada dos semanas. Otra función de los lisosomas es la digestión extracelular en heridas y
quemaduras, preparando y limpiando el terreno para la reparación del tejido.
Retículo endoplásmico
Es una red de sacos aplanados, túbulos y conductos intercomunicantes que existen en las células
eucariotas. La cantidad de retículo endoplasmático de una célula no es fija, sino que disminuye o
aumenta según la actividad celular.
Existen dos tipos de retículo endoplasmático, el rugoso (con ribosomas adheridos) y el liso (sin
ribosomas). El retículo endoplásmico rugoso predomina en las células que elaboran gran cantidad
de proteínas para exportar. Este retículo se continua con la membrana externa de la envoltura
nuclear, que también tiene ribosomas adheridos. Muchas veces el retículo endoplásmico rugoso
comprende unos grandes sacos aplanados que se llaman cisternas. Si se permite que las células
dedicadas a la síntesis de proteínas capten aminoácidos radiactivos, los marcadores radiactivos se
detectan primero en la membrana del retículo endoplásmico rugoso y poco después dentro de sus
cisternas. La porción inicial de proteínas sintetizadas en este retículo endoplásmico consiste en un
"líder" de aminoácidos hidrofóbicos que contribuiría al transporte de la proteína a través de la doble
capa lipídica hacia el interior del retículo. La molécula proteica recién sintetizada pasa del retículo
endoplasmático rugoso al liso y luego a los cuerpos de Golgi. En el curso de este andar de un
orgánulo a otro, la molécula experimenta un proceso adicional que comprende el clivaje de la
secuencia inicial de aminoácidos hidrofóbicos y, a menudo, la adición de grupos carbohidrato a la
proteína.
Las células que intervienen en la síntesis de lípidos poseen grandes cantidades de retículo
endoplásmico liso. También se presenta en las células hepáticas, donde intervendría en diversos
procesos de destoxificación. Por ejemplo en animales de experimentación, a los que se le da por la
boca grandes cantidades de fenobarbital, la cantidad de retículo endoplásmico liso de las células
hepáticas aumenta varias veces. En retículo endoplásmico liso también intervendría en la
degradación hepática del glucógeno a glucosa. Además, como ya señalamos, serviría de conducto
para el material que pasa desde el retículo endoplásmico rugoso a los cuerpos de Golgi.
Ribosomas
Son los orgánulos celulares más numerosos. Estos orgánulos están presentes en todas las células
y están asociados al retículo endoplásmico rugoso, formando juntos lo que se denomina el
ergatoplasma. Tienen forma de elipsoide suavemente alargado y su tamaño en seco es de 170Å x
170Å x 200Å (Å= angström = 1/100000000 cm). Están compuestos de dos subunidades, fácilmente
disociables y aislables por ultracentrifugación, que se caracterizan por sus coeficientes de
sedimentación. Con frecuencia, los ribosomas se asocian entre ellos para formar complejos
denominados polirribosomas o polisomas. Estos desempeñan una función biológica muy
importante ya que son el soporte activo de la síntesis proteica celular. Intervienen en la unión del
mRNA, del tRNA y en la formación del enlace peptídico durante la síntesis del ribosoma de las
paredes celulares. En cuanto a composición podemos distinguir dos tipos de componentes:
a) Componentes de alto peso molecular, que son los ácidos ribonucleicos y las proteínas.
Contienen en la célula eucariota un 50% de ARN y un 50% de proteínas.
b) Componentes de bajo peso molecular, que son los iones de magnesio y las di y poliaminas. Los
iones magnésicos son necesarios para la integridad estructural del ribosoma; su falta conduce a la
disociación de las subpartículas y a la degradación enzimática de RNA ribosómico.
Vacuolas y perixosomas
Además de los orgánulos y del citoesqueleto, el citoplasma de muchas células, en particular de las
células vegetales, contiene vacuolas. La vacuola es un espacio del citoplasma ocupado por agua y
solutos, rodeado por una membrana simple.
Es característico que las células vegetales inmaduras posean muchas vacuolas, pero a medida
que estas maduran, las numerosas vacuolas pequeñas comienzan a formar una gran vacuola
central llena de líquido que después se convierte en un importante medio de sostén de la célula.
Además, la vacuola agranda a la célula, incluso la superficie expuesta al ambiente, con inversión
mínima de materiales estructurales de parte de la célula.
Las vesículas, más comunes en los animales, poseen la misma estructura general que las
vacuolas y se distinguen por su tamaño, pues suelen medir menos de 100 nanómetros de
diámetro, mientras que las vacuolas son más grandes.
Otro tipo de vesícula que contiene destructivas son los perixosomas. Los perixosomas son unas
vesículas en las cuales células degrada purinas (una de las dos categorías principales de base
nitrogenada). En los perixosomas de las plantas también ocurren una serie de reacciones bajo la
luz solar cuando la célula contiene concentraciones relativamente grandes de oxígeno. Estas
reacciones y la degradación de las purinas producen peróxido de hidrogeno (H2O2), que es
sumamente tóxico para las células vivas pero los perixosomas contienen otra enzima que
inmediatamente desdobla al peróxido de hidrogeno en agua y oxígeno, evitando que la célula se
lesione.
Núcleo
En las células eucarioticas el núcleo es un cuerpo grande, menudo esférico, que por lo general es
la estructura que más se destaca dentro de la célula. Esta rodeado por dos membranas
lipoproteicas, que juntas forman la envoltura nuclear. Entre estas dos membranas hay un espacio
de veinte a cuarenta nanómetros, pero a intervalos frecuentes se hallan fusionadas para crear unos
poros por los cuales pasan materiales entre el núcleo y el citoplasma. Los poros que se hallan
rodeados por unos grandes gránulos que contienen proteína y están dispuestos en forma
octogonal, forman un conducto estrecho que pasa a través de la doble capa lipídica fusionada.
Los cromosomas están dentro del núcleo. Cuando la célula no está dividiéndose, los cromosomas,
sólo se ven como una maraña de delgados filamentos que se denomina cromatina. El cuerpo más
conspicuo del interior del núcleo es el nucleolo. En general hay dos nucleolos por núcleo, aunque
muchas veces se ve uno solo en una micrografía. El nucleolo es el sitio donde se construyen las
subunidades ribosómicas.
Los conocimientos actuales sobre el papel del núcleo en la vida de las células comenzaron con
algunas de las primeras observaciones microscópicas. Una de las más importante fue realizada
hace más de un siglo por el embriólogo alemán Oscar Hertwig con óvulos y espermatozoides del
erizo de mar. Los erizos de mar producen grandes cantidades de óvulos y espermatozoides. Los
óvulos son relativamente grandes y, por lo tanto, fáciles de observar. Se fecundan en el agua
exterior y no en un medio interno, como sucede con los vertebrados terrestres. Mirando con su
microscopio como se fecundaban los óvulos, Hertwig notó que sólo se requería de un
espermatozoide además a medida que el espermatozoide penetraba en el óvulo, su núcleo se
liberaba y se fusionaba con el núcleo ovular. Esta observación confirmaba por otros hombres de
ciencia y en otros tipos de organismo, fue importante, para establecer que el núcleo es el portador
de la información hereditaria, el único vínculo entre el padre y los hijos es el núcleo del
espermatozoide.
Otro indicio de la importancia del núcleo surgió merced a las observaciones de Walther Flemming,
también hace unos cien años, él observó la "danza de los cromosomas" que ocurre cuando las
células eucarióticas se dividen y reconstruyó minuciosamente la sucesión de acontecimientos.
Desde la época de Flemming se hicieron diversos experimentos para explorar el papel del núcleo
celular. En un sencillo experimento se eliminó el núcleo de una ameba mediante microcirugía. La
ameba dejó de dividirse y murió pocos días después, en cambio si en las 24 horas consecutivas a
la eliminación del núcleo original se le implantaba el núcleo de otra ameba, la célula sobrevivía y se
dividía con normalidad.
A comienzo de la década del 1930 Joachim Hämmerling estudió las funciones comparativas del
núcleo y del citoplasma, aprovechando algunas propiedades inusuales del alga marina
Acetabularia. El cuerpo de Acetabularia consiste en una célula enorme de 2 a 5 centímetros de
altura, él experimentó con esta alga e interpretó que estos resultados significan que bajo la
dirección del núcleo se producen ciertas sustancias que determinan la forma del sombrero de la
alga. Estas sustancias se acumulan en el citoplasma, razón por la cual el primer sombrero formado
después de haber transplantado el núcleo tuvo una forma intermedia, pero para el momento en que
se formó el segundo las sustancias determinantes del mismo que había en el citoplasma antes del
transplante, se habían agotado y la forma del sombrero estuvo por completo bajo el control del
nuevo núcleo.
Estos experimentos indican que el núcleo desempeña dos funciones cruciales para la célula.
Primero es el portador de la información hereditaria que determina las características de células
hijas. Segundo, como indicaba el trabaja de Hämmerling, el núcleo ejerce una actividad incesante
sobre las actividades de las células, asegurando que se sinteticen en las cantidades y tipos
necesarios las moléculas complejas que la célula requiere
Estructuras nucleares
En el nucléolo se producen los ribosomas. Los ribosomas de las células eucarióticas se parecen a
los de los procariotas en que consisten en dos subunidades, cada una constituida por ARN y
proteínas, y en que en ellos se traduce ARNm a proteína, pero difieren en que los ribosomas
eucarióticos son mucho mas grandes que los procarióticos y en sus proteínas individuales y sus
ARN son distintos.
Tres de los cuatro ARNr se transcriben en las asas del nucléolo. Las proteínas ribosómicas, que se
traducen en el citoplasma a partir del ARNm, se mandan de nuevo al núcleo, donde se combinan
con los ARNr. Luego las subunidades de los ribosomas se exportan hacia al citoplasma.
Pueden existir uno o más nucleolos por núcleo, estas estructuras son sumamente variables, ya que
a menudo cambian de forma y tamaño.
Cuando una célula se esta dividiendo los nucleolos suelen desaparecer y, luego, reaparecen
rápidamente una vez que la división celular ha terminado.
Esta membrana es doble y está atravesada por gran cantidad de pequeños poros, a través de los
cuales pueden pasar algunas sustancias desde el núcleo al citoplasma y viceversa.
Aparte de una constricción primaria hay a veces una constricción secundaria y un cuerpo redondo
llamado satélite. Como dato interesante más de la mitad de la cromatina consiste en proteínas,
estas proteínas son de centenares de tipos distintos.
Biología molecular, se ocupa del estudio de la bases moleculares de la vida; es decir, relaciona las
estructuras de las biomoléculas con las funciones específicas que desempeñan en la célula y en el
organismo.
La presentación del modelo estructural del ADN (ácido desoxirribonucleico) por Francis Harry
Compton Crick y Watson en 1953, fue el verdadero inicio de la biología molecular. La importancia
de este hecho se debe, por un lado a que es la molécula que transmite la información hereditaria
de generación en generación (véase Genética), y por otro a que la propia estructura muestra cómo
lo logra. El ADN es una molécula de doble hélice, compuesta por dos hebras complementarias
unidas entre sí por puentes entre las bases: adenina (A), guanina (G), citosina (C) y timina (T). La A
de una hebra se aparea siempre con la T de la hebra complementaria, y del mismo modo, la G con
la C. Durante la replicación o duplicación, las dos hebras simples se separan y cada una de ellas
forma una nueva hebra complementaria, incorporando bases, la A se unirá a la T de la hebra
molde, la G lo hará con la C y así sucesivamente. De esta manera se obtiene otra molécula de
ADN, idéntica a la original y por tanto, el material genético se ha duplicado. Este material incluye
toda la información necesaria para el control de las funciones vitales de las células y del
organismo. Durante la división celular, las dos células hijas reciben igual dotación genética; de este
mismo modo se reparte el material hereditario a la descendencia, cuando se reproduce un
organismo.
A partir del ADN se produce ARN y a partir del ARN se producen proteínas
La copia precisa de la información genética contenida en el ADN nos lleva a la cuestión de cómo
esta información modela las actividades de la célula. El siguiente paso necesario para la
comprensión de este proceso fue el conocimiento de la transcripción, mecanismo mediante el cual,
el ADN forma la molécula de ARN correspondiente, en forma de una hebra simple. Tal como ocurre
en la replicación del ADN, la información genética se transcribe de forma fiel mediante la adición de
bases complementarias. Después, el ARN mensajero (ARNm) se traslada a los orgánulos celulares
llamados ribosomas, donde se lleva a cabo la traducción de proteínas. El código genético gobierna
la traducción, que se basa en la correspondencia que existe entre 3 bases o triplete de la
secuencia del ARN y un aminoácido específico de la secuencia proteica. El triplete ACC provoca la
adición de treonina en la secuencia proteica que se está formando, CCC la de prolina y así
sucesivamente. Por lo tanto la información contenida en la secuencia lineal de bases del ADN
codifica la síntesis de una secuencia lineal de aminoácidos de una proteína. De tal manera, que un
cambio en las bases del ADN conlleva un cambio en la proteína correspondiente. Por ejemplo, un
cambio de la base A por C en el triplete ACC produciría la adición de prolina en lugar de treonina.
Las proteínas son muy específicas, es decir tienen funciones biológicas muy concretas, con lo cual
un cambio que afecte a la función que realizan, provocaría una alteración estructural o fisiológica
en el organismo. Estas diferencias en la información genética del ADN, son las responsables de las
diferencias heredadas entre individuos, tales como el color de ojos o las enfermedades genéticas
como la hemofilia. A partir del ADN se sintetiza ARN y a partir del ARN se sintetizan proteínas, éste
es el llamado "dogma central de la biología molecular".
Genes interrumpidos
El empleo del método de absorción de Southern para el estudio de la estructura génica condujo a
un importante hallazgo en el campo de la biología molecular. Este consiste en el descubrimiento de
la existencia, en los organismos eucariotas (plantas y animales), de regiones del ADN llamadas
exones (que se expresan), que contienen información para la codificación de proteínas y están
interrumpidas por otras secuencias del ADN, llamadas intrones (que no se expresan). Estos
intrones se transcriben junto a los exones a moléculas de ARN y son eliminados durante el proceso
de maduración del ARN. Este ocurre en el interior del núcleo celular y el resultado es una molécula
de ARNm sin interrupciones, es decir, sólo con los exones. Este ARNm maduro se traslada al
citoplasma celular y se une a los ribosomas, donde tiene lugar la traducción o síntesis de proteínas.
El significado de los intrones no está claro, pero permiten diferentes combinaciones de los exones
presentes en el ARN inmaduro, que se procesará de distinta manera según los tipos de células.
Este sistema de maduración alternativa produce proteínas relacionadas pero diferentes a partir del
mismo gen.
Control de la transcripción
La síntesis de proteínas distintas en los tejidos es vital para la comprensión de las diferencias
funcionales de los mismos y está controlada por la transcripción. Además, la transcripción está
regulada por factores de transcripción, los cuales se unen a secuencias específicas del ADN (las
regiones reguladoras) y activan este proceso. Puede ser que cada tejido tenga los factores
específicos que activan la transcripción de genes concretos, pero también es posible que estén
presentes, de forma inactiva, en todas las células. En ese caso se activarían por señales
específicas, como una modificación posterior a su síntesis, por ejemplo por adición de residuos
fosfato (fosforilación). Esto activará la transcripción de los genes que respondan a la señal.
Al igual que se estudia la expresión y la estructura de los genes se puede conocer, mediante el
sistema de secuenciación de ADN, su orden lineal de bases. El método más utilizado fue ideado
por Frederick Sanger en 1977 y en la actualidad se emplea en el Proyecto Genoma Humano, que
intenta secuenciar por completo el genoma humano. Gracias a esta técnica se puede conocer,
utilizando el código genético, la secuencia lineal de las cuatro bases, AGCT y por consiguiente, la
secuencia de aminoácidos de la proteína correspondiente. Es más sencillo secuenciar el ADN que
hacerlo en la proteína correspondiente, por lo tanto en la actualidad, la secuencia de aminoácidos
se determina de forma indirecta a partir del gen correspondiente. La utilidad de este método se
pone de manifiesto con el estudio de enfermedades genéticas. Se secuencia un gen involucrado en
una enfermedad, en individuos sanos y en individuos enfermos y al comparar ambas secuencias se
descubre la alteración de la proteína que provoca la enfermedad. La variación de tan sólo una base
puede provocar la sustitución de un aminoácido por otro, e incluso puede dañar un segmento del
ADN, alterando así la porción correspondiente de proteína.
La función biológica de una proteína está determinada por la secuencia de aminoácidos que la
componen y por la configuración espacial (estructura plegada en el espacio). En la década de
1960, John Kendrew, propuso el modelo de estructura espacial de la mioglobina, a partir de la
proteína purificada y mediante cristalografía de rayos X. A continuación, Max Peratz lo hizo con una
molécula más compleja, la hemoglobina. La hemoglobina está compuesta por cuatro subunidades
tipo mioglobina. Para conocer el orden de aminoácidos de una proteína se secuencia ADN, sin
embargo, el análisis estructural de la misma se realiza sintetizando proteína a partir de un gen
clónico (gen idéntico, que se inserta por ejemplo, en el genoma de una bacteria). De este modo se
obtiene proteína en gran cantidad. Además se pueden introducir cambios específicos en el ADN
genómico, mediante una mutación localizada, para que la bacteria sintetice una proteína alterada.
Los estudios de proteínas alteradas, han logrado demostrar la relación de la secuencia de
aminoácidos con la estructura y función de la proteína resultante.
Anatomía y fisiología
Anatomía es el estudio de la estructura, situación y relaciones de las diferentes partes del cuerpo
de animales o plantas. Anatomía (del griego, anatomē, ‘disección’), rama de las ciencias naturales
relativa a la organización estructural de los seres vivos. Es una ciencia muy antigua, cuyos
orígenes se remontan a la prehistoria. Durante siglos los conocimientos anatómicos se han basado
en la observación de plantas y animales diseccionados. Sin embargo, la comprensión adecuada de
la estructura implica un conocimiento de la función de los organismos vivos. Por consiguiente, la
anatomía es casi inseparable de la fisiología, que a veces recibe el nombre de anatomía funcional.
La anatomía, que es una de las ciencias básicas de la vida, está muy relacionada con la medicina y
con otras ramas de la biología.
Hay una obra extraordinaria "The vertebrate Body" by Alfred Sherwood Romer & Thomas S
Parsons, de la que había traducción al español en Salvat (1981). Introduce el concepto de
Neotenia, y datos por demás interesantes, como que los peces en su craneo poseen el mismo
número de huesos que el Humano, etc.
Clasificación
Anatomía animal
Anatomía humana
Anatomía vegetal
La fisiología (del griego physis, naturaleza, y logos, conocimiento, estudio) es la ciencia biológica
que estudia las funciones de los cuerpos organizados.
En función del tipo de organismo vivo, podemos distinguir dos grandes grupos:
Fisiología vegetal
Fisiología animal y dentro de ésta la humana
La célula, precisamente, es la unidad de la vida. Todas las células comparten unos elementos
esenciales, como son la membrana protectora, el citoplasma, rico en organelas y el núcleo. El
núcleo, es el cerebro organizador de la célula, pero sigue un plan general coordinado, escrito en
100.000 genes, ordenados en 23 pares de cromosomas.
El organismo humano parece saber que de la unión nace la fuerza, pues las células se organizan
en tejidos, órganos, aparatos y sistemas para realizar sus funciones.
Existen cuatro tejidos básicos, que son el epitelial, el conjuntivo, el muscular y el nervioso, con los
que el organismo se relaciona, se protege, secreta sustancias, mantiene su forma, se desplaza,
coordina sus funciones y relaciones con el medio.
A pesar de su enorme rendimiento, el cuerpo humano sigue en constante evolución, pero es un
recién llegado al planeta. De hecho si se considera que la vida se instauro en la tierra hace 24
horas, el ser humano apenas ha vivido los últimos 3 segundos. (tiempo geológico).
Anatomía
Es la rama de las ciencias biológicas que trata de la forma y estructura de los organismos.
fisiología
Es una rama de las ciencias biológicas que trata de las funciones normales del cuerpo.
El termino anatomía topográfica designa los métodos con que se determinan exactamente las
posiciones relativas de varias partes del cuerpo, presupone un conocimiento de la anatomía
sistemica.
SISTEMA OSTEOARTICULAR
El hueso es un tejido sorprendente, ya que combina células vivas (osteocitos) y materiales inertes
(sales de calcio). De esta unión, surge la fuerza, pero también la ligereza y la resistencia de los
huesos. Los huesos se están renovando constantemente.
Sostiene al organismo y protege a los órganos delicados, a la vez que sirve de punto de inserción a
los tendones de los musculos, Además, el interior de los huesos largos aloja la medula ósea, un
tejido noble que fabrica glóbulos rojos y blancos. La cabeza esta constituida por el cráneo y la cara.
Es una sucesión compleja de huesos que protegen el encéfalo y a otros órganos del sistema
nervioso central. También da protección a los órganos de los sentidos, a excepción de el tacto que
se encuentra repartido por toda la superficie de la piel.
La Columna Vertebral es un pilar recio, pero un poco flexible, formada por una treintena de
vértebras que cierra por detrás la caja torácica. En la porción dorsal de la columna, se articula con
las costillas.
26 en la columna vertebral
8 en el cráneo
14 en la cara
8 en el oído
1 hueso Hioides
25 en el tórax
Algunas características:
son duros. Están formados por una substancia blanda llamada osteina y por una sustancia dura
formada por sales minerales de calcio.Los huesos largos tienen en su parte media un canal central
relleno de médula amarilla, y las cabezas son esponjosas y están llenas de médula roja.
Su función :
El cuerpo humano se divide de la siguiente manera para que sea mas comprensible y universal :
Huesos De La Cabeza
Los huesos del Cráneo son 8 y forman una caja resistente para proteger el cerebro.
Los huesos de la cara son 14. Entre ellos los mas importantes son los Maxilares (Superior e
inferior) que se utilizan en la masticación.
Las vértebras, forman la columna vertebral y protegen la médula espinal, también articulan las
costillas. (posterior)
El húmero en el brazo.
El fémur en el muslo
La rótula en la rodilla.
Las Articulaciones
Son las uniones entre los huesos. Unas son fijas y se llaman suturas (Las de los huesos del
cráneo)
Semimóviles: las de las vértebras entre ellas están los discos invertebrales.
móviles: las del codo y la rodilla. En este caso, para evitar el roce entre los huesos, éstos terminan
en un cartílago articular rodeado de una bolsa o cápsula sinovial, llena de un líquido aceitoso
llamado Sinovia, que actúa como lubrificante y amortiguador del roce. entre las dos cápsulas esta
el Menisco articular.
Hay un hueso suelto a nivel de la base de la lengua; llamado hioides, en la que sustenta en sus
movimientos.
SISTEMA DIGESTIVO
El aparato digestivo es un largo tubo, con importantes glándulas empotradas, que transforma las
complejas moléculas de los alimentos en sustancias simples y fácilmente utilizables por el
organismo.
Estos compuestos nutritivos simples son absorbidos por las vellosidades intestinales, que tapizan
el intestino delgado. Así pues, pasan a la sangre y nutren todas y cada una de las células del
organismo
Desde la boca hasta el ano, el tubo digestivo mide unos once metros de longitud. En la boca ya
empieza propiamente la digestión. Los dientes trituran los alimentos y las secreciones de las
glándulas salivales los humedecen e inician su descomposición química. Luego, el bolo alimenticio
cruza la faringe, sigue por el esófago y llega al estomago, una bolsa muscular de litro y medio de
capacidad, cuya mucosa secreta el potente jugo gástrico, en el estomago, el alimento es agitado
hasta convertirse en una papilla llamada quimo.
A la salida del estomago, el tubo digestivo se prolonga con el intestino delgado, de unos siete
metros de largo, aunque muy replegado sobre si mismo. En su primera porción o duodeno recibe
secreciones de las glándulas intestinales, la bilis y los jugos del páncreas. Todas estas secreciones
contienen una gran cantidad de enzimas que degradan los alimentos y los transforma en
sustancias solubles simples.
El tubo digestivo continua por el intestino grueso, de algo mas de metro y medio de longitud. Su
porción final es el recto, que termina en el ano, por donde se evacuan al exterior los restos
indigeribles de los alimentos.
Descripción Anatómica
boca, esófago, estómago, intestino delgado que se divide en duodeno, yeyuno, íleon.
El intestino grueso que se compone de: ciego y apéndice, colon y recto.
El hígado (con su vesícula Biliar) y el páncreas forman parte del aparato digestivo, aunque no del
tubo digestivo.
Esófago :
Estómago :
El estómago es un órgano que varia de forma según el estado de repleción (cantidad de contenido
alimenticio presente en la cavidad gástrica) en que se halla, habitualmente tiene forma de J.
Consta de varias partes que son : Fundos, cuerpo, antro y pìloro. Su borde menos extenso se
denomina curvatura menor y la otra curvatura mayor. El cardias es el limite entre el esófago y el
estomago y el piloro es el limite entre estómago y duodeno. En un individuo mide
aproximadamente 25cm del cardias al pìloro y el diámetro transverso es de 12cm.
Intestino delgado:
El intestino delgado se inicia en el pìloro y termina en la válvula ileoceal, por la que se une a la
primera parte del intestino grueso. Su longitud es variable y su calibre disminuye progresivamente
desde su origen hasta la válvula ileocecal.
El duodeno, que forma parte del intestino delgado, mide unos 25 - 30 cm de longitud; el intestino
delgado consta de una parte próxima o yeyuno y una distal o íleon; el limite entre las dos porciones
no es muy aparente. El duodeno se une al yeyuno después de los 30cm a partir del piloro.
El yeyuno-ìleon es una parte del intestino delgado que se caracteriza por presentar unos extremos
relativamente fijos: El primero que se origina en el duodeno y el segundo se limita con la válvula
ileocecal y primera porción del ciego. Su calibre disminuye lenta pero progresivamente en dirección
al intestino grueso. El limite entre el yeyuno y el íleon no es apreciable.
Intestino grueso:
El intestino grueso se inicia a partir de la válvula ileocecal en un fondo de saco denominado ciego
de donde sale el apéndice vermiforme y termina en el recto. Desde el ciego al recto describe una
serie de curvas, formando un marco en cuyo centro están las asas del yeyunoìleon. Su longitud es
variable, entre 120 y 160 cm, y su calibre disminuye progresivamente, siendo la porción más
estrecha la región donde se une con el recto o unión rectosigmoidea donde su diámetro no suele
sobrepasar los 3 cm, mientras que el ciego es de 6 o 7 cm. En el intestino grueso se diferencian
varias porciones entre ellas tenemos:
La primera porción que esta constituida por un saco ciego, situada inferior a la válvula ileocecal y
que da origen al apéndice vermicular. La segunda porción es denominada como colon ascendente
con una longitud de 15cm, para dar origen a la tercera porción que es el colon transverso con una
longitud media de 50cm, originándose una cuarta porción que es el colon descendente con 10cm
de longitud, por ultimo se diferencia el colon sigmoideo, recto y ano. El recto es la parte terminal del
tubo digestivo. Es la continuación del colon sigmoideo y termina abrièndose al exterior por el orificio
anal.
Páncreas :
Es una glándula íntimamente relacionada con el duodeno, el conducto excretor del páncreas, que
termina reunièndose con el colèdoco a través de la ampolla de Vater, sus secreciones son de
importancia en la digestión de los alimentos.
Hígado :
Es la mayor viscera del cuerpo pesa 1500 gms Consta de dos lóbulos. Las vías biliares son las
vías excretoras del hígado, por ellas la bilis es conducida al duodeno. normalmente salen dos
conductos: derecho e izquierdo, que confluyen entre sì formando un conducto único. el conducto
hepático, recibe un conducto más fino, el conducto cìstico, que proviene de la vesícula biliar
alojada en la cara visceral de hígado. De la reunión de los conductos cìstico y el hepático se forma
el colèdoco, que desciende al duodeno, en la que desemboca junto con el conducto excretor del
páncreas. La vesícula biliar es un reservorio musculomembranoso puesto en derivación sobre las
vías biliares principales. No suele contener mas de 50-60 cm de bilis. Es de forma ovalada o
ligeramente piriforme y su diámetro mayor no es de 8 a 10 cm .
Bazo:
El bazo, por sus principales funciones se debería considerar un órgano del sistema circulatorio. Su
tamaño depende de la cantidad de sangre que contenga.
El tubo digestivo se encarga de la digestión de los alimentos ingeridos, para que puedan ser
utilizados por el organismo. El proceso de digestión comienza en la boca, donde los alimentos son
cubiertos por la saliva, triturados y divididos por la acción de la masticación y una vez formado el
bolo , deglutidos. El estomago no es un órgano indispensable para la vida, pues aunque su
extirpación en hombres y animales causa ciertos desordenes digestivos, no afecta
fundamentalmente la salud.
En el hombre, la función esencial del estomago es reducir los alimentos a una masa semifluida de
consistencia uniforme denominada quimo, que pasa luego al duodeno. El estomago también actúa
como reservorio transitorio de alimentos y por al acidez de sus secreciones, tiene una cierta acción
antibacteriana.
El quimo pasa el piloro a intervalos y penetra al duodeno donde es transformado por las
secreciones del páncreas, intestino delgado e hígado; continuándose su digestión y absorción. El
quimo sigue progresando a través del intestino delgado hasta llegar al intestino grueso.
La válvula ileocecal obstaculiza el vaciamiento demasiado rápido del intestino delgado e impide el
reflujo del contenido del intestino grueso al intestino delgado. La principal función del intestino
grueso es la formación, transporte y evacuación de las heces. Una función muy importante es la
absorción de agua. En el ciego y el colon ascendentes las materias fecales son casi liquidas y es
allí donde se absorbe la mayor cantidad de agua y algunas sustancias disueltas, pero aun en
regiones mas dístales (recto y colon sigmoideo) se absorben líquidos.
Los musculos son los motores del movimiento. Un musculo, es un haz de fibras, cuya propiedad
mas destacada es la contractilidad. Gracias a esta facultad, el paquete de fibras musculares se
contrae cuando recibe orden adecuada. Al contraerse, se acorta y se tira del hueso o de la
estructura sujeta. Acabado el trabajo, recupera su posición de reposo.
Los musculo estriados son rojos, tienen una contracción rápida y voluntaria y se insertan en los
huesos a través de un tendón, por ejemplo, los de la masticación, el trapecio, que sostiene erguida
la cabeza, o los gemelos en las piernas que permiten ponerse de puntillas. Por su parte los
musculos lisos son blanquecinos, tapizan tubos y conductos y tienen contracción lenta e
involuntaria. Se encuentran por ejemplo, recubriendo el conducto digestivo o los vasos sanguíneos
(arterias y venas). El musculo cardiaco es un caso especial, pues se trata de un musculo estriado,
de contracción involuntaria.
El cuerpo humano se cubre de unos 650 musculos de acción voluntaria. Tal riqueza muscular
permite disponer de miles de movimientos. Hay musculos planos como el recto del abdomen, en
forma de huso como el bíceps o muy cortos como los interoseos del metacarpo. Algunos musculos
son muy grandes, como el dorsal en la espalda, mientras otros muy potentes como el cuadriceps
en el muslo. Además los musculos sirven como protección a los órganos internos así como de dar
forma al organismo y expresividad al rostro.
Los musculos son conjuntos de células alargadas llamadas fibras. Están colocadas en forma de
haces que a su vez están metidos en unas vainas conjuntivas que se prolongan formando los
tendones, con lo que se unen a los huesos. Su forma es variable. La más típica es la forma de
huso (gruesos en el centro y finos en los extremos).
Sus Propiedades :
Son blandos.
Pueden deformarse.
Pueden contraerse.
Su misión esencial es mover las diversas partes del cuerpo apoyàndose en los huesos.
Para Observar un gráfico del sistema muscular, con todos sus nombres pulsa Aqui
En la Cabeza
El mùsculo que permite el movimiento de los labios cuando hablamos: Orbicular de los labios.
Los que permiten abrir o cerrar los párpados : Orbiculares de los ojos. Los que utilizamos para
soplar o silbar, llamados Bucinadores.
En el Cuello
Los que utilizamos para doblar la cabeza hacia los lados o para hacerla girar : se llaman Esterno -
cleido - mastoideos.
En Los Brazos
Los gemelos son los que utilizamos para caminar, forman la pantorrilla, terminan en el llamado
tendón de Aquiles.
Los que hemos citado, cuya contracción puede ser rápida y Voluntaria : Se llaman musculos
estriados o rojos.
Los musculos intestinales de contracción lenta e involuntaria; son los llamados musculos lisos y
blancos.
Los musculos realizan el trabajo de extensión y de flexión, para aquello tiran de los huesos, que
hacen de palancas. Otro efecto de trabajo de los musculos es la producción de calor. Para ello
regulan el funcionamiento de centros nerviosos.
En ellos se reciben las sensaciones, para que el sistema nervioso elabore las respuestas
conscientes a dichas sensaciones.
Los musculos gastan mucho oxigeno y glucosa, cuando el esfuerzo es muy fuerte y prolongado,
provocando que los musculos no alcancen a satisfacer sus necesidades, dan como resultado los
calambres y fatigas musculares por acumulación de toxinas musculares, estos estados
desaparecen con descanso y masajes que activen la circulación, para que la sangre arrastre las
toxinas presentes en la musculatura
SISTEMA NERVIOSO
A menudo, se compara el sistema nervioso con un computador: porque las unidades periféricas
(órganos internos u órganos de los sentidos) aportan gran cantidad de información a través de los
cables de transmisión (nervios) para que la unidad de procesamiento central (cerebro), provista de
su banco de datos (memoria), la ordene, la analice, muestre y ejecute.
Sin embargo, la comparación termina aquí, en la mera descripción de los distintos elementos. La
informática avanza a enormes pasos, pero aun esta lejos el día que se disponga de un ordenador
compacto, de componentes baratos y sin mantenimiento, capaz de igualar la rapidez, la sutileza y
precisión del cerebro humano.
El sistema nervioso central realiza las mas altas funciones, ya que atiende y satisface las
necesidades vitales y da respuesta a los estímulos. Ejecuta tres acciones esenciales, que son la
detección de estímulos, la transmisión de informaciones y la coordinación general.
El Cerebro es el órgano clave de todo este proceso. Sus diferentes estructuras rigen la
sensibilidad, los movimientos, la inteligencia y el funcionamiento de los órganos. Su capa mas
externa, la corteza cerebral, procesa la información recibida, la coteja con la información
almacenada y la transforma en material utilizable, real y consciente.
El Sistema Nervioso es la relación entre nuestro cuerpo y el exterior, además regula y dirige el
funcionamiento de todos los órganos del cuerpo.
Las Neuronas: son la unidad funcional del sistema nervioso, por ellas pasan los impulsos
nerviosos.
El Encéfalo:
Es la masa nerviosa contenida dentro del cráneo. esta envuelta por las meninges, que son tres
membranas llamadas: duramadre, piamadre y aracnoides. El encéfalo consta de tres partes:
El Cerebro:
Es la parte mas importante, esta formado por la sustancia gris (por fuera) y la sustancia blanca (por
dentro), su superficie no es lisa sino que tienes unas arrugas o salientes llamadas
circunvoluciones; y unos surcos denominados cisuras, las mas notables son llamadas las cisuras
de Silvio y de Rolando. Esta dividido incompletamente por una hendidura en dos partes, llamados
hemisferios cerebrales. En los hemisferios se distinguen zonas denominadas lóbulos, que llevan el
nombre del hueso en que se encuentran en contacto. Pesa unos 1.200gr Dentro de sus principales
funciones están las de controlar y regular el funcionamiento de los demás centros nerviosos,
también en el se reciben las sensaciones y se elaboran las respuestas conscientes a dichas
situaciones. Es el órgano de las facultades intelectuales: atención, memoria ...etc.
El cerebelo::
Esta situado detrás del cerebro y es más pequeño (120 gr.); tiene forma de una mariposa con las
alas extendidas. Consta de tres partes: Dos hemisferios cerebelosos y el cuerpo vermiforme. Por
fuera tiene sustancia gris y en el interior sustancia blanca, esta presenta una forma arborescente
por lo que se llama el árbol de la vida.Coordina los movimientos de los musculos al caminar.
El Bulbo Raquídeo:
La Medula Espinal:
Los Nervios
Son cordones delgados de sustancia nerviosa que se ramifican por todos los órganos del cuerpo.
Unos salen del encéfalo y se llaman nervios craneales. Otros salen a lo largo de la medula espinal:
Tanto la definición de la inteligencia como la medición han suscitado siempre recelos y criticas. Sin
embargo, muchos tests de inteligencia establecen su puntuación a partir de un promedio, al que se
ha dado un valor 100. así, se determina que el 70% de la población posee un cociente intelectual
(CI) normal, situado entre 85 y 115. Una buena herencia y un ambiente propicio son dos
circunstancias esenciales para que una persona pueda desarrollar todo su potencial intelectual.
La memoria es otra facultad maravillosa del cerebro humano, pues permite registrar datos y
sensaciones, revivirlos a voluntad después de minutos o años después. La memoria es una sola,
pero se distinguen tres niveles, según cuanto tiempo se recuerda una información, esta es la
memoria inmediata, de solo unos segundos, la memoria a corto plazo, de unas horas a unos pocos
días, y la memoria a largo plazo, en que los datos se graban a fuego y pueden recordarse toda la
vida.
Inteligencia y memoria son dos facultades que un cerebro soñoliento realiza a duras penas y sin
ningún lucimiento.
El sueño es imprescindible para vivir, en especial el sueño profundo, en que el cuerpo se abandona
a la relajación y el cerebro se enfrasca en una frenética actividad onírica (actividad de los sueños y
pesadillas).
SISTEMA CIRCULATORIO
La sangre es el fluido que circula por todo el organismo a través del sistema circulatorio, formado
por el corazón y los vasos sanguíneos. De hecho, la sangre describe dos circuitos
complementarios. En la circulación pulmonar o circulación menor la sangre va del corazón a los
pulmones, donde se oxigena o se carga con oxigeno y descarga el dioxido de carbono.
corazón.
Los Vasos sanguíneos (arterias, capilares y venas) son conductos musculares elásticos que
distribuyen y recogen la sangre de todos los rincones del cuerpo.
El Corazón es un musculo hueco, del tamaño del puño (relativamente), encerrado en el centro del
pecho. Como una bomba, impulsa la sangre por todo el organismo. realiza su trabajo en fases
sucesivas. Primero se llenan las cámaras superiores o aurículas, luego se contraen, se abren las
válvulas y la sangre entra en las cavidades inferiores o ventrículos. Cuando están llenos, los
ventrículos se contraen e impulsan la sangre hacia las arterias.
El corazón late unas setenta veces por minuto y bombea todos los días unos 10.000 litros de
sangre.
La sangre es un tejido liquido, compuesto por agua, sustancias disueltas y células sanguíneas. Los
glóbulos rojos o hematies se encargan de la distribución del oxigeno; los glóbulos blancos efectúan
trabajos de limpieza (fagocitos) y defensa (linfocitos), mientras que las plaquetas intervienen en la
coagulación de la sangre. Una gota de sangre contiene unos 5 millones de glóbulos rojos, de 5.000
a 10.000 glóbulos blancos y alrededor de 250.000 plaquetas.
El aparato circulatorio sirve para llevar los alimentos y el oxigeno a las células, y para recoger los
desechos que se han de eliminar después por los riñones, pulmones, etc. De toda esta labor se
encarga la sangre, que está circulando constantemente.
La Sangrees un liquido rojo, viscoso de sabor salado y olor especial. En ella se distinguen las
siguientes partes : el plasma, los glóbulos rojos, los glóbulos blancos y las plaquetas.
El plasma sanguíneo es la parte liquida, es salado de color amarillento y en él flotan los demás
componentes de la sangre, también lleva los alimentos y las sustancias de desecho recogidas de
las células. El plasma cuando se coagula la sangre, origina el suero sanguíneo.
Los Glóbulos Rojos o Hematies tienen forma de discos y son tan pequeños que en cada milímetro
cúbico hay cuatro a cinco millones, miden unas siete micras de diámetro, no tienen núcleo por eso
se consideran células muertas, tiene un pigmento rojizo llamado hemoglobina que les sirve para
transportar el oxigeno desde los pulmones a las células.
Los Glóbulos Blancos o Leucocitos Son mayores pero menos numerosos (unos siete mil por
milímetro cúbico), son células vivas que se trasladan, se salen de los capilares y se dedican a
destruir los microbios y las células muertas que encuentran por el organismo. También producen
antitoxinas que neutralizan los venenos de los microorganismos que producen las enfermedades.
Las Plaquetas Son células muy pequeñas, sirven para taponar las heridas y evitar hemorragias.
Un órgano central, el corazón y un sistema de tubos o vasos, las arterias, los capilares y las venas.
Corazón
Es un órgano hueco y musculoso del tamaño de un puño, rodeado por el Pericardio. Situado entre
los pulmones, dividido en cuatro cavidades : dos Aurículas y dos Ventrículos. Entre la Aurícula y el
Ventrículo derecho hay una válvula llamada tricúspide, entre Aurícula y Ventrículo izquierdos está la
válvula mitral. Las gruesas paredes del corazón forman el Miocardio.
Las Arterias
Son vasos gruesos y elásticos que nacen en los Ventrículos aportan sangre a los órganos del
cuerpo por ellas circula la sangre a presión debido a la elasticidad de las paredes.
Arteria Pulmonar que sale del Ventrículo derecho y lleva la sangre a los pulmones.
Arteria Aorta sale del Ventrículo izquierdo y se ramifica, de esta ultima arteria salen otras
principales entre las que se encuentran:
Para Observar como se superponen las arterias a los huesos pulsa Aqui
Los Capilares
Son vasos sumamente delgados en que se dividen las arterias y que penetran por todos los
órganos del cuerpo, al unirse de nuevo forman las venas.
Las Venas
Son vasos de paredes delgadas y poco elásticas que recogen la sangre y la devuelven al corazón,
desembocan en las Aurículas.
La Cava inferior a la que van las Ilíacas que vienen de las piernas, las renales de los riñones, y la
suprahèpatica del hígado.
En la Aurícula izquierda desemboca las cuatro venas pulmonares que traen sangre desde los
pulmones y que curiosamente es sangre arterial.
· Para Observar un gráfico con las venas y arterias del cuerpo pulsa aqui
Uno de contracción llamado Sístole y otro de dilatación llamado Diástole. Pero la Sístole y la
Diástole no se realizan a la vez en todo el corazón, se distinguen tres tiempos :
Sístole Auricular : se contraen las Aurículas y la sangre pasa a los ventrículos que estaban vacíos.
Sístole Ventricular : los ventriculos se contraen y la sangre que no puede volver a las aurículas por
haberse cerrado las válvulas bicúspide y tricúspide, sale por las arterias pulmonar y aorta. Estas
también tienen sus válvulas llamadas válvulas sigmoideas, que evitan el reflujo de la sangre.
Diástole general : Las Aurículas y los Ventrículos se dilatan y la sangre entran de nuevo a las
aurículas.
Los golpes que se producen en la contracción de los Ventrículos originan los latidos, que en el
hombre oscilan entre 70 y 80 latidos por minuto.
El Sistema Linfático
La linfa es un liquido incoloro formado por plasma sanguíneo y por glóbulos blancos, en realidad es
la parte de la sangre que se escapa o sobra de los capilares sanguíneos al ser estos porosos.
Las venas linfáticas tienen forma de rosario por las muchas válvulas que llevan, también tienen
unos abultamientos llamados ganglios que se notan sobre todo en las axilas, ingle, cuello etc. En
ellos se originan los glóbulos blancos.
SISTEMA RESPIRATORIO
El aire se inhala por la nariz, donde se calienta y humedece. Luego, pasa a la faringe, sigue por la
laringe y penetra en la traquea.
A la mitad de la altura del pecho, la traquea se divide en dos bronquios que se dividen de nuevo,
una y otra vez , en bronquios secundarios, terciarios y, finalmente, en unos 250.000 bronquiolos.
Al final de los bronquiolos se agrupan en racimos de alvéolos, pequeños sacos de aire, donde se
realiza el intercambio de gases con la sangre.
Los pulmones contienen aproximadamente 300 millones de alvéolos, que desplegados ocuparían
una superficie de 70 metros cuadrados, unas 40 veces la extensión de la piel.
La respiración cumple con dos fases sucesivas, efectuadas gracias a la acción muscular del
diafragma y de los musculos intercostales, controlados todos por el centro respiratorio del bulbo
raquídeo. En la inspiración, el diafragma se contrae y los musculos intercostales se elevan y
ensanchan las costillas. La caja torácica gana volumen y penetra aire del exterior para llenar este
espacio.
Vías respiratorias
Pulmones
Están formadas por la boca y las fosas nasales, la faringe, la laringe, la traquea, los bronquios y los
bronquiolos.
La Laringe es el órgano donde se produce la voz, contiene las cuerdas vocales y una especie de
tapón llamado epiglotis para que los alimentos no pasen por las vías respiratorias.
La traquea es un tubo formado por unos veinte anillos cartilaginosos que la mantienen siempre
abierta, se divide en dos ramas: los Bronquios.
Los Bronquios y los Bronquiolos son las diversas ramificaciones del interior del pulmón, terminan
en unos sacos llamadas alvéolos pulmonares que tienen a su vez unas bolsas más pequeñas o
vesículas pulmonares, están rodeadas de una multitud de capilares por donde pasa la sangre y se
purifica y se realiza el intercambio gaseoso.
Los pulmones son dos masas esponjosas de color rojizo, situadas en el tórax a ambos lados del
corazón, el derecho tiene tres partes o lóbulos; el izquierdo tiene dos partes.
Respiración Consiste en tomar oxigeno del aire y desprender el diòxido de carbono que se produce
en las células.
2. El transporte de gases.
El aire entra en los pulmones y sale de ellos mediante los movimientos respiratorios que son dos:
En la Inspiración el aire penetra en los pulmones porque estos se hinchan al aumentar el volumen
de la caja torácica. Lo cual es debido a que el diafragma desciende y las costillas se levantan.
Respiramos unas 17 veces por minuto y cada vez introducimos en la respiración normal ½ litro de
aire. El número de inspiraciones depende del ejercicio, de la edad etc. la capacidad pulmonar de
una persona es de cinco litros. A la cantidad de aire que se pueda renovar en una inspiración
forzada se llama capacidad vital; suele ser de 3,5 litros.
Cuando el aire llega a los alvéolos, parte del oxigeno que lleva atraviesa las finisimas paredes y
pasa a los glóbulos rojos de la sangre. Y el diòxido de carbono que traía la sangre pasa al aire, así
la sangre venenosa se convierte en sangre arterial esta operación se denomina hematosis.
El oxigeno tomado en los alvéolos pulmonares es llevado por los glóbulos rojos de la sangre hasta
el corazón y después distribuido por las arterias a todas las células del cuerpo.
El diòxido de carbono es recogido en parte por los glóbulos rojos y parte por el plasma y
transportado por las venas cavas hasta el corazón y de allí es llevado a los pulmones para ser
arrojado al exterior.
Toman el oxigeno que les lleva la sangre y/o utilizan para quemar los alimentos que han absorbido,
allí producen la energía que el cuerpo necesita y en especial el calor que mantiene la temperatura
del cuerpo humano a unos 37 grados.
Genética
La genética es la parte de la Biología que trata de la herencia y de todo lo relacionado con ella.
Pero si analizamos tiempo atrás, el avance más significativo en el campo de la genética se debió al
monje austriaco Gregor Mendel (1822 - 1884), que observó ciertas características específicas de la
planta del guisante y contó la cantidad de individuos en los que aparecían estos rasgos a lo largo
de varias generaciones. Concentrándose en apenas algunos caracteres y determinando en que
proporción de cada generación estaban presentes, consiguió demostrar patrones específicos de
herencia. El carácter discreto y la segregación independiente de las características genéticas que
observó se conocieron como “leyes de la herencia de Mendel” , y se aplican a la mayoría de los
sistemas genéticos.
Con el tiempo surgió la clonación, el cual es un proceso por el cual un organismo produce
descendientes con la misma información genética y que por lo tanto son idénticos entre sí.
El primer caso de clonación animal fue “Dolly” la oveja. Un equipo de científicos escoceses
encabezado por Lan Wilmut logró el 23 de febrero de 1997 crear la primera oveja obtenida por
medio de la clonación.
Actualmente se está analizando hacer clones humanos, a fin de obtener órganos humanos para
hacer transplantes, u otras cosas. Pero como todas las cosas esto tiene consecuencias, como por
ejemplo por esto se tendría que hacer la clonación en embriones humanos. Esto es muy cruel ya
que con esto se están matando pequeñas vidas.
Se espera de este tema que los científicos utilicen la clonación inteligentemente y que no nos
lleguen a defraudar ya que son los únicos que pueden llegar más allá de la ciencia para estudiar lo
desconocido y para lograr vivir en un mundo mejor.
ADN
Su función es dictar las instrucciones para fabricar un ser vivo idéntico a aquel del que proviene (o
casi similar, en el caso de mezclarse con otra cadena como es el caso del la reproducción sexual).
Estructura
Los componentes del ADN (polímero) son los nucleótidos (monómeros); cada nucleótido está
formado por un grupo de fosfato, una desoxirribosa y una base nitrogenada. Existen cuatro bases:
dos purínicas (o púricas) denominadas adenina (A) y guanina (G) y dos pirimidínicas (o pirimídicas)
denominadas citosina (C) y timina (T). La estructura del ADN es una pareja de largas cadenas de
nucleótidos. La estructura de doble hélice (ver figura) del ADN no fue descubierta hasta 1953 por
James Watson y Francis Crick (el artículo A Structure for Deoxyribose Nucleic Acid fue publicado el
25 de abril de 1953 en Nature¹ y dejaba claro el modo en que el ADN se podía "desenrollar" para
que fuera posible su lectura o copia). Una larga hebra de ácido nucleico está enrollada alrededor
de otra hebra formando un par entrelazado. Dicha hélice mide 3,4 nm de paso de rosca y 2,37 nm
de diámetro, y está formada, en cada vuelta, por 10,4 pares de nucleótidos enfrentados entre sí por
sus bases nitrogenadas. El rasgo fundamental es que cada base nitrogenada de una hebra "casa"
con la base de la otra, en el sentido de que la adenina siempre se enfrenta a la timina (lo que se
denomina A-T) y la guanina siempre a la citosina (G-C). La adenina se une a la timina mediante
dos puentes de hidrógeno, mientras que la guanina y la citosina lo hacen mediante tres puentes de
hidrógeno; de ahí que una cadena de ADN que posea un mayor número de parejas de C-G sea
más estable. Este emparejamiento corresponde a la observación ya realizada por Erwin Chargaff
(1905-2002) de que en todas las muestras la cantidad de adenina es siempre la misma que la
timina, e igualmente con la guanina y la citosina. La cantidad de purinas (A+G) es siempre igual a
la cantidad de pirimidinas (T+C). Así una purina (adenina y guanina), de mayor tamaño, está
siempre emparejada con una pirimidina (timina y citosina), más pequeña, siendo de este modo
uniforme la doble hélice (no hay "bultos" ni "estrechamientos"). Se estima que el genoma humano
haploide tiene alrededor de 3.000 millones de pares de bases. Dos unidades de medida muy
utilizadas son la kilobase (kb) que equivale a 1.000 pares de bases, y la megabase (Mb) que
equivale a un millón de pares de bases.
Promotor
El promotor es una secuencia de ADN que permite que un gen sea transcrito, sirve para dar la
señal de comienzo a la ARN polimerasa. El promotor ADN determina cuál de las dos cadenas de
ADN será copiada.
Enlace de hidrógeno
La adhesión de las dos hebras de ácido nucleico se debe a un tipo especial de unión química
conocido como enlace de hidrógeno o puente de hidrógeno. Los puentes de hidrógeno son uniones
más débiles que los típicos enlaces químicos, tales como interacciones hidrófobas, enlaces de Van
der Waals, etc... Esto significa que las dos hebras de la hélice pueden separarse con relativa
facilidad, quedando intactas.
Papel de la secuencia
En un gen, la secuencia de los nucleótidos a lo largo de una hebra de ADN se transcribe a un ARN
mensajero (ARNm) y esta secuencia a su vez se traduce a una proteína que un organismo es
capaz de sintetizar o "expresar" en uno o varios momentos de su vida, usando la información de
dicha secuencia.
En muchas especies de organismos, sólo una pequeña fracción del total de la secuencia del
genoma codifica proteínas; por ejemplo, sólo un 3% del genoma humano consiste en exones que
codifican proteínas. La función del resto por ahora sólo es especulación, es conocido que algunas
secuencias tienen afinidad hacia proteínas especiales que tienen la capacidad de unirse al ADN
(como los homeodominios, los complejos receptores de hormonas esteroides, etc.) que tienen un
papel importante en el control de los mecanismos de trascripción y replicación. Estas secuencias
se llaman frecuentemente secuencias reguladoras, y los investigadores asumen que sólo se ha
identificado una pequeña fracción de las que realmente existen. El llamado ADN basura representa
secuencias que no parecen contener genes o tener alguna función; la presencia de tanto ADN no
codificante en genomas eucarióticos y las diferencias en tamaño del genoma representan un
misterio que es conocido como el enigma del valor de C.
Algunas secuencias de ADN desempeñan un papel estructural en los cromosomas: los telómeros y
centrómeros contienen pocos o ningún gen codificante de proteínas, pero son importantes para
estabilizar la estructura de los cromosomas. Algunos genes codifican ARN: ARN ribosómico, ARN
de transferencia), ARN interferentes (ARNi, que son ARN que bloquean la expresión de genes
específicos). La estructura de intrones y exones de algunos genes (como los de inmunoglobulinas
y protocadherinas) son importantes por permitir cortes y armados alternativos del pre-ARN
mensajero que hacen posible la síntesis de diferentes proteínas a partir de un mismo gen (sin esta
capacidad no existiría el sistema inmunológico). Algunas secuencias de ADN no codificante
representan pseudogenes que tienen valor evolutivo ya que permiten la creación de nuevos genes
con nuevas funciones. Otros ADN no codificantes proceden de la duplicación de pequeñas
regiones del ADN; esto tiene mucha utilidad ya que el rastreo de estas secuencias repetitivas
permite estudios sobre el linaje humano
La secuencia también determina la susceptibilidad del ADN para ser cortado por determinadas
enzimas de restricción, lo que se aplica en la realización de la técnica de RFLP, popularmente
conocida como la Huella genética, que se usa para determinar la identidad y la paternidad de
personas, aunque esta poderosa técnica también tiene aplicaciones en agricultura, ganadería y
microbiología. (Actualmente también se le llama Huella genética a variaciones de la técnica de
PCR en la que no se utilizan enzimas de restricción sino fragmentos amplificados de ADN.)
El ADN basura
El mal llamado ADN basura corresponde a secuencias del genoma procedentes de duplicaciones,
translocaciones y recombinaciones de virus, etc, que parecen no tener utilidad alguna. No deben
confundirse con los intrones. Corresponde a más del 90% de nuestro genoma, que cuenta con
30.000 ó 40.000 genes.
Genes
Un gen es una secuencia lineal de nucleótidos de ADN o ARN que es esencial para una función
específica, bien sea en el desarrollo o en el mantenimiento de una función fisiológica normal. Es
considerado como la unidad de almacenamiento de información y unidad de herencia al transmitir
esa información a la descendencia. La realización de esta función no requiere de la traducción del
gen ni tan siquiera su transcripción. Los genes están localizados en los cromosomas en el núcleo
celular y se disponen en línea a lo largo de cada uno de los cromosomas. Cada gen ocupa en el
cromosoma una posición determinada llamada locus. El conjunto de genes de una especie se
denomina genoma.
Algunas enfermedades como la anemia de células falciformes pueden ser ocasionadas por un
cambio en un solo gen (uno de los 30.000 genes que constituyen el plan para todo el cuerpo
humano).
Los genes están dispuestos en orden a lo largo de la cadena de ADN en el cromosoma, de manera
similar a una sarta de cuentas. En la mayoría de los casos, existen genes apareados de cada
padre en los cromosomas apareados y en las posiciones apareadas a lo largo de la cadena de
ADN dentro del cromosoma. Estos genes aparecen en pares que corresponden a uno de la madre
y uno del padre.
Los genes pueden ser dominantes o recesivos. Los rasgos genéticos dominantes son aquellos que
se presentan cuando un gen del par de genes puede controlar el rasgo para el cual ese par de
genes codifica. Mientras que los rasgos genéticos recesivos precisan que ambos genes del par
trabajen en conjunto para controlar el rasgo.
Tipos de genes
Genes estructurales, que codifican proteínas, que podrían ser reguladoras de genes, o codifican
ARN específicos que sólo se transcriben. Muchos genes se encuentran constituidos por regiones
codificantes (exones) interrumpidas por regiones no codificantes (intrones) que son eliminadas en
la formación del ARN. La secuencia de bases presente en el ARN determina la secuencia de
aminoácidos de la proteína por medio del código genético.
Genes de recombinación que proporcionan los sitios de unión para las enzimas de recombinación.
Genes de segregación que son los sitios específicos para que las fibras del huso mitótico durante
la meiosis se adhieran a los cromosomas durante la segregación en mitosis y meiosis.
Genes de secuencias del ADN que reconocen e interactúan con proteínas, hormonas y otras
moléculas.
Al examinar con el microscopio una célula en división indirecta, y perfectamente teñida con uno de
los colorantes habituales, pueden verse en el interior del núcleo unos cuerpos muy teñidos, que se
llaman cromosomas.
Estructura: Cada cromosoma está formado por dos brazos articulados entre sí a nivel de una
esferita llamada centrómero. Según la disposición y la longitud de los brazos, se reconocen tres
tipos de cromosomas:
Función: Los cromosomas rigen fenómenos de variación, mutación, herencia y evolución de los
seres vivos.
Cuando las gametas masculina y femenina se unen, se forma una célula huevo que contienen la
información genética proveniente de las dos gametas. Entonces, esta célula tiene el número de
cromosomas completo y por eso es diploide, con la información necesaria para formar un nuevo
ser.
Todas las células que se originan a partir de la célula huevo también tienen dos juegos de
cromosomas para el mismo tipo de información genética. Los cromosomas de un mismo tipo se
llaman cromosomas homólogos.
Homocigoto - Heterocigoto
El gen para un carácter, por ejemplo el color de ojos, puede presentarse en dos formas o más (ojos
azules, verdes, marrones). A cada una de las formas se la llama alelo.
• Si los dos alelos (uno en cada cromosoma) son iguales, se dice que el individuo es
homocigota para ese carácter.
• Cuando los dos alelos son distintos, se dice que el individuo es heterocigota para ese
carácter.
Se denominan caracteres alelos o alelomorfos a dos rasgos que contrastan y que por lo tanto no
pueden heredarse en forma conjunta.
Leyes de Mendel
Si se cruzan dos razas puras para un determinado carácter, los descendientes de la primera
generación son todos iguales entre sí y, a su vez, iguales a uno de sus progenitores, que es el
poseedor del alelo dominante. Mendel elaboró este principio al observar que si cruzaba dos razas
puras de plantas del guisante, una de semillas amarillas y otra de semillas verdes, la descendencia
que obtenía, a la que él denominaba F1, consistía únicamente en plantas que producían semillas
de color amarillo. Estas plantas debían tener, en el gen que determina el color de la semilla, los dos
alelos que habían heredado de sus progenitores, un alelo para el color verde y otro para el color
amarillo; pero, por alguna razón, sólo se manifestaba este último, por lo que se lo denominó alelo
dominante, mientras que al primero se le llamó alelo recesivo.
Los alelos recesivos que, al cruzar dos razas puras, no se manifiestan en la primera generación
(denominada F1), reaparecen en la segunda generacion (denominada F2) resultante de cruzar los
individuos de la primera. Ademas la proporción en la que aparecen es de 1 a 3 respecto a los
alelos dominantes. Mendel cruzó entre sí los guisantes de semillas amarillas obtenidos en la
primera generación del experimento anterior. Cuando clasificó la descendencia resultante, observó
que aproximadamente tres cuartas partes tenían semillas de color amarillo y la cuarta parte
restante tenía
las semillas de color verde. Es decir, que el carácter « semilla de color verde », que no había
aparecido en ninguna planta de la primera generación, sí que aparecía en la segunda aunque en
menor proporcion que el carácter « semilla de color amarillo
Los caracteres que se heredan son independientes entre si y se combinan al azar al pasar a la
descendencia, manifestandose en la segunda generacion filial o F2. En este caso, Mendel
selecciono para el cruzamiento plantas que diferian en dos caracteristicas, por ejemplo, el color de
los guisantes (verdes o amarillos) y su superficie (lisa o arrugada). Observo que la primera
generaci6n estaba compuesta unicamente por plantas con guisantes amarillos y lisos,
cumpliendose la primera ley. En la segunda generaci6n, sin embargo, aparecian todas las posibles
combinaciones de caracteres, aunque en las proporciones siguientes: 1/16 parte de guisantes
verdes y rugosos, 3/16 de verdes y lisos, 3/16 de amarilios y rugosos y por ultimo 9/16 de amarillos
y lisos. Esto le indujo a pensar que los genes eran estructuras independientes unas de otras y, por
lo tanto, que unicamente dependia del azar la combinaci6n de los mismos que pudiese aparecer en
la descendencia.
A principios de este siglo, cuando las tecnicas para el estudio de la celula ya estaban
suficientemente desarrolladas, se pudo determinar que los genes estaban formados por acido
desoxirribonucleico
(ADN) y ademas se encontraban dentro de unas estructuras que aparecian en el citoplasma justo
antes de cada proceso de divisi6n celular. A estas estructuras se las denomin6 cromosomas,
termino que
significa « cuerpos coloreados », por la intensidad con la que fijaban determinados colorantes al
ser teñidos para poder observarlos al microscopio. Ademas se vio que estos aparecian repetidos
en la
los casos en los que no se cumplian con exactitud las leyes de Mendel anteriormente citadas.
tienen un ciclo vital muy corto, producen una gran descendencia, son faciles de cultivar, tienen tan
s6lo cuatro cromosomas y presentan caracteristicas hereditarias facilmente observables, como el
color de
La investigacion con las moscas del vinagre proporcionó a Morgan evidencias de que los
caracteres no eran heredados siempre de forma independiente tal y como habia postulado Mendel
en su tercera ley. Supuso que al haber solo cuatro cromosomas diferentes, muchos genes debian
estar «ligados», es decir, debian compartir el mismo cromosoma y por ello mostrar una Clara
tendencia a transmitirse juntos a la descendencia. No obstante, las conclusiones realizadas por
Mendel años atras, no dejaban de ser correctas para los genes «no ligados». Solo la casualidad
hizo que Mendel escogiese para los cruces de sus plantas caracteristicas determinadas por genes
situados en cromosomas distintos.
En uno de sus primeros experimentos, Morgan cruzó un macho de moscas de ojos rojos
(normales) con una hembra que habia encontrado casualmente y que tenia los ojos blancos. Las
moscas que obtuvo en esta primera generacion o F1 tenian todas los ojos rojos, tal y como se
describe en la primera ley de Mendel. Pero cuan-
do cruzó entre si estas moscas para obtener la segunda generación filial o F2, descubrió que los
ojos blancos solo aparecian en las moscas macho y ademas como un caracter recesivo. Por
alguna razón, la caracteristica «ojos blancos» no era transmitida a las moscas hembras,
incumpliendo, al menos parcialmente, la segunda ley de Mendel. Al mismo tiempo, en sus
observaciones al microscopio, Morgan habia advertido con extrañeza
que entre los cuatro pares de cromosomas de los machos, habia una pareja en la que los
cromosomas homólogos no tenian exactamente la misma forma. Era como si a uno de ellos le
faltase un trozo, por lo que a partir de ese momento a esta pareja se la denomin6 cromosomas XY.
Sin embargo en la hembra, la misma pareja de cromosomas homólogos no presentaba ninguna
diferencia entre ellos, por lo que se la denominó cromosomas XX. Morgan pensó que los
resultados anómalos del cruzamiento anterior se debian a que el gen que determinaba el color de
los ojos se encontraba en la porción que faltaba en el cromosoma Y del macho.
Por tanto, en el caso de las hembras (xx) al existir dos alelos, aunque uno de ellos fuese el
recesivo (ojos blancos), el carácter manifestado era el normal (ojos rojos). En los machos, sin
embargo, al disponer Únicamente de un alelo (el de su único cromosoma X), el carácter recesivo si
que podia ser observado. De esta manera quedaba tambien establecido que el sexo se heredaba
como un carácter más del organismo.
Bioquímica
Bioquímica es el estudio químico de los seres vivos, especialmente de la estructura y función de
sus componentes químicos específicos, como son las proteínas, carbohidratos, lípidos y ácidos
nucléicos, además de otras pequeñas moléculas presentes en las células.
La Investigación en Bioquímica
El comienzo de la bioquímica puede muy bien haber sido el descubrimiento de la primera enzima,
la diastasa, en 1833 por Anselme Payen. En 1828, Friedrich Wöhler publicó un artículo acerca de la
síntesis de urea, probando que los compuestos orgánicos pueden ser creados artificialmente, en
contraste con la creencia, comúnmente aceptada durante mucho tiempo; de que la generación de
estos compuestos era posible sólo en el interior de los seres vivos. Desde entonces, la bioquímica
ha avanzado, especialmente desde la mitad del siglo XX con el desarrollo de nuevas técnicas
como la cromatografía, la difracción de rayos X, marcaje por isótopos, y el microscopio electrónico.
Estas técnicas abrieron el camino para el análisis detallado y el descubrimiento de muchas
moléculas y rutas metabólicas de las células, como la glicólisis y el ciclo de Krebs.
Hoy en día los avances de la bioquímica son usados en cientos de áreas, desde la genética hasta
la biología molecular, de la agricultura a la medicina. Probablemente una de las primeras
aplicaciones de la bioquímica fue la producción de pan usando levaduras, hace 5000 años.
El pilar fundamental de la investigación bioquímica se centra en las propiedades de las proteinas,
muchas de las cuales son enzimas. Por razones históricas la bioquímica del metabolismo de la
célula ha sido intensamente investigado, importantes líneas de investigación actuales incluyen el
código genético (ADN, ARN, síntesis de proteínas, dinámica de la membrana celular y ciclos
energéticos).
Categorías
La bioquímica está conformada por la química de sustancias que pueden ser catalogadas
fundamentalmente en estos epígrafes:
Bioquímica Celular (o Biología Celular): Es una área de la Biología, dónde prima el estudio de la
célula, es decir, el comportamiento interno, como por ejemplo, los organelos y las señales de
comunicación intracelular, y su comportamiento externo, como señales extracelulares y
intercelulares (a otras células), así como también su entorno (Matriz Extracelular (MEC o en Inglés
ECM)), el cual juega un papel muy importante en su funcionamiento y comportamiento.
Son los elementos químicos que forman parte de la materia viva. Son todos los del sistema
periódico salvo los gases nobles y tierras raras.
Se clasifican en 3 grupos
• PRIMARIOS: son los más abundantes, en conjuntos representan >96% y son [C, H, O, N,
P, S]. Todos ellos son elementos electronegativos, pueden compartir electrones (ENLACES
COVALENTES). De todos, el más importante es el C (puede formar cadenas carbonadas.)
• SECUNDARIOS: (<4%). INDISPENSABLES; aquellos que están en todos los sv. [Ca, Na,
Mg, K, Cl, Fe, Si, Cu, Mn, Br, F, I]...VARIABLES; no están en todos los sv [Al, Br, Zn, Ti, V,
Pb]
• OLIGOELEMENTOS: (<0,1 %), Ejemplo. Co; Cianocobalamina, vitamina b12,
imprescindible para fabricar hemoglobina.
2. BIOMOLÉCULAS
Hay de dos tipos: A - INORGÁNICAS: son comunes para los sv y para los seres inertes: gases
respiratorios, agua y sales minerales.
B - ORGÁNICAS: son exclusivos de los sv. Glúcidos, lípidos, proteínas, biocatalizadores y ácidos
nucleicos.
Son el O2 y el CO2. En la mayor parte de los animales, los líquidos circulatorios transportan O2y
CO2, pero estos gases son pocos solubles en agua (son apolares y el agua es polar), entonces
son transportados. Unidos a sustancias transportadoras (pigmentos respiratorios)(HEMOGLOBINA,
pigmento rojo que tiene Fe y existe en los vertebrados. Hemoglobina + O2 = OXIHEMOGLOBINA,
está presente en la sangre oxigenada. Transporta el O2 desde los centros respiratorios hasta cada
una de las células. Si, HEMOGLOBINA + CO2 = CARBOXIHEMOGLOBINA, y forma la sangre no
oxigenada, y transporta el CO2 desde las células hasta los centros respiratorios.)
En algunos animales el líquido circulatorio no transporta gases (insectos), éstos animales tienen un
sistema de tráqueas que llevan O2 directamente a cada una de las células. En los vegetales los
gases respiratorios nunca son transportados por la SAVIA.
Masa molecular
Es líquida a Tª ambiente, H2O; H y O enlaces covalentes, y los electrones que se comparten están
más cerca del O que del H (O-, H+). La molécula de agua se comporta como un dipolo. Entre los
distintos dipolos de agua se establecen unos enlaces “débiles”, llamados puentes de hidrógeno,
éstos enlaces dificultan el libro movimiento de las moléculas de agua, que por tanto deja de ser un
gas y se comporta como un líquido.
PUENTE DE HIDR”GENO. Son enlaces débiles, establecidos entre el H electropositivo y cualquier
grupo electronegativo.
•
IONIZA las sustancias disueltas en ella (polares)
• Tiene un elevado calor específico(cantidad de calor que hay que suministrar a la sustancia
para elevar su Tª.
• Tiene elevado calor de vaporización.
• El agua es un líquido incompresible.
• El agua es la única sustancia que al disminuir la Tª, su volumen aumenta, por tanto, la
densidad del hielo es inferior a la del agua líquida.
5. sales minerales.
I DIFUSI”N, reparto equitativo de las moléculas de soluto entre los de disolvente, son homogéneas.
II ”SMOSIS, El paso de disolvente, a través de una membrana semipermeable, desde una
disolución hipotónica, hacia otra hipertónica, hasta alcanzar el equilibrio osmótico (disoluciones
isotónicas). Una disolución es hipotónica con respecto a otra que será hipertónica, cuando la 1ª
tiene una concentración inferior a la 2ª. Cuando las 2 disoluciones tienen la misma concentración,
son isotónicas. La osmosis es muy importante en los sv, porque la mayor parte de las membranas
biológicas, son semi impermeables.[hipo-, hiper+]
III ACIDEZ - ALCALINIDAD (pH), Una disolución es ácida cuando es capaz de ceder protones. Una
disolución es básica cuando es capaz de captar protones.
Para medir el grado de acidez-alcalinidad, hay una escala logarítmica, llamada “escala del pH”
(pH>7 alcalina; pH<7 ácida; pH =7 neutra)
El organismo necesita trabajar dentro de unos límites del pH, “pH fisiológico.” Para mantener el pH
dentro de los límites del pH fisiológico, hay unas sustancias llamadas DISOLUCIONES TAMP”N,
cada disolución tampón consta de una pareja de componentes.
CARACTERÍSTICAS GENERALES
Son glúcidos no hidrolizables [(HIDR”LISIS: rotura química de una molécula en otras más
pequeñas por la acción del agua)]
¿Polihidroxicetonas? Muchos OH más grupo cetona. En cada C tiene un OH excepto en uno, que
se llama carbono carbonilo, y ahí hay un grupo cetona.
• 2 compuestos son isómeros cuando tienen la misma fórmula empírica pero distinta fórmula
desarrollada. •
Las osas (aldosas y cetosas) del mismo número de átomos de C son compuestos isómeros.
TRIOSAS
•ALDOTRIOSAS •CETOTRIOSAS
GLICERALDEHIDO DIHIDROXIACETONA
C3H6O3 C3H6O3
• De forma D: aquel isómero que tiene el OH del C asimétrico, más alejado del principio a la
derecha
• De forma L: aquel isómero que tiene el OH del C asimétrico más alejado del principio, a la
izquierda.
PENTOSAS
•ALDOPENTOSAS •CETOPENTOSAS
RIBOSA RIBULOSA
La D-RIBOSA es un componente
del ARN.
HEXOSAS
•ALDOHEXOSAS
GALACTOSA
GLUCOSA MANOSA
•CETOHEXOSAS
FRUCTOSA
6.2 disacáridos
6.3 polisacáridos
Glúcidos hidrolizables (ósidos), formados sólo por monosacáridos, en concreto por muchos a
través de enlaces O-glucosídicos.
TIPOS: • Polimetizado (repetidos sucesivamente) en forma
Son fáciles de hidrolizar ya que los sv poseemos enzimas para romper los enlaces O- glucosídicos.
Todo polisacárido polimerizado en forma tiene una función energética.
EJEMPLOS:
Celulosa polímero de -D-glucosa, = estructura, forma parte de todas las paredes celulares de
todas las células vegetales. La enzima que hidroliza la celulosa se llama CELULASA y es muy rara
en los sv. Únicamente la poseen algunos protozoos.