Está en la página 1de 31

TP 1: Introducción a la metrología

Fundamentos:

En el proceso de medición intervendrán tres elementos: el objeto a medir (monedas $1 y $ 0,05), el


instrumento y el operador. El resultado de esa interacción será el valor de la magnitud o propiedad que
queremos obtener. Las medidas cuyo resultado surge de la simple interacción con un instrumento se
denominan directas. En este caso nuestras medidas directas son: el DIAMETRO y el ESPESOR del objeto.
Aquellas cuyo resultado surge de una operación matemática a partir de una o varias medidas directas se
denominan indirectas, en nuestro TP lo es el VOLUMEN.

Tomando como supuesto la existencia de cierta magnitud fija y definida de un ente (ej.: su longitud,
volumen, etc.) se intenta alcanzar su valor verdadero en la medición. El valor que se obtiene será una
estimación del valor verdadero ya que toda medición conlleva una carga de incertidumbre (a causa de
errores e imprecisiones evitables o no). La diferencia entre el valor medido y el valor verdadero se llama
error absoluto. Como el valor verdadero nunca se alcanza, tampoco el error absoluto, aunque este
último también es estimable.

El valor de la incertidumbre es un índice de la calidad de la medida. A menor incertidumbre mayor


calidad.

Para medidas únicas, se utilizan como indicadores de calidad los estimadores del error absoluto (Δx).
Estos indicadores se pueden expresar también como relativos al valor de la magnitud, de manera de
poder comparar la calidad de medidas con distinto valor. Este parámetro se conoce como error relativo
(Δx/x) y nos da idea del impacto de Δx sobre la propia medida x y expresa el error por unidad de
medida. Este error depende tanto del valor del mensurando como de la apreciación del instrumento
utilizado.

En medidas directas el error absoluto se estima mediante la sensibilidad, franja de indeterminación o


error de apreciación del instrumento de medida.
La apreciación o aproximación es la mínima cantidad de magnitud que es capaz de asignar un
instrumento de medida.
La sensibilidad es la mínima cantidad de magnitud que puede diferenciar un sistema de medida. A mayor
sensibilidad, menor será el error de apreciación.

En medidas indirectas el error absoluto se estima mediante la aplicación de la “teoría de propagación del
error”.

Durante nuestra experiencia obtendremos las medidas mencionadas con diferentes instrumentos (regla,
calibre y palmer) para evaluar sus errores relativos y absolutos, por si mismos (m. directas) o al cruzar
sus datos (indirectas). Tenemos que considerar que las monedas no son un cilindro, por lo tanto las
mismas presentan relieves que modifican la lectura dependiendo del instrumento y el operador.

Discusión:

En la medida directa de espesores el uso de la regla se torna inconveniente ya que tiene una sensibilidad
muy parecida a la magnitud que se desea medir y por lo tanto presenta errores relativos de hasta 50 y
100%. Aquí el calibre (4,94% 8,56% de Er) y el palmer (1,21% 1,94% de Er) son mucho mas convenientes,
siéndolo algo mas el palmer.
Al medir los diámetros, magnitud más grande que los espesores, la regla se torna más útil (4,35% y
5,88% de Er), y son óptimos el calibre y el palmer (menos de 1% de Er). Pese a esto como un error
aleatorio se presenta el hecho de que al medir el diámetro de la moneda se pueda no hacerlo
correctamente debido a la circularidad de esta (que la regla no pase por el centro de la moneda o que
no se la mida en 2 puntos distanciados al máximo para el palmer).

En el calibre y el palmer leímos el 0, por lo que el error absoluto es el doble del error de apreciación; al
contrario de la regla en la cual podíamos acomodar el 0 y evitar este inconveniente.

En el cálculo de la medida indirecta, el volumen, los errores relativos aumentan en comparación al de las
medidas de longitud. La regla tiene un Er de más del 100%.
Al combinar resultados de instrumentos se nota que el uso del palmer como resultado para el espesor es
lo más conveniente. Esta importancia de la medida del espesor se debe a que en la ecuación de
propagación del Er tiene factor de propagación igual a 1 y es de magnitud más pequeña que el diámetro.

Se tuvo en cuenta la inexactitud de considerar a la moneda como un cilindro perfecto, pero frente a los
fines de las mediciones se concluyó que no tiene importancia.

TP2: Calibraciones
1.- CALIBRACIÓN DE UN TENSIÓMETRO DE LECOMTE DU NOÜY

Fundamentos:

El tensiómetro de Lecomte du Noüy es una balanza de torsión. Este instrumento mide fuerzas a través
de un sistema que relaciona proporcionalmente la torsión de un alambre con la posición de un vernier
sobre una escala circular. La torsión del alambre depende del la elasticidad de este y otras características
del instrumento.

Al calibrar el tensiómetro se intentan principalmente dos cosas:

-Por un lado establecer la escala en el punto cero para la torsión del alambre a en la cual se considera
que no actúa ninguna fuerza a medir. A partir de allí se va a reflejar en la escala desde el cero la torsión
de que produzca solo el peso agregado. Esto se realiza manualmente.

-Por otro lado definir la relación cuantitativa entre la escala circular (cada división) y el grado de torsión
del alambre (el cual depende del peso que se le agregue al brazo móvil). Para esto primero se realiza
cierta cantidad de mediciones, con algún material de referencia cuya masa es conocida, hasta que se
cubra toda la escala circular. Luego se comparan las divisiones con las fuerzas. Para obtener una
expresión formal de la respuesta del instrumento puede realizarse un grafico (relacionando fuerzas y
divisiones). Este demostrará si los resultados son proporcionales en todo el rango medido. De allí se
sabrá hasta que punto es confiable el tensiómetro.

Discusión:

Al realizar dicha experiencia nos surgen varias incógnitas que se plantean para poder comprender
nuestro trabajo. ¿Porque se utilizan diferentes pesas? ¿Para que realizamos la curva? ¿Con que fin se
calcula el R2? Tratamos de comprender dichos interrogantes elaborando entre nosotros la razón y
cuestión de los mismos.

El utilizar diferentes pesas nos permite determinar un rango definido en el tensiómetro y al unirlas
obtener un mayor alcance en la escala (más allá de que el error relativo aumenta es de gran utilidad) de
forma de conseguir los datos necesarios para evaluar la veracidad de las lecturas del equipo.

El fin por el cual generamos la curva y R2 es estar consciente del desvío de nuestro equipo, dándonos así
la posibilidad de subsanar el error de lecturas posteriores, cuanto más cercano a uno sea el R2 menor
será nuestro desvío en la lectura. Cabe tener en cuentan que al realizar la ecuación de la recta nos
provee un dato de cuanto tendría que ser el valor experimental en un cierto punto del equipo y los
límites que presenta el mismo.

Muchos más interrogantes van a surgir en nuestro análisis para el cual tenemos que entender 100% que
el fin de realizar calibraciones es poder evaluar la veracidad de nuestros datos para poder estar
consciente de nuestras limitaciones y desplazamientos en la técnica.

2.- CALIBRACIÓN DE UN TERMÓMETRO

Fundamentos:

El fin de la calibración del termómetro es verificar el valor en º (ºC en el termómetro del tp) de las
divisiones y analizar el posible corrimiento de la escala respecto del cero.
Esto se consigue a partir de la medición, con el termómetro a calibrar, de un material de referencia que
bien puede ser agua. Luego cuantitativamente se calcula la relación entre datos teóricos y prácticos. Para
eso se utiliza una razón denominada α:

Donde te y tf son las temperaturas teóricas a cierta presión, y t100 y t0 son las lecturas en el
termómetro en el cambio de estado liquido-gaseoso y solido-liquido respectivamente. Las unidades de α
son: ºC/divisiones.
El valor de tf no varía considerablemente con la variación normal de la presión atmosférica. Si lo hace el
valor de te que se puede calcular a partir de:

Esta ecuación se desprende de un razonamiento basado en el análisis termodinámico del cambio de


estado y más concretamente, de la ecuación de Clausius-Clapeyron.

A partir de α y de la comparación entre el cero teórico y el medido se alcanzan los fines de la


calibración.

Discusión:

En el transcurso de la experiencia existían corrientes de aires que pudieron haber afectado la precisión
de las mediciones. Para evitar esto se intentó rodear al termómetro con un cuaderno, rústico proceder.
Las desviaciones del termómetro pueden deberse a un error geométrico dado por la dilatación del vidrio
a lo largo del tiempo.

TP3: Estadística
1.- ERROR CASUAL

Fundamentos:

El objetivo del tp consiste es evidenciar el error casual y evaluarlo a nivel cuantitativo con el fin de
poder relacionarlo con la complejidad del método. Este tipo de error es inherente a cualquier medición,
si bien puede tratar de reducirse el operador no puede eliminarlo por completo.

En el tp se realizaran 3 mediciones con diferente complejidad, se medirá 20 veces un picnómetro,


recipiente de vidrio que posee un tapón esmerilado que está atravesado con un capilar que conecta al
exterior para permitir el enrase, con el cual dependiendo del operador y la forma de trabajar podemos
evidenciar fácilmente el error casual.El mismo se evaluara: vacío, lleno con agua (manteniendo su
contenido constante) y lleno con agua (vaciando su contenido parcialmente entre medición-medición)

Si repetimos la operación de pesar el picnómetro obtendremos distintos valores de masa, la distribución


de los valores de masa nos dará una idea del comportamiento del error casual ya que suponemos que el
mensurando y el error sistemático conservaran su valor en cada medición, entonces las diferencias en las
medidas serán producto del error casual

De esta forma podremos calcular el desvío estándar, ya que el error casual es la causa de la dispersión de
los datos. Al agregar más complejidad al método se suman fuentes de error haciendo que los datos
estén más dispersos.

Una vez obtenido los diferentes datos calcularemos la media a través de la siguiente formula:

También tenemos que tener en cuenta el SD de cada serie que se calcula mediante:

Al obtener el desvió estándar (SD) correspondiente, se utilizara para tener una mayor probabilidad en la
obtención de nuestra determinación dentro del rango obtimo,El doble del SD dando como resultado un
95,5% de probabilidad de encontrar el resultado en este intervalo de la campana de Gauss ,en lugar de
SD el cual nos arrogaría solo un 68,3% de probabilidad.
Discusión:

Los valores promedio entre las determinaciones con el picnómetro vacío y lleno manteniendo constante
el contenido presentaron muy poca fluctuación en sus datos respectivamente. Mientras cuando se
modificó el contenido del picnómetro la variación fue más notoria .Al evaluar los promedios entre el
picnómetro lleno constante y vaciando parcialmente obtenemos un promedio similar 42,214 y 42,206
respectivamente. Pero al evaluar su SD vemos que la determinación vaciando el picnómetro presenta un
desvío mucho mayor 0,0006 y 0,02.Esto nos permite ver que al aumentar la complejidad del método,
aumenta el error casual haciéndose más evidente la dispersión de datos. Siendo independiente del
trabajo del operador dicha variación. Tenemos que tener presente que el error casual es inevitable pero
se puede reducir tomando ciertas precauciones a la hora de trabajar.

2.- ANALISIS DE EXACTITUD DE UN METODO

Fundamentos:

La exactitud es una propiedad que se cumple cuando la metodología es a la vez veraz y precisa.

● Veracidad: Un método es veraz cuando hay un grado de concordancia entre el promedio de una
serie de mediciones y el valor del mesurando.

● Precisión: Es el grado de concordancia entre resultado sucesivos de mediciones del mismo


mensurando.

En la experiencia se evaluara la exactitud en la medición de un volumen de 5 ml con una pipeta, donde


luego se evaluara la exactitud del método utilizando los test de student “t” para evaluar veracidad y el
chi para evaluar precisión.

Se calculará un estadístico “t” para nuestra serie de datos y se lo comparará con un valor teórico “t”
obtenido de tablas para los grados de libertad (N-1) y el nivel de confianza que se establezca.
Para determinar la precisión del método el test a utilizar es el chi , (ya que la precisión está
estrechamente relacionada con el desvío estándar), se utilizara el cuadrado de la mínima división de la
pipeta como condición limite así pondremos como demarcación para el S la sensibilidad del instrumento.

Discusión:
Considerando a partir de los cálculos de diferencia de masa, este error sistemático en la medición puede
estar ligado al operador, al error de paralaje al enrasar o la balanza. Si la causa del error esta en los dos
primeros ítem se pone en evidencia que le error corresponde al método en análisis. En cambio sí está
ligado al 3° ítem el error es externo al método. Antes de afirmar estas suposiciones hay que evaluar el
funcionamiento de la balanza, dado que es el único factor externo que tenemos presente.

TP4: Densidad
Fundamentos:

La densidad (δ) es una magnitud física referida a la cantidad de masa contenida en un determinado
volumen.
La densidad relativa (Dr) o aparente expresa la relación entre densidades absolutas de una sustancia x
(δx) y de una sustancia patrón (δp) o de referencia, resultando una magnitud sin unidades. Como
densidad patrón suele utilizarse la densidad del agua.

Medición de la masa de un volumen conocido de muestra:


Se basa en medir un volumen de muestra en un material volumétrico y compararlo con su masa,
aplicando:
𝑚
δ= 𝑣

Siendo:

m: masa del líquido


v: volumen del líquido

● Picnometría:
La picnometría es un es un método que permite determinar la densidad de una muestra respecto a un
material de referencia. Esto se logra comparando la masa de un volumen de muestra con la masa del
mismo volumen de material de referencia.
El picnómetro es un recipiente con tapa y posee un diseño especial, de forma tal que permite cargar un
cierto volumen de muestra con gran precisión.
Cuando se mide una Dr, para que Vx=Vp puedan ser considerados iguales, se utiliza el mismo picnómetro
y se pueden simplificar los volúmenes.

● Densidad relativa de líquidos:


Se utiliza como material de referencia agua, utilizando la siguiente ecuación:

Mx= masa de la muestra contenida en el picnómetro


Pv+x= peso del picnómetro lleno con la muestra
Pv= peso del picnómetro vacio
● Densidad relativa de sólidos:
Se utiliza el mismo fundamento, se compara la masa de iguales volúmenes de solido insoluble en el
patrón y del patrón:

Mx= masa del solido x insoluble en agua


MVa=Vx=masa de agua que ocupa igual volumen que mx
Pv+x= Peso del picnómetro lleno con agua
● AREOMETRÍA:
Densímetro:
El densímetro es un flotador de vidrio que posee un bulbo central y en la parte superior un tubo
cilíndrico delgado (vástago) que posee la escala graduada.
Para poder medir es imprescindible que el densímetro flote parcialmente sumergido y que la escala esté
sumergida en la interfase aire – agua. La medición es directa, se lee la graduación que coincide con el
enrase del líquido.

Cuando el areómetro flota, significa que se ha llegado al equilibrio, el empuje es igual al peso del
areómetro, sabiendo el principio de Arquímedes:
Conclusión:

Masa de un volumen conocido de muestra:

● Muy práctico y rápido, pero produce error sistemático causado por el material volumétrico.

● A menor volumen medido, mayor error. Debe medirse un volumen lo más grande posible para
disminuir el error.

Aerometría y Urodensímetro:

● La densidad de la solución a medir debe estar dentro de la escala del densímetro. Si es mayor
dicha densidad, debe hacerse una dilución, lo que aumentaría el error y no sería práctico,
debido a la cantidad de cuentas necesarias para realizar dicha dilución.

● No es posible medir densidades de muestras sólidas.

● Se necesita un gran volumen de muestra para que el densímetro flote dentro del recipiente
donde se lo coloca

Picnometría:

● Es poco práctico debido a que deben hacerse reiteradas mediciones de masas y muchas cuentas
para poder calcular la densidad.

● Debe trabajarse cuidadosamente con el picnómetro ya que es de vidrio y si llegara a romperse


debe realizarse nuevamente todo el procedimiento, ya que no es un material volumétrico, sino
que posee muy poca variación de volumen de una carga a la otra por su enrase.

● Requiere poca cantidad de muestra con respecto a los otros métodos

● Aunque presenta diversas fuentes de error casual (llenar, secar, enrasar, verificar que no haya
burbujas, etc.); si se tiene cuidado se puede disminuir el error casual. Aun así es el método que
presenta el menor error en comparación al otro método.

Concluyendo, si la muestra es un sólido, o se desea ahorrar muestra, puede medirse por picnometría.

Si es un líquido y su densidad se encuentra dentro de la escala de los densímetros, es más práctico


medirla con dichos densímetros, sino se encuentra dentro de dicha escala, puede usarse picnometría o
el método del peso de un volumen de muestra conocido, dependiendo de la precisión con que quiera
medirse dicha densidad y el tiempo con el que se cuente.

TP5: Tensión Superficial


1.- TENSIOMETRO
Fundamentos:

Para calcular el coeficiente de tensión superficial de una interfase líquido-aire, el método de


Tensiometría mide la fuerza externa necesaria para despegar el anillo de un tensiómetro de la superficie
libre del líquido sobre la cual se encuentra apoyado. Esta fuerza externa se opone a la fuerza que hace la
interfase, la cual se manifiesta en todo el perímetro del anillo. En el instante en el que el anillo se
desprende de la superficie libre del líquido, los módulos de ambas fuerzas pueden considerarse de igual
magnitud. Por lo tanto, al medir la fuerza externa necesaria para desprender el anillo, se determina de
hecho la fuerza de tensión superficial que se le opone. A partir del valor de esta última y conociendo las
dimensiones del anillo, se puede calcular el coeficiente de tensión superficial del líquido en estudio.

Fext =γ * ( π * De +π * Di ) * cos β

En el instante justo anterior a que se desprenda el anillo se cumple que β = 0, resultando:

Fext =γ * ( π * De +π * Di )
Fext = Fγ

SI EL ANILLO PRESENTA UN ESPESOR DESPRECIABLE SE PUEDE CONSIDERAR De=Di,


despejando la Y obtenemos el Coe en estudio
Conclusión:

El tensiómetro de Lecompte Du Noüy resulta poco práctico debido a la calibración que debe
realizarse previamente a su utilización; sin embargo la determinación en sí es rápida. Por lo tanto, con
este método se obtienen coeficientes absolutos y no se necesitan soluciones de referencia, como lo
requiere el estalagmómetro.

2-ESTALAGMOMETRIA
Fundamentos:

El método de Estalagmometría se basa en la comparación de la masa de una gota escurrida de un líquido


en estudio de γ desconocido con la masa de una gota escurrida de un líquido de referencia de γ
conocido, utilizando en ambos caso, para formar las gotas, el mismo estalagmómetro.
Se puede suponer que el tamaño máximo de una gota que puede quedar sostenida es tal que el peso de
la misma iguale a la fuerza de tensión superficial que actúa en la circunferencia del estrechamiento. En el
instante en que el peso vence a la fuerza de tensión, la gota se desprende. Por lo tanto P = Fγ de modo
que:

m *g = γ * 2 * π

Siendo:
m : masa de la gota
g : aceleración de la gravedad
r : radio del estrechamiento
γ : coeficiente de tensión superficial

Existe una relación directamente proporcional entre el coeficiente de tensión superficial de un líquido
(representado por la Fγ) y la masa de una gota (representada por la fuerza peso):

m/mP = γ/γP

Siendo:
m : masa de una gota del líquido en estudio
mp : masa de una gota del líquido de referencia
γ : coeficiente de tensión superficial del líquido en estudio
γp : coeficiente de tensión superficial del líquido de referencia
m=M/N

Siendo
M : masa de N gotas del líquido en estudio
N : número de gotas del líquido en estudio

Discusión:

Aunque no se pueda medir directamente el γ, el método con estalagmómetro es práctico y


rápido, ya que no necesita muchos pasos ni mucha preparación previa.

Conclusión:
En este método si no se tiene precaución presenta varias fuentes de error casual:
contaminación de las soluciones; que las gotas no salpiquen hacia fuera o evaporen; caída precoz de
gotas por perturbación del dispositivo y manejo de la balanza Mettler. El error se puede estimar
calculando la desviación producida por el instrumento, respectivamente.

Por la practicidad del procedimiento y por el costo de los materiales necesarios con respecto al
otro método, podemos decir que la estalagmometría es un método recomendable para el cálculo del
coeficiente de tensión superficial. Todo eso no quita que se puede usar cualquiera de los dos métodos si
el operador así lo desea y tiene en cuenta los errores y las variaciones de cada método.

TP6: Viscosidad
Fundamentos generales:

La viscosidad es la resistencia a fluir y es una propiedad tanto de líquidos como de gases. El estudio de
los fluidos en movimiento es complejo y en él, la viscosidad juega siempre un papel fundamental. El
grado de fluidez de una sustancia se caracteriza por un coeficiente típico denominado coeficiente de
viscosidad o viscosidad dinámica . Cuanto mayor sea ese coeficiente menor será la fluidez.
Los fluidos para los cuales η es constante se denominan NEWTONIANOS, al grafica la tensión de corte en
función del gradiente de viscosidad obtenemos una recta cuya pendiente es el coeficiente de viscosidad
(Figura “A”). También existen fluidos que no cumplen η constante, denominados NO NEWTONIANOS,
donde su velocidad varía con el gradiente de velocidad (Figura “B”).

Existen diferentes métodos para medir el coeficiente de viscosidad de los líquidos, los cuales utilizan
diferentes tipos de viscosímetros:
● Viscosímetro capilar (Ostwald, Ubbeholde o Cannon-Fenske).
● Viscosímetro tipo Saybolt.
● Viscosímetro de caída de bola (Stokes).
● Viscosímetro rotacional.
Durante el trabajo practico nosotros utilizaremos los métodos de de Ostwald y Stokes.

METODOS PARA DETERMINACION DE VISCOSIDADES

VISCOSÍMETRO DE OSTWALD
La determinación de la viscosidad con el viscosímetro de Ostwald se basa en la medida del tiempo
necesario para que un volumen determinado de líquido escurra a través de un capilar. El volumen fijo a
escurrir es el contenido entre las marcas superiores e Inferior de la oliva A del viscosímetro.
En el viscosímetro capilar el líquido fluye por acción de su propio peso. Cuando se establece una
diferencia de altura entre las columnas de líquido de las dos ramas del viscosímetro se genera una
diferencia de presiones (P0 y P1) entre las mismas, responsable de la fuerza impulsora del movimiento.
En la situación inicial, con el líquido en reposo (t = 0), la energía total del sistema se encuentra
acumulada como diferencia de presión entre las ramas. En el momento en que se inicia el movimiento
del fluido, esta energía acumulada se transformará parte en energía cinética y parte se utilizará para
vencer a las fuerzas de fricción (perdida de presión por fricción).

Si no se dispone del certificado o el viscosímetro no es calibrado se debe proceder a determinar la


viscosidad cinemática relativa del fluido incógnita respecto de un fluido de referencia, para lo cual se
determinan en el mismo viscosímetro los tiempos de escurrimiento de ambos líquidos. Si aplicamos la
ecuación [ηc] = k * t a ambos y las relacionamos, considerando que k es la misma para iguales
volúmenes, el cociente entre los tiempos nos da el valor de la viscosidad cinemática relativa:

El análisis del proceso se basa en la ley de Poiseuille y ésta solo es válida cuando el régimen del flujo es
laminar, por lo tanto cada viscosímetro (según su geometría) tiene un rango de viscosidades cinemáticas
para el cual esto se cumple. Si se trabaja por debajo de la viscosidad cinemática mínima para un
viscosímetro, la velocidad del flujo será alta y el régimen será turbulento, y si se trabaja por encima de la
máxima el tiempo de escurrimiento será demasiado largo. Cada viscosímetro viene clasificado con un
número arbitrario y para cada uno de ellos el proveedor indica el rango de viscosidades cinemáticas que
pueden ser determinadas.

MÉTODO DE STOKES
Si se coloca en un líquido una partícula de mayor densidad que el mismo, ésta caerá por acción de su
propio peso. En el vacío, dicha partícula caería con movimiento uniformemente acelerado; pero en el seno
del líquido la esfera se mueve bajo la acción de las siguientes fuerzas: el peso, el empuje y la fuerza de
rozamiento.
Al principio del desplazamiento, estando la esfera totalmente sumergida en el líquido y partiendo
de v = 0, la esfera posee una aceleración máxima, la cual provoca un rápido aumento de su velocidad. A
medida que la velocidad aumenta, el valor de la fuerza de rozamiento también lo hace, por lo que la
aceleración se hace cada vez más pequeña y consecuentemente la velocidad aumenta cada vez menos.
Llegará un momento en el que se logre el equilibrio de fuerzas, la aceleración se haga cero y la partícula
se mueva a velocidad constante. En ese instante se dice que la partícula alcanzó la “velocidad límite”.
Si se deja caer una esfera de radio y densidad conocida en un líquido cuya viscosidad se desea
determinar, y se le permite recorrer un espacio tal que alcance la velocidad límite y, a partir de allí, se
mide el tiempo que tarda en atravesar un espacio comprendido entre dos enrases.

Se puede determinar experimentalmente la velocidad límite:

Midiendo la velocidad límite y conociendo la densidad del líquido; la densidad y el radio de la esfera, se
puede calcular la viscosidad absoluta como:

Conclusión:

Para utilizar el viscosímetro de Ostwald se debe tener en cuenta la η de la sustancia a medir, para elegir
el viscosímetro correcto y obtener un tiempo de escurrimiento acorde. Ya que con sustancias de η altas,
no circulará o circulará lentamente a través del capilar, y si tienen η bajas circulará rápidamente. Por lo
que existe viscosímetros con capilares para diferentes rangos de η, para asegurar un régimen laminar a
fin de que las determinaciones realizadas sean válidas. Hay que verificar el estado del viscosímetro ya
que al estar hecho de vidrio, sufre de dilatación con el paso del tiempo; esto produce un error al método
que debe considerarse para evaluar los resultados. Lo práctico de este método es que no requiere de
mucha muestra.

El método de Stokes lo usamos para medir η altas, ya que si el líquido no fuera muy viscoso, la longitud
del tubo debería ser muy extensa para alcanzar una velocidad constante. Esto no significa que el método
solo se pueda utilizar para líquidos de η altas, ya que se pueden variar las condiciones del experimento
para medir líquidos de η bajas (δ de esfera). Si bien este método es práctico por su simplicidad, la
cantidad de sustancia requerida para la medición es demasiada con respecto al método de Ostwald.

TP7: Electricidad
POTENCIOMETRIA
Para realizar mediciones de intensidad de corriente o de voltajes (tensión) en un circuito se emplean
diferentes instrumentos. Los más comunes son los llamados multímetros o polímetros.

El dispositivo que mide la intensidad de corriente de un circuito eléctrico se llama amperímetro. El


instrumento se debe intercalar en el circuito de modo que la corriente pase a través de él, en serie, con
los demás componentes del circuito en el que se quiere medir la intensidad de corriente. Su inserción
añade una resistencia al circuito y en consecuencia la corriente circulante por el mismo se modifica. Por
ello, para medir intensidades de corriente, al galvanómetro se le coloca una resistencia “shunt” en
paralelo. Esto hace que la resistencia equivalente total del amperímetro sea muy pequeña. La intensidad
de corriente que pasa por el galvanómetro es proporcional a la intensidad total que pasa por el
amperímetro y es la que es realmente cuantificada.
El dispositivo que mide diferencias de potencial eléctrico se llama voltímetro. Si queremos medir una
diferencia de potencial, se colocarán las terminales del voltímetro en los puntos entre los cuales quiere
medirse dicha diferencia de potencial, es decir en paralelo.
El voltímetro altera el circuito y este es un efecto no deseado. Un voltímetro ideal será aquel que posea
una resistencia interna infinita de manera tal que se modifiquen al mínimo los valores de intensidades y
diferencias de potencial respecto a los existentes en ausencia del instrumento. Para lograr este fin, el
voltímetro se construye conectando un resistor en serie con el galvanómetro. Como la intensidad que
pasa por el galvanómetro es proporcional a la diferencia de potencial que se está determinando, el
instrumento está calibrado de manera tal que indica esta diferencia de potencial.
El dispositivo que mide resistencias se llama Óhmetro. Para esta función el instrumento posee una
fuente de tensión continua o batería, con el fin de generar una corriente eléctrica a través del circuito
resultante cuando se conectan las terminales del multímetro a los extremos de la resistencia a medir.. El
valor de la intensidad de corriente circulante dependerá entonces del valor de la resistencia a medir.
El Óhmetro utiliza la ley de Ohm para obtener los valores de resistencias:

R=V/I
Dónde:
I es la intensidad de corriente que mide el instrumento y que circula por la resistencia.
V es el valor de la diferencia de potencial dada por el instrumento.
Lo cual nos permitirá calcular la Resistencia del circuito.

Método gráfico
Siendo: Vba: el voltaje entre los bornes de la pila; Vcd: la diferencia de potencial entre los extremos de la
resistencia; i: la intensidad que circula por el circuito; ε: la fem de la pila y r: la resistencia interna de la
pila A es un amperímetro, V es un voltímetro y R es una resistencia variable.

Vba = ε-i*r

Entonces, si graficamos Vba en función de intensidad podremos determinar el valor de la fem a partir de
la ordenada al origen del gráfico.
Mediante la resistencia variable R lograremos obtener distintos valores de diferencias de potencial e
intensidades, veamos:

Vcd = i*R

Considerando nula la resistencia del amperímetro:

Vba = Vcd

Podemos, entonces, igualar las ecuaciones:

I= ε/R+r

Por la ecuación I= ε/R+r vemos que a medida que se va variando R, variará la intensidad i del circuito

(lectura en el amperímetro) y en consecuencia Vba = ε-i*r, la diferencia de potencial Vba (lectura en el


voltímetro).El valor de la fem y su resistencia interna son constantes.

Por lo tanto, para cada valor de R tendremos una dupla de valores de Vba e i, siendo:
→ Vba la diferencia de potencial leída en el voltímetro

→ i la lectura en el amperímetro, siempre y cuando la resistencia interna del voltímetro (rV)


tienda a infinito

Obtendremos entonces experimentalmente una tabla de valores de lecturas en el voltímetro y en el


amperímetro y podremos graficar Vba= f(i)

RESISTENCIA Y RESISTIBILIDAD
Cualquier conductor por el que circula o puede circular una corriente eléctrica, ofrece una cierta dificultad
u oposición al paso de los electrones. Esta oposición se denomina resistencia eléctrica del conductor y
obliga a los electrones a perder parte de la energía eléctrica, transformándola en energía calórica o
lumínica.
La resistencia eléctrica del conductor depende de los siguientes factores:

● Longitud del conductor


● Sección del conductor
● Material utilizado como conductor

La resistividad de un material expresa la resistencia que presenta un conductor homogéneo de una unidad
de longitud y unidad de superficie de sección.

R= (ρ*L)/S
Siendo:
R = Resistencia del conductor
ρ=Resistividad del material
L = Longitud del conductor
S = Sección de conductor

Conclusión:

Mediante el gráfico de R= f (longitud) podemos verificar la relación directamente proporcional entre la


resistencia y la longitud del cable conductor Ni-Cr. Es decir, que al aumentar la longitud del cable,
aumenta la oposición del paso de electrones (a sección constante).
Las resistencias dependen de la longitud y de la sección transversal, además de la resistividad del
material, comprobando de este modo experimentalmente la ecuación R= (ρ*L)/S.
Finalmente se concluye que el mejor conductor es el hierro galvanizado (ofrece menor resistencia, por
tener una resistividad menor).

PUENTE DE HILO

El puente de hilo surge como una modificación del puente de Wheatstone en donde se reemplazan las
resistencias variables R1 y R2 por un único hilo metálico, homogéneo, de sección constante (A) y
determinada longitud L. El extremo del galvanómetro en contacto con el hilo se encuentra libre para
permitir su desplazamiento.

Dado un determinado valor de RV, se desplaza el cursor hasta que se anula el paso de corriente por el
galvanómetro (ig = 0), llegándose a la situación de equilibrio donde vale que:

Donde R1 y R2 son las resistencias correspondientes a las longitudes L1 y L2 del hilo


Como:

Donde A es la sección, L1 y L2 las longitudes de ambos tramos del hilo y ρ la resistividad.


Reemplazando queda:
Conclusión:

En la experiencia observamos que al variar la resistencia variable, se varía la longitud del puente de hilo,
para tratar de que se anule el paso de corriente por el galvanómetro (ig = 0). Se dice que el puente está
equilibrado cuando la diferencia de potencial entre los puntos A y B es nula. En este momento no
circulará corriente por el galvanómetro intercalado entre éstos.Por ende existe una compensación entre
resistencia y longitudes para mantener la igualdad:

RX * L1 = RV * L2

RESISTENCIAS EN SERIE Y PARALELO

Suponiendo: εcte = ΔV = Req * It

En serie:

ΔV = ↑ Req * It ↓

Req = R1 +R2

It = I1 = I2

En paralelo:

ΔV = ↓ Req * It ↑

1/Req = 1/R1 + 1/R2

It = I1 + I2

Conclusión:

Al conectar las lámparas en serie, observamos que el brillo es menor con respecto a la lámpara testigo,
esto se debe a que la intensidad de corriente que pasa por las lámparas en serie es menor que la
testigo. Otra observación es que al desconectar una de las lámparas en serie (cualquiera sea esta), todas
se apagan porque se corta el circuito y deja de circular corriente.

En cambio al conectar las lámparas en paralelo, se observa que el brillo y la intensidad es igual a la del
testigo. Al desconectar una lámpara cualquiera, del circuito conectado en paralelo, se observa que la
corriente no pasa por la lámpara desconectada pero si por las otras.

En base a lo observado concluimos que las instalaciones eléctricas hogareñas son circuitos en paralelo,
para evitar que la corriente se interrumpa, como ocurre en el caso de las luces del árbol de navidad, que
al quemarse una se apagan todas.
TP8: Electroforesis
Fundamentos:

La electroforesis es una técnica separativa que se basa en el fenómeno de migración diferencial que
experimentan partículas cargadas eléctricamente al estar bajo la influencia de un campo eléctrico. La
migración de una partícula en un medio sometido a un campo eléctrico depende de la velocidad que
adquiere en él. En una primera aproximación, se deduce fácilmente que la velocidad que adquiere una
partícula cargada eléctricamente cuando está en un campo eléctrico depende de la partícula - carga,
tamaño y forma-, de la viscosidad del medio y la intensidad del campo eléctrico aplicado. Cabe
destacar que el movimiento de las partículas también se encuentra condicionado a la difusión natural
como también a la temperatura, la fuerza iónica y el pH del medio. Una carga eléctrica inmersa en un
campo eléctrico experimenta una fuerza de atracción o repulsión.La carga se desplazará en el medio
hacia el polo que posee carga opuesta como consecuencia de la fuerza de atracción eléctrica

En un primer instante, la fuerza eléctrica imprime en la partícula cargada una aceleración inicial. Cuando
la partícula se encuentra inmersa en un fluido aparece sobre ella una fuerza de rozamiento, ya que el
fluido en el que se mueve la partícula se opone a su movimiento. La fuerza de rozamiento es
proporcional a la velocidad de la partícula, tiene igual dirección que la fuerza eléctrica pero sentido
opuesto. Apenas la molécula comienza a moverse en el solvente a causa de la fuerza eléctrica, aparece la
fuerza de rozamiento que se opone al movimiento y por lo tanto su aceleración inicial disminuye. La
fuerza de rozamiento no es constante ya que se incrementa a medida que aumenta la velocidad de la
partícula y consecuentemente disminuye progresivamente la aceleración. Llega un momento en que la
fuerza de rozamiento adquiere la misma intensidad que la fuerza eléctrica. Dado que ambas fuerzas
tienen igual dirección pero sentidos contrarios, la resultante sobre la partícula será igual a cero.

A partir de este momento, la partícula no estará afectada por aceleración alguna y se moverá a velocidad
constante siendo esta velocidad la máxima que alcanza en el seno del fluido bajo un campo eléctrico
uniforme.
La movilidad electroforética de una molécula cargada que se mueve en un campo eléctrico, se define
como el cociente entre la velocidad de la misma y el campo eléctrico aplicado. Este como ya hablamos se
ve afectada por la partícula, así como el medio y temperatura.
Se puede considerar que la movilidad es una constante física para una sustancia si se mantienen
constantes el medio y la temperatura. Por lo tanto está en íntima relación con las condiciones de trabajo
seleccionadas.
Dado: y

(Donde: d=distancia recorrida, t= tiempo, ΔV: potencial, L: longitud de soporte)


Se puede expresar en términos de las variables experimentales:

La movilidad electroforética es independiente de las condiciones experimentales, variará la distancia


corrida por la muestra pero la movilidad permanecerá constante dado que es una característica propia
de la sustancia en un determinado medio. Si consideramos las variables experimentales la longitud del
soporte de corrida, Voltaje y Tiempo) y la modificamos al trabajar entonces variará la distancia recorrida
por la partícula pero µ se mantendrá constante. .

Discusión:

En la experiencia realizada variando el voltaje se observa que en la tapa de la cuba se empañaba a


voltajes altos. Analizando el fenómeno, se concluye que se debe a la evaporación del solvente del buffer
causado por la disipación de calor que ocurre al trabajar a voltajes altos. La consecuencia de esto es el
efecto Joule, evidenciado en los gráficos de distancia en función de voltaje, donde la pendiente en los
últimos puntos deja de ser una recta y toma una forma más achatada y curva; lo que ocurre es que al
evaporarse el solvente del buffer aumenta la concentración de la solución. La presencia de electrolitos
en el entorno tiende a contrarrestar la migración de la partícula en estudio, puesto que los contra-iones
tienden a moverse en sentido opuesto por su carga. Por ello, la velocidad que alcanza la partícula en un
medio con muchos electrolitos será inferior a la que alcanzaría en un entorno con un menor número de
cargas totales. Se puede pensar como un apantallamiento de la carga neta de la partícula como
consecuencia de los contra-iones que la rodean. Dicho efecto es evidente en el aspártico pero no en la
lisina, como se puede apreciar gráficamente.

Antes de ver las corridas de lisina y del ácido aspártico, se esperaba obtener un desplazamiento negativo
para la primera y uno positivo para la segunda, por su composición química. En los diferentes
procedimientos la histidina fue utilizada como muestra testigo (error de cero), ya que se sabe que al pH
en el que se trabajó, este aa es neutra porque se encuentra en su punto isoeléctrico (la carga neta es
cero, existe un equilibrio de cargas + y -); por lo tanto no debería mostrar desplazamiento. Sin embargo
en los 3 procedimientos se vio que la histidina también se desplaza por la tira de papel y en sentido
negativo. Ese desplazamiento se debe a que en la electroforesis existe, una nube de protones que son
muy lábiles, entonces al aplicar un ΔV, estos protones se mueven como un todo hacia el polo negativo
arrastrando lo que se encuentre en su camino. Por lo tanto arrastra a la lisina, histidina y frena al ácido
aspártico, esto se conoce como efecto electroendosmótico. El efecto electroendosmótico se produce por
flujo de electrones debido a la presencia de grupos cargados de la tira de papel que a determinado pH se
ionizan. Los valores de distancia recorrida por la histidina se utilizaron para corregir los valores de las
distancias recorridas por los otros 2 aa.

Los valores obtenidos para la lisina en el grupo 6 no fueron los esperados (variable longitud), esto podría
deberse a errores en el operador a la hora de llevar a cabo la corrida ya que al cambiar la longitud de la
tira las mediciones pudieron no ser exactas por lo tanto la proporción corrida longitud no sería la
correcta.

Conclusión:

Por la fórmula de movilidad electroforética (µ) sabíamos que al aumentar la longitud de la tira,
disminuye el campo eléctrico (E):

µ = v / E↓ = (d * L↑) / (tiempo * ∆V)

Viendo los resultados en la experiencia donde se varió la longitud, esto se confirmó. Por lo tanto, al
aumentar la longitud, disminuye la velocidad (ya que E y v varían proporcionalmente para mantener a µ
constante) y la distancia recorrida por la partícula, es decir que se compensan las variaciones de los
parámetros involucrados:
µ = ↓v / E↓ = (↓d * L↑) / (tiempo * ∆V)

En caso contrario si disminuye la longitud, aumenta la distancia recorrida.


Viendo las distancias recorridas al variar el voltaje podemos ver que al aumentar el voltaje, aumenta
proporcionalmente la distancia recorrida por el aa. Entonces concluimos que el voltaje es directamente
proporcional a la distancia recorrida, esto se explicaron la fórmula de movilidad, donde al variar el
voltaje, varía el campo eléctrico, lo cual hace que la velocidad de corrida varíe proporcionalmente,
dando como resultado un aumento de la distancia recorrida.

µ = ↓v / E↓ = (↓d * L) / (tiempo * ∆V↓) o µ = ↑v / E↑ = (↑d * L) / (tiempo * ∆V↑)

A la hora de trabajar con voltajes altos se debe tener mucho cuidado de no provocar cortocircuito, el
cual es provocado al intentar hacer que un circuito soporte una mayor intensidad de la que puede. El
valor de de intensidad que puede soportar un circuito está dado por el valor de su resistencia total.
En el gráfico de distancia en función de tiempo se observa que a medida que aumenta el tiempo de
corrida, la distancia recorrida por cada aa aumenta proporcionalmente; cuando se la somete a una caída
de potencial, esto se debe a que la movilidad (µ) es constante, lo que varían son los parámetros
involucrados:
µ = (↓d * L) / (↓tiempo * ∆V) o µ = (↑d * L) / (↑tiempo * ∆V)

TP9: Refractometría
PARTE 1: COMPROBACIÓN EXPERIMENTAL DE LAS LEYES DE REFLEXIÓN Y
REFRACCIÓN.

Cuando un haz de luz que se propaga por un medio ingresa a otro distinto, una parte del haz se refleja
mientras que la otra sufre una refracción, que consiste en un cambio de dirección del haz. Esta diferencia
generada se podrá subsanar con el índice de refracción del material asi podremos calcular la diferencia
entre el ángulo de incidencia y el de refracción del haz (antes y después de ingresar al nuevo material).

El ángulo formado entre el rayo en el primer medio y el eje Y es el Ángulo de incidencia,


mientras que el corresponde al ángulo en el segundo medio se denomina Ángulo de
refracción. El índice de refracción, n, es la relación entre las velocidades de la luz en el vacío y
en el material.

Un rayo se refracta cuando pasa de un medio a otro en el que viaja con distinta velocidad. En la
refracción se cumplen las siguientes leyes:

1.- El rayo incidente, el rayo refractado y la normal están en un mismo plano.

2.- Se cumple la ley de Snell:

Y teniendo en cuenta los valores de los índices de refracción resulta:

n1sen i = n2 sen r

Cuando la luz se refracta cambia de dirección porque se propaga con distinta velocidad en el nuevo
medio. Como la frecuencia de la vibración no varía al pasar de un medio a otro, lo que cambia es la
longitud de onda de la luz como consecuencia del cambio de velocidad. Si n2 es mayor que n1, como en el
caso de la luz cuando pasa desde el aire (n 1) al vidrio o al agua (n2), el rayo refractado se curva y se
acerca a la normal. En el caso contrario, es decir, si el rayo de luz pasa del medio 2 (agua) al medio 1
(aire) se aleja de la normal. Cuando el rayo de luz pasa de un medio más lento a otro más rápido se aleja
de la normal.
A un determinado ángulo de incidencia le corresponde un ángulo de refracción de 90º y el rayo
refractado saldrá "rasante" con la superficie de separación de ambos medios. Este ángulo de incidencia
se llama ángulo límite o ángulo crítico. Esto sucede cuando se incide desde un medio con un índice de
refracción menor al del objeto al que se le está apuntando con el rayo de luz.

Un rayo incidente cambia más o menos de dirección según el ángulo con que incide y según la
relación de los índices de refracción de los medios por los que se mueve.

Conclusión:

Se ha realizado, la corroboración de la ley de Snell la cual plantea una relación entre el ángulo de
incidencia y el de refracción, teniendo en cuenta el medio por el cual circula un rayo de luz.

A partir de dicha ley se puede establecer que cuanto mayor sea el ángulo de incidencia mayor va
ser el ángulo de refracción. Esto es conforme, cuando aumenta el ángulo de incidencia, el rayo
refractado se aparta de la normal. El aumento del ángulo de refracción se provoca por el cambio de
medio que sufre el rayo de luz, este irá aumentando hasta llegar a un valor máximo llamado ángulo
limite el cual, al ser superado, solo se verá reflexión total. Utilizando un puntero láser y una placa de
acrílico se pudo corroborar la ley de Snell de forma empírica

También se comprobó empíricamente el principio de reversibilidad óptica haciendo incidir el rayo


sobre el camino que tomo el rayo refractado anteriormente, y se vio que este coincidía en todo el
camino recorrido por el rayo en todos los casos. También se vio que cuando el ángulo de incidencia
aumentaba, el ángulo de refracción era mayor debido al cambio de medio que experimenta el rayo.

PARTE 2: REFRACTOMETRÍA

Fundamentos:

El índice de refracción es una constante física que permite, entre otras cosas, determinar la
concentración de determinadas sustancias disueltas en solución.

Refractómetro de Abbe:

Este refractómetro aprovecha la formación del ángulo límite luego de que la luz incidente atraviesa la
sustancia (x) e incide en el prisma rectangular.
Si el rayo S incide en I, paralelo a la cara BC del prisma y rasante a la superficie de separación entre
ambos medios (sustancia X-prisma) se refractará en el medio más refringente (prisma) con el ángulo
límite; al llegar a la cara AB se refractará nuevamente y abandonará el prisma formando un ángulo α con
la normal a dicha cara (S’)

Cuando incide un rayo P en el punto I, con un ángulo de incidencia menor de 90°, forma
dentro del prisma un ángulo de refracción L´ menor que el límite (L). De este modo el rayo
alcanza la cara AB en I´´, un punto situado a la izquierda de I´. Esto es válido para cualquier
otro rayo que incida en la cara BC con un ángulo menor de 90°. Por lo tanto el rayo S define la
situación extrema de refracción en el prisma. El rayo emergente de la cara AB del prisma señala
el límite de separación entre las regiones de luz y sombra. Si un observador se encuentra
situado en el punto D del esquema, visualizará a través del anteojo del refractómetro dichas
zonas de luz y sombra.
El rayo S define la situación extrema de refracción del prisma. El rayo emergente de la cara AB
del prisma señala el límite de separación entre las regiones de luz y sombra.

En el refractómetro se mide entonces el valor del ángulo α; conociendo el índice de refracción del
prisma (N) y su ángulo de refringencia (ω) se puede determinar el valor del ángulo límite (L) y finalmente
calcular el nx de la sustancia en estudio.

Si incide un rayo rasante a la hipotenusa del prisma, aplicando la ley de Snell, tendremos:

O sea,

Luego, nuevamente aplicando la ley de Snell para la segunda refracción (cara AB del prisma):

Entonces midiendo α y con los datos de naire y N, se puede calcular el ángulo β:


Y como , se calcula L y se obtiene el nx

Discusión:

Uno de los problemas que se nos presentó a la hora de medir con el refractómetro de Abbe fue que
a pequeñas cantidades de sustancia no se llegaba a distinguir bien por lo tanto no se podía medir
adecuadamente.
En esta experiencia también es muy importante el rol del operador ya que se debe ser preciso a la
hora de medir el n y se torna complicado hacer coincidir la escala del refractómetro.
Además se debe tener en cuenta la correcta calibración del instrumento antes de llevar acabo
nuestras mediciones
Conclusión

Se corroboró la calibración del equipo utilizando las muestras de concentración conocida y la tabla
de los índices de refracción de dichas muestras.

Una vez calibrado se procedió a determinar la refracción de soluciones de diferentes


concentraciones de isopropanol y etilenglicol (al 20%, 40%, 60%, 80%, y 100%).

A partir de los gráficos realizados se obtuvo una relación entre el índice de refracción y las
concentraciones de las muestras, por una parte el propilenglicol presentó una relación lineal
mientras que la del isopropanol fue una relación cuadrática. Además, a partir de los mismos
gráficos se obtuvo las concentraciones de las muestras incógnitas. Al determinar esto se pudo
constatar que el índice de refracción, propiedad física, aumenta a medida que las soluciones son
más concentradas (debido a que el rayo de luz pierde velocidad, le cuesta más atravesar el
medio) . Igualmente, no existe una relación directa entre la concentración y el índice de
refracción de todas las sustancias. Debido a que la velocidad de la luz cambia de forma
cuantitativa dependiendo del medio por el cual se propague. Por lo tanto cada sustancia
reaccionara diferente al ser atravesada por la luz.

TP10: Polarimetría
Fundamento:

La actividad Óptica es una propiedad que poseen ciertas sustancias de rotar el plano de vibración de la
luz linealmente polarizada que las atraviesa. Puede darse tanto en sólidos, como en líquidos y
soluciones.
La rotación (α) del plano de vibración de la luz linealmente polarizada con la naturaleza y geometría del
sistema ópticamente activo atravesado, se conocen como Leyes de Biot. Estas leyes se dividen en 4
ecuaciones fundamentales, donde (α) es la rotación medida en grados sexagesimales, (l) la longitud en
milímetros para sólidos o en decímetros para líquidos y soluciones, (δ) la densidad expresa en gramos
por mililitro y (c) laconcentración expresa en gramos por mililitro o en concentración molar.
La primera Ley de Biot se usa para sólidos ópticamente activos:
La segunda para líquidos puros:

La tercera para soluciones de solutos ópticamente activos:

La última para situaciones en las que existe en la muestra más de un componente ópticamente activo,
de distinta naturaleza química:

El poder rotatorio específico (α)tDes una constante física propia de las sustancias ópticamente activas
.Este se ve afectado por una longitud de onda específica ,temperatura , frecuencia de la luz empleada, el
solvente empleado para disolver solutos ópticamente activos, la aplicación de campos eléctricos o
magnéticos a la muestra y así también la aplicación de esfuerzos mecánicos.
En el trabajo práctico de polarimetría se determinará experimentalmente el poder rotatorio específico
(α)tDdel azúcar de caña -en solución acuosa y a temperatura ambiente- a partir de la pendiente de un
gráfico de α= f (concentración).Se utilizará para tal fin el Polarímetro de Laurent, un instrumento que
permite medir cuántos grados ha rotado el plano de vibración de la luz linealmente polarizada luego de
atravesar la sustancia contenida en un tubo. Un esquema de sus partes puede ser el siguiente:

La posición de lectura se alcanza logrando que los dos semicampos se encuentren igualmente
iluminados y lo más oscuro posible. Se escoge la situación de igualdad en penumbra debido a
que el ojo humano detecta mejor una pequeña variación de intensidad lumínica cuando la
cantidad de luz en el campo visual es poca. Al ir rotando el analizador mientras se mira por el
ocular se le presentan al ojo las situaciones esquematizadas en la siguiente figura:

Método:
[α]=Pendiente de la recta obtenido/Paso óptico

Conclusión:

Se cumplieron los objetivos con éxito. Se determinó el poder rotatorio específico (α) de la
muestra de sacarosa a partir de la pendiente del grafico realizado con los datos de rotación
según cc alcanzados con el polarímetro de Laurent. En esta experiencia se descartó el valor del
solvente para la obtención de α ya que se utilizó como tal el agua que es ópticamente inactivo,
es decir no genera cambios en el plano de la luz.

TP11: Espectroscopia
Fundamento:

La materia se encuentra compuesta por átomos y estos a su vez forman moléculas.


En condiciones normales el electrón permanecerá en una órbita para la cual la energía total del sistema
será la mínima posible. Si en este estado se excita el sistema de alguna manera (por medio de luz, calor o
una descarga eléctrica), el electrón pasará a una órbita tal que la energía total del sistema será mayor; se
dice entonces que el átomo se encuentra en un “estado electrónico excitado”. Después, el átomo
tenderá a volver a su estado normal (fundamental), devolviendo la energía que había adquirido, que será
igual a la diferencia entre los estados electrónicos inicial y final. Los átomos excitados pueden devolver la
energía absorbida en forma de radiación electromagnética de tipo UV – visible, dado que los valores de
la diferencia de energía de los electrones entre sus estados excitado y basal se corresponden con los de
la energía de las radiaciones de estas regiones del espectro electromagnético. La radiación devuelta va a
ser de longitudes de onda específicas, de acuerdo con las transiciones que estén permitidas en cada
elemento. El conjunto de radiaciones emitidas por un átomo constituye su espectro de emisión y es
característico de ese elemento.

También se pueden obtener espectros de emisión o absorción empleando el espectroscopio de Kirchoff


y Bunsen. Este consta de las siguientes partes:

● Prisma.
● Colimador.
● Ocular.

La fuente de luz, cuyas radiaciones se desea observar, se coloca frente al colimador. Este dispositivo
posee una ranura de entrada de luz, que permite que el haz luminoso se dirija hacia el prisma en forma
de haz discreto. En el prisma la luz se refracta, por lo que las radiaciones de distinta longitud de onda se
separan y esto se aprecia al observar por el ocular. Si, por ejemplo, la fuente de luz es una lámpara de
tungsteno (luz blanca), lo que veremos desde el ocular será el espectro visible descompuesto desde el
rojo hasta el violeta. El espectroscopio se puede utilizar para evaluar tanto espectros de absorción como
de emisión. Si interponemos entre la fuente de luz y el colimador tubos conteniendo solución coloreada,
estaremos evaluando el espectro de absorción del colorante, o sea que parte del espectro antes visible,
desaparece.
1-OBSERVACION DE ESPECTROS DE ABSORCION

Objetivos:

Observar espectros de absorción de soluciones coloreadas transparentes.

Resultados:

ESPECTROSCOPIO
Sc coloreadas Color Absorción
Paranitrofenol Amarillo Violeta
Naranja de metilo Naranja Verde-Azul-Violeta
Eosina Naranja Verde-Azul-Violeta
Verde Brillante Turqueza Rojo-Amarillo
Rojo Ponceau Rojo Amarillo-Verde-Naranja-Azul-Violeta
Rojo Ponceau (alcalino) Bordo Amarillo-Verde-Naranja-Azul-Violeta
Rojo Fenol Amarillo Verde-Azul-Violeta
Rojo Fenol (alcalino) Fuxia Amarillo-Verde-Azul-Violeta
Azul de metileno Celeste Rojo

2-ESPECTRO DE ABSORCIÓN DE DOS COLORANTES Y DE SU MEZCLA

Objetivos:

● Obtener los espectros de absorción de soluciones acuosas de azul de metileno, de


paranitrofenol y de una mezcla 1:1 de ambas soluciones
Método:

1. Cargar una cubeta con agua, otra con la solución de azul de metileno, otra con la solución de
Paranitrofenol y en una 4º cubeta mezclar 1,5 ml de cada una de las soluciones.
2. Fijar la en 400 nm.
3. Colocar la cubeta con agua y llevar a cero el espectrofotómetro.
4. Medir la absorbancia de las 3 soluciones coloreadas desde 400nm hasta 700nm variando la longitud de
onda de a 10nm.
5. Cambiar la longitud de onda y repetir desde el paso 2.
6. Confeccionar un gráfico Abs= f () para las 3 soluciones (azul de metileno, paranitrofenol y solución
mezcla) en un mismo par de ejes.

Discusión:

Durante la experiencia hubo diferentes factores que pudieron generar discrepancias los cuales fueron:
● Se midió la transmitancia mediante el espectrofotómetro, ya que poseía una escala más
sensible; luego usando su relación, se pasó a absorbancia, lo que aumenta el error ya que no
se realiza una medida directa.
● Las cubetas, se debe realizarse un control de cubetas midiendo las transmitancias de todas
con agua, si las cubetas poseen rayaduras o estan sucias, generan un error en las lecturas de
transmitancia.
● Se debe tener un buen manejo de las soluciones para evitar contaminaciones cruzadas, esto
más que todo si los frascos no están fraccionados.
● Tomar la precaución de realizar correctamente la mezcla,es decir medir bien la cantidad
correspondiente para generar una desviación en la lectura.

Conclusión:

El paranitrofenol (amarillo) tuvo un pico de absorbancia entre los 400 y los 450 nm aprox. (zona de
violetas y azules), el azul de metileno (azul), tuvo un pico de absorbancia en aprox. 650 nm (zona de
naranjas y rojos) y la mezcla tuvo 2 picos en las mismas zonas que los colorantes puros, pero de menor
absorbancia. Esto se debe a que en las zonas que absorbia el paranitrofenol transmitia el azul de metileno
y viceversa, haciendo que baje la absorbancia en dichos picos con respecto a los colorantes
puros.Cuando se realiza un barrido con soluciones coloreadas , los picos de absorbancia de las muestras
se van a encontrar en las longitudes de onda correspondiente al color complementario al de dicha
solución,dejando pasar las demás.Al realizarse la mezcla los picos se van a encontrar en la misma
longitudes que los colorantes puros pero disminuidos.

TP12: Espectrofotometría

1-CONTROLES DE UN ESPECTROFOTOMETRO.

Fundamento:

1. Control de luz espuria.


La luz espuria o errática es toda luz que llega al detector sin haber atravesado la muestra cuya
absorbancia queremos medir, pudiendo ser de la misma o de diferente longitud de onda que la
seleccionada. Los métodos para detectar la luz espuria incluyen filtros o soluciones que son “opacos” en
los rangos habituales de trabajo. Así se puede utilizar una cubeta de obstrucción de paso de luz (una
cubeta pintada de negro o sea una cuerpo negro). En todos los casos se leerá la transmitancia contra
blanco de agua, a cualquier de la zona del visible. El valor leído representa directamente el % de luz
espuria.

2. Control de centro de banda:


Este control analiza la correlación entre la longitud de onda seleccionada por el operador (leída en la
pantalla) y la que efectivamente llega a la muestra (real). Si existe diferencia entre la real y la leída, a esa
diferencia se la conoce como desplazamiento o corrimiento de la longitud de onda y se mide en nm. Para
realizar este control se pueden utilizar sustancias de referencia que presenten uno o más picos de
absorción característicos de su espectro. Estos picos deben ser estrechos, deben estar distribuidos
dentro de todo el intervalo espectral del instrumento y además deben estar definidos con extrema
exactitud.

3. Control de volumen mínimo


Este control asegura que toda la luz pase por la solución y no “por arriba” o por el menisco, lo que
produciría resultados erróneos.

4. Control de cubetas
Se realiza para comprobar las cualidades ópticas y de construcción de las cubetas de medida. Se realiza
midiendo la T % de las cubetas llenas de agua o solución diluida de colorante, tomando una cubeta como
referencia y verificando las desviaciones de las demás con respecto a ésta. No debería existir una
variación superior al 1% de T, en caso contrario se deberá corregir como error sistemático.

5. Control de linealidad fotométrica:


Se realiza midiendo la absorbancia de soluciones de concentraciones crecientes de un colorante que se
sabe cumple con la ley de Lambert-Beer, es decir que presenta un comportamiento lineal entre
absorbancia y concentración. Por lo tanto si al hacer el control, el gráfico de absorbancia en función de
concentración deja de ser lineal en cierto valor de absorbancia, y este será el máximo valor de
absorbancia aceptable en cualquier otra medida a esa longitud de onda.

6. Control de veracidad
Este control se realiza luego de haber verificado los controles anteriores, y permite analizar la veracidad
de los resultados obtenidos con el equipo.
A través de este control se verifica la concordancia entre la absorbancia de referencia, obtenida con una
solución standard en un equipo calibrado, y la absorbancia medida para la misma solución pero en el
equipo que se está controlando.

2- APLICACIONES DE LA ESPECTROFOTOMETRÍA.
Fundamento:

Realizando diluciones de una solución madre y midiendo sus absorbancias se puede realizar un gráfico
de Abs = f(cc). Su m=A/c multiplicada por 1/l (siendo l el paso de la cubeta: 1cm), permite averiguar la
absortividad (a).

Método de Biuret: los enlaces peptídicos de las proteínas reaccionan con el ion cúprico en medio
alcalino para dar un complejo coloreado con un máximo de absorción en 540 nm. La absorción de esta
solución es proporcional a la cc de las proteínas totales presentes en la muestra.

También podría gustarte