Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Fundamentos:
Tomando como supuesto la existencia de cierta magnitud fija y definida de un ente (ej.: su longitud,
volumen, etc.) se intenta alcanzar su valor verdadero en la medición. El valor que se obtiene será una
estimación del valor verdadero ya que toda medición conlleva una carga de incertidumbre (a causa de
errores e imprecisiones evitables o no). La diferencia entre el valor medido y el valor verdadero se llama
error absoluto. Como el valor verdadero nunca se alcanza, tampoco el error absoluto, aunque este
último también es estimable.
Para medidas únicas, se utilizan como indicadores de calidad los estimadores del error absoluto (Δx).
Estos indicadores se pueden expresar también como relativos al valor de la magnitud, de manera de
poder comparar la calidad de medidas con distinto valor. Este parámetro se conoce como error relativo
(Δx/x) y nos da idea del impacto de Δx sobre la propia medida x y expresa el error por unidad de
medida. Este error depende tanto del valor del mensurando como de la apreciación del instrumento
utilizado.
En medidas indirectas el error absoluto se estima mediante la aplicación de la “teoría de propagación del
error”.
Durante nuestra experiencia obtendremos las medidas mencionadas con diferentes instrumentos (regla,
calibre y palmer) para evaluar sus errores relativos y absolutos, por si mismos (m. directas) o al cruzar
sus datos (indirectas). Tenemos que considerar que las monedas no son un cilindro, por lo tanto las
mismas presentan relieves que modifican la lectura dependiendo del instrumento y el operador.
Discusión:
En la medida directa de espesores el uso de la regla se torna inconveniente ya que tiene una sensibilidad
muy parecida a la magnitud que se desea medir y por lo tanto presenta errores relativos de hasta 50 y
100%. Aquí el calibre (4,94% 8,56% de Er) y el palmer (1,21% 1,94% de Er) son mucho mas convenientes,
siéndolo algo mas el palmer.
Al medir los diámetros, magnitud más grande que los espesores, la regla se torna más útil (4,35% y
5,88% de Er), y son óptimos el calibre y el palmer (menos de 1% de Er). Pese a esto como un error
aleatorio se presenta el hecho de que al medir el diámetro de la moneda se pueda no hacerlo
correctamente debido a la circularidad de esta (que la regla no pase por el centro de la moneda o que
no se la mida en 2 puntos distanciados al máximo para el palmer).
En el calibre y el palmer leímos el 0, por lo que el error absoluto es el doble del error de apreciación; al
contrario de la regla en la cual podíamos acomodar el 0 y evitar este inconveniente.
En el cálculo de la medida indirecta, el volumen, los errores relativos aumentan en comparación al de las
medidas de longitud. La regla tiene un Er de más del 100%.
Al combinar resultados de instrumentos se nota que el uso del palmer como resultado para el espesor es
lo más conveniente. Esta importancia de la medida del espesor se debe a que en la ecuación de
propagación del Er tiene factor de propagación igual a 1 y es de magnitud más pequeña que el diámetro.
Se tuvo en cuenta la inexactitud de considerar a la moneda como un cilindro perfecto, pero frente a los
fines de las mediciones se concluyó que no tiene importancia.
TP2: Calibraciones
1.- CALIBRACIÓN DE UN TENSIÓMETRO DE LECOMTE DU NOÜY
Fundamentos:
El tensiómetro de Lecomte du Noüy es una balanza de torsión. Este instrumento mide fuerzas a través
de un sistema que relaciona proporcionalmente la torsión de un alambre con la posición de un vernier
sobre una escala circular. La torsión del alambre depende del la elasticidad de este y otras características
del instrumento.
-Por un lado establecer la escala en el punto cero para la torsión del alambre a en la cual se considera
que no actúa ninguna fuerza a medir. A partir de allí se va a reflejar en la escala desde el cero la torsión
de que produzca solo el peso agregado. Esto se realiza manualmente.
-Por otro lado definir la relación cuantitativa entre la escala circular (cada división) y el grado de torsión
del alambre (el cual depende del peso que se le agregue al brazo móvil). Para esto primero se realiza
cierta cantidad de mediciones, con algún material de referencia cuya masa es conocida, hasta que se
cubra toda la escala circular. Luego se comparan las divisiones con las fuerzas. Para obtener una
expresión formal de la respuesta del instrumento puede realizarse un grafico (relacionando fuerzas y
divisiones). Este demostrará si los resultados son proporcionales en todo el rango medido. De allí se
sabrá hasta que punto es confiable el tensiómetro.
Discusión:
Al realizar dicha experiencia nos surgen varias incógnitas que se plantean para poder comprender
nuestro trabajo. ¿Porque se utilizan diferentes pesas? ¿Para que realizamos la curva? ¿Con que fin se
calcula el R2? Tratamos de comprender dichos interrogantes elaborando entre nosotros la razón y
cuestión de los mismos.
El utilizar diferentes pesas nos permite determinar un rango definido en el tensiómetro y al unirlas
obtener un mayor alcance en la escala (más allá de que el error relativo aumenta es de gran utilidad) de
forma de conseguir los datos necesarios para evaluar la veracidad de las lecturas del equipo.
El fin por el cual generamos la curva y R2 es estar consciente del desvío de nuestro equipo, dándonos así
la posibilidad de subsanar el error de lecturas posteriores, cuanto más cercano a uno sea el R2 menor
será nuestro desvío en la lectura. Cabe tener en cuentan que al realizar la ecuación de la recta nos
provee un dato de cuanto tendría que ser el valor experimental en un cierto punto del equipo y los
límites que presenta el mismo.
Muchos más interrogantes van a surgir en nuestro análisis para el cual tenemos que entender 100% que
el fin de realizar calibraciones es poder evaluar la veracidad de nuestros datos para poder estar
consciente de nuestras limitaciones y desplazamientos en la técnica.
Fundamentos:
El fin de la calibración del termómetro es verificar el valor en º (ºC en el termómetro del tp) de las
divisiones y analizar el posible corrimiento de la escala respecto del cero.
Esto se consigue a partir de la medición, con el termómetro a calibrar, de un material de referencia que
bien puede ser agua. Luego cuantitativamente se calcula la relación entre datos teóricos y prácticos. Para
eso se utiliza una razón denominada α:
Donde te y tf son las temperaturas teóricas a cierta presión, y t100 y t0 son las lecturas en el
termómetro en el cambio de estado liquido-gaseoso y solido-liquido respectivamente. Las unidades de α
son: ºC/divisiones.
El valor de tf no varía considerablemente con la variación normal de la presión atmosférica. Si lo hace el
valor de te que se puede calcular a partir de:
Discusión:
En el transcurso de la experiencia existían corrientes de aires que pudieron haber afectado la precisión
de las mediciones. Para evitar esto se intentó rodear al termómetro con un cuaderno, rústico proceder.
Las desviaciones del termómetro pueden deberse a un error geométrico dado por la dilatación del vidrio
a lo largo del tiempo.
TP3: Estadística
1.- ERROR CASUAL
Fundamentos:
El objetivo del tp consiste es evidenciar el error casual y evaluarlo a nivel cuantitativo con el fin de
poder relacionarlo con la complejidad del método. Este tipo de error es inherente a cualquier medición,
si bien puede tratar de reducirse el operador no puede eliminarlo por completo.
De esta forma podremos calcular el desvío estándar, ya que el error casual es la causa de la dispersión de
los datos. Al agregar más complejidad al método se suman fuentes de error haciendo que los datos
estén más dispersos.
Una vez obtenido los diferentes datos calcularemos la media a través de la siguiente formula:
También tenemos que tener en cuenta el SD de cada serie que se calcula mediante:
Al obtener el desvió estándar (SD) correspondiente, se utilizara para tener una mayor probabilidad en la
obtención de nuestra determinación dentro del rango obtimo,El doble del SD dando como resultado un
95,5% de probabilidad de encontrar el resultado en este intervalo de la campana de Gauss ,en lugar de
SD el cual nos arrogaría solo un 68,3% de probabilidad.
Discusión:
Los valores promedio entre las determinaciones con el picnómetro vacío y lleno manteniendo constante
el contenido presentaron muy poca fluctuación en sus datos respectivamente. Mientras cuando se
modificó el contenido del picnómetro la variación fue más notoria .Al evaluar los promedios entre el
picnómetro lleno constante y vaciando parcialmente obtenemos un promedio similar 42,214 y 42,206
respectivamente. Pero al evaluar su SD vemos que la determinación vaciando el picnómetro presenta un
desvío mucho mayor 0,0006 y 0,02.Esto nos permite ver que al aumentar la complejidad del método,
aumenta el error casual haciéndose más evidente la dispersión de datos. Siendo independiente del
trabajo del operador dicha variación. Tenemos que tener presente que el error casual es inevitable pero
se puede reducir tomando ciertas precauciones a la hora de trabajar.
Fundamentos:
La exactitud es una propiedad que se cumple cuando la metodología es a la vez veraz y precisa.
● Veracidad: Un método es veraz cuando hay un grado de concordancia entre el promedio de una
serie de mediciones y el valor del mesurando.
Se calculará un estadístico “t” para nuestra serie de datos y se lo comparará con un valor teórico “t”
obtenido de tablas para los grados de libertad (N-1) y el nivel de confianza que se establezca.
Para determinar la precisión del método el test a utilizar es el chi , (ya que la precisión está
estrechamente relacionada con el desvío estándar), se utilizara el cuadrado de la mínima división de la
pipeta como condición limite así pondremos como demarcación para el S la sensibilidad del instrumento.
Discusión:
Considerando a partir de los cálculos de diferencia de masa, este error sistemático en la medición puede
estar ligado al operador, al error de paralaje al enrasar o la balanza. Si la causa del error esta en los dos
primeros ítem se pone en evidencia que le error corresponde al método en análisis. En cambio sí está
ligado al 3° ítem el error es externo al método. Antes de afirmar estas suposiciones hay que evaluar el
funcionamiento de la balanza, dado que es el único factor externo que tenemos presente.
TP4: Densidad
Fundamentos:
La densidad (δ) es una magnitud física referida a la cantidad de masa contenida en un determinado
volumen.
La densidad relativa (Dr) o aparente expresa la relación entre densidades absolutas de una sustancia x
(δx) y de una sustancia patrón (δp) o de referencia, resultando una magnitud sin unidades. Como
densidad patrón suele utilizarse la densidad del agua.
Siendo:
● Picnometría:
La picnometría es un es un método que permite determinar la densidad de una muestra respecto a un
material de referencia. Esto se logra comparando la masa de un volumen de muestra con la masa del
mismo volumen de material de referencia.
El picnómetro es un recipiente con tapa y posee un diseño especial, de forma tal que permite cargar un
cierto volumen de muestra con gran precisión.
Cuando se mide una Dr, para que Vx=Vp puedan ser considerados iguales, se utiliza el mismo picnómetro
y se pueden simplificar los volúmenes.
Cuando el areómetro flota, significa que se ha llegado al equilibrio, el empuje es igual al peso del
areómetro, sabiendo el principio de Arquímedes:
Conclusión:
● Muy práctico y rápido, pero produce error sistemático causado por el material volumétrico.
● A menor volumen medido, mayor error. Debe medirse un volumen lo más grande posible para
disminuir el error.
Aerometría y Urodensímetro:
● La densidad de la solución a medir debe estar dentro de la escala del densímetro. Si es mayor
dicha densidad, debe hacerse una dilución, lo que aumentaría el error y no sería práctico,
debido a la cantidad de cuentas necesarias para realizar dicha dilución.
● Se necesita un gran volumen de muestra para que el densímetro flote dentro del recipiente
donde se lo coloca
Picnometría:
● Es poco práctico debido a que deben hacerse reiteradas mediciones de masas y muchas cuentas
para poder calcular la densidad.
● Aunque presenta diversas fuentes de error casual (llenar, secar, enrasar, verificar que no haya
burbujas, etc.); si se tiene cuidado se puede disminuir el error casual. Aun así es el método que
presenta el menor error en comparación al otro método.
Concluyendo, si la muestra es un sólido, o se desea ahorrar muestra, puede medirse por picnometría.
Fext =γ * ( π * De +π * Di ) * cos β
Fext =γ * ( π * De +π * Di )
Fext = Fγ
El tensiómetro de Lecompte Du Noüy resulta poco práctico debido a la calibración que debe
realizarse previamente a su utilización; sin embargo la determinación en sí es rápida. Por lo tanto, con
este método se obtienen coeficientes absolutos y no se necesitan soluciones de referencia, como lo
requiere el estalagmómetro.
2-ESTALAGMOMETRIA
Fundamentos:
m *g = γ * 2 * π
Siendo:
m : masa de la gota
g : aceleración de la gravedad
r : radio del estrechamiento
γ : coeficiente de tensión superficial
Existe una relación directamente proporcional entre el coeficiente de tensión superficial de un líquido
(representado por la Fγ) y la masa de una gota (representada por la fuerza peso):
m/mP = γ/γP
Siendo:
m : masa de una gota del líquido en estudio
mp : masa de una gota del líquido de referencia
γ : coeficiente de tensión superficial del líquido en estudio
γp : coeficiente de tensión superficial del líquido de referencia
m=M/N
Siendo
M : masa de N gotas del líquido en estudio
N : número de gotas del líquido en estudio
Discusión:
Conclusión:
En este método si no se tiene precaución presenta varias fuentes de error casual:
contaminación de las soluciones; que las gotas no salpiquen hacia fuera o evaporen; caída precoz de
gotas por perturbación del dispositivo y manejo de la balanza Mettler. El error se puede estimar
calculando la desviación producida por el instrumento, respectivamente.
Por la practicidad del procedimiento y por el costo de los materiales necesarios con respecto al
otro método, podemos decir que la estalagmometría es un método recomendable para el cálculo del
coeficiente de tensión superficial. Todo eso no quita que se puede usar cualquiera de los dos métodos si
el operador así lo desea y tiene en cuenta los errores y las variaciones de cada método.
TP6: Viscosidad
Fundamentos generales:
La viscosidad es la resistencia a fluir y es una propiedad tanto de líquidos como de gases. El estudio de
los fluidos en movimiento es complejo y en él, la viscosidad juega siempre un papel fundamental. El
grado de fluidez de una sustancia se caracteriza por un coeficiente típico denominado coeficiente de
viscosidad o viscosidad dinámica . Cuanto mayor sea ese coeficiente menor será la fluidez.
Los fluidos para los cuales η es constante se denominan NEWTONIANOS, al grafica la tensión de corte en
función del gradiente de viscosidad obtenemos una recta cuya pendiente es el coeficiente de viscosidad
(Figura “A”). También existen fluidos que no cumplen η constante, denominados NO NEWTONIANOS,
donde su velocidad varía con el gradiente de velocidad (Figura “B”).
Existen diferentes métodos para medir el coeficiente de viscosidad de los líquidos, los cuales utilizan
diferentes tipos de viscosímetros:
● Viscosímetro capilar (Ostwald, Ubbeholde o Cannon-Fenske).
● Viscosímetro tipo Saybolt.
● Viscosímetro de caída de bola (Stokes).
● Viscosímetro rotacional.
Durante el trabajo practico nosotros utilizaremos los métodos de de Ostwald y Stokes.
VISCOSÍMETRO DE OSTWALD
La determinación de la viscosidad con el viscosímetro de Ostwald se basa en la medida del tiempo
necesario para que un volumen determinado de líquido escurra a través de un capilar. El volumen fijo a
escurrir es el contenido entre las marcas superiores e Inferior de la oliva A del viscosímetro.
En el viscosímetro capilar el líquido fluye por acción de su propio peso. Cuando se establece una
diferencia de altura entre las columnas de líquido de las dos ramas del viscosímetro se genera una
diferencia de presiones (P0 y P1) entre las mismas, responsable de la fuerza impulsora del movimiento.
En la situación inicial, con el líquido en reposo (t = 0), la energía total del sistema se encuentra
acumulada como diferencia de presión entre las ramas. En el momento en que se inicia el movimiento
del fluido, esta energía acumulada se transformará parte en energía cinética y parte se utilizará para
vencer a las fuerzas de fricción (perdida de presión por fricción).
El análisis del proceso se basa en la ley de Poiseuille y ésta solo es válida cuando el régimen del flujo es
laminar, por lo tanto cada viscosímetro (según su geometría) tiene un rango de viscosidades cinemáticas
para el cual esto se cumple. Si se trabaja por debajo de la viscosidad cinemática mínima para un
viscosímetro, la velocidad del flujo será alta y el régimen será turbulento, y si se trabaja por encima de la
máxima el tiempo de escurrimiento será demasiado largo. Cada viscosímetro viene clasificado con un
número arbitrario y para cada uno de ellos el proveedor indica el rango de viscosidades cinemáticas que
pueden ser determinadas.
MÉTODO DE STOKES
Si se coloca en un líquido una partícula de mayor densidad que el mismo, ésta caerá por acción de su
propio peso. En el vacío, dicha partícula caería con movimiento uniformemente acelerado; pero en el seno
del líquido la esfera se mueve bajo la acción de las siguientes fuerzas: el peso, el empuje y la fuerza de
rozamiento.
Al principio del desplazamiento, estando la esfera totalmente sumergida en el líquido y partiendo
de v = 0, la esfera posee una aceleración máxima, la cual provoca un rápido aumento de su velocidad. A
medida que la velocidad aumenta, el valor de la fuerza de rozamiento también lo hace, por lo que la
aceleración se hace cada vez más pequeña y consecuentemente la velocidad aumenta cada vez menos.
Llegará un momento en el que se logre el equilibrio de fuerzas, la aceleración se haga cero y la partícula
se mueva a velocidad constante. En ese instante se dice que la partícula alcanzó la “velocidad límite”.
Si se deja caer una esfera de radio y densidad conocida en un líquido cuya viscosidad se desea
determinar, y se le permite recorrer un espacio tal que alcance la velocidad límite y, a partir de allí, se
mide el tiempo que tarda en atravesar un espacio comprendido entre dos enrases.
Midiendo la velocidad límite y conociendo la densidad del líquido; la densidad y el radio de la esfera, se
puede calcular la viscosidad absoluta como:
Conclusión:
Para utilizar el viscosímetro de Ostwald se debe tener en cuenta la η de la sustancia a medir, para elegir
el viscosímetro correcto y obtener un tiempo de escurrimiento acorde. Ya que con sustancias de η altas,
no circulará o circulará lentamente a través del capilar, y si tienen η bajas circulará rápidamente. Por lo
que existe viscosímetros con capilares para diferentes rangos de η, para asegurar un régimen laminar a
fin de que las determinaciones realizadas sean válidas. Hay que verificar el estado del viscosímetro ya
que al estar hecho de vidrio, sufre de dilatación con el paso del tiempo; esto produce un error al método
que debe considerarse para evaluar los resultados. Lo práctico de este método es que no requiere de
mucha muestra.
El método de Stokes lo usamos para medir η altas, ya que si el líquido no fuera muy viscoso, la longitud
del tubo debería ser muy extensa para alcanzar una velocidad constante. Esto no significa que el método
solo se pueda utilizar para líquidos de η altas, ya que se pueden variar las condiciones del experimento
para medir líquidos de η bajas (δ de esfera). Si bien este método es práctico por su simplicidad, la
cantidad de sustancia requerida para la medición es demasiada con respecto al método de Ostwald.
TP7: Electricidad
POTENCIOMETRIA
Para realizar mediciones de intensidad de corriente o de voltajes (tensión) en un circuito se emplean
diferentes instrumentos. Los más comunes son los llamados multímetros o polímetros.
R=V/I
Dónde:
I es la intensidad de corriente que mide el instrumento y que circula por la resistencia.
V es el valor de la diferencia de potencial dada por el instrumento.
Lo cual nos permitirá calcular la Resistencia del circuito.
Método gráfico
Siendo: Vba: el voltaje entre los bornes de la pila; Vcd: la diferencia de potencial entre los extremos de la
resistencia; i: la intensidad que circula por el circuito; ε: la fem de la pila y r: la resistencia interna de la
pila A es un amperímetro, V es un voltímetro y R es una resistencia variable.
Vba = ε-i*r
Entonces, si graficamos Vba en función de intensidad podremos determinar el valor de la fem a partir de
la ordenada al origen del gráfico.
Mediante la resistencia variable R lograremos obtener distintos valores de diferencias de potencial e
intensidades, veamos:
Vcd = i*R
Vba = Vcd
I= ε/R+r
Por la ecuación I= ε/R+r vemos que a medida que se va variando R, variará la intensidad i del circuito
Por lo tanto, para cada valor de R tendremos una dupla de valores de Vba e i, siendo:
→ Vba la diferencia de potencial leída en el voltímetro
RESISTENCIA Y RESISTIBILIDAD
Cualquier conductor por el que circula o puede circular una corriente eléctrica, ofrece una cierta dificultad
u oposición al paso de los electrones. Esta oposición se denomina resistencia eléctrica del conductor y
obliga a los electrones a perder parte de la energía eléctrica, transformándola en energía calórica o
lumínica.
La resistencia eléctrica del conductor depende de los siguientes factores:
La resistividad de un material expresa la resistencia que presenta un conductor homogéneo de una unidad
de longitud y unidad de superficie de sección.
R= (ρ*L)/S
Siendo:
R = Resistencia del conductor
ρ=Resistividad del material
L = Longitud del conductor
S = Sección de conductor
Conclusión:
PUENTE DE HILO
El puente de hilo surge como una modificación del puente de Wheatstone en donde se reemplazan las
resistencias variables R1 y R2 por un único hilo metálico, homogéneo, de sección constante (A) y
determinada longitud L. El extremo del galvanómetro en contacto con el hilo se encuentra libre para
permitir su desplazamiento.
Dado un determinado valor de RV, se desplaza el cursor hasta que se anula el paso de corriente por el
galvanómetro (ig = 0), llegándose a la situación de equilibrio donde vale que:
En la experiencia observamos que al variar la resistencia variable, se varía la longitud del puente de hilo,
para tratar de que se anule el paso de corriente por el galvanómetro (ig = 0). Se dice que el puente está
equilibrado cuando la diferencia de potencial entre los puntos A y B es nula. En este momento no
circulará corriente por el galvanómetro intercalado entre éstos.Por ende existe una compensación entre
resistencia y longitudes para mantener la igualdad:
RX * L1 = RV * L2
En serie:
ΔV = ↑ Req * It ↓
Req = R1 +R2
It = I1 = I2
En paralelo:
ΔV = ↓ Req * It ↑
It = I1 + I2
Conclusión:
Al conectar las lámparas en serie, observamos que el brillo es menor con respecto a la lámpara testigo,
esto se debe a que la intensidad de corriente que pasa por las lámparas en serie es menor que la
testigo. Otra observación es que al desconectar una de las lámparas en serie (cualquiera sea esta), todas
se apagan porque se corta el circuito y deja de circular corriente.
En cambio al conectar las lámparas en paralelo, se observa que el brillo y la intensidad es igual a la del
testigo. Al desconectar una lámpara cualquiera, del circuito conectado en paralelo, se observa que la
corriente no pasa por la lámpara desconectada pero si por las otras.
En base a lo observado concluimos que las instalaciones eléctricas hogareñas son circuitos en paralelo,
para evitar que la corriente se interrumpa, como ocurre en el caso de las luces del árbol de navidad, que
al quemarse una se apagan todas.
TP8: Electroforesis
Fundamentos:
La electroforesis es una técnica separativa que se basa en el fenómeno de migración diferencial que
experimentan partículas cargadas eléctricamente al estar bajo la influencia de un campo eléctrico. La
migración de una partícula en un medio sometido a un campo eléctrico depende de la velocidad que
adquiere en él. En una primera aproximación, se deduce fácilmente que la velocidad que adquiere una
partícula cargada eléctricamente cuando está en un campo eléctrico depende de la partícula - carga,
tamaño y forma-, de la viscosidad del medio y la intensidad del campo eléctrico aplicado. Cabe
destacar que el movimiento de las partículas también se encuentra condicionado a la difusión natural
como también a la temperatura, la fuerza iónica y el pH del medio. Una carga eléctrica inmersa en un
campo eléctrico experimenta una fuerza de atracción o repulsión.La carga se desplazará en el medio
hacia el polo que posee carga opuesta como consecuencia de la fuerza de atracción eléctrica
En un primer instante, la fuerza eléctrica imprime en la partícula cargada una aceleración inicial. Cuando
la partícula se encuentra inmersa en un fluido aparece sobre ella una fuerza de rozamiento, ya que el
fluido en el que se mueve la partícula se opone a su movimiento. La fuerza de rozamiento es
proporcional a la velocidad de la partícula, tiene igual dirección que la fuerza eléctrica pero sentido
opuesto. Apenas la molécula comienza a moverse en el solvente a causa de la fuerza eléctrica, aparece la
fuerza de rozamiento que se opone al movimiento y por lo tanto su aceleración inicial disminuye. La
fuerza de rozamiento no es constante ya que se incrementa a medida que aumenta la velocidad de la
partícula y consecuentemente disminuye progresivamente la aceleración. Llega un momento en que la
fuerza de rozamiento adquiere la misma intensidad que la fuerza eléctrica. Dado que ambas fuerzas
tienen igual dirección pero sentidos contrarios, la resultante sobre la partícula será igual a cero.
A partir de este momento, la partícula no estará afectada por aceleración alguna y se moverá a velocidad
constante siendo esta velocidad la máxima que alcanza en el seno del fluido bajo un campo eléctrico
uniforme.
La movilidad electroforética de una molécula cargada que se mueve en un campo eléctrico, se define
como el cociente entre la velocidad de la misma y el campo eléctrico aplicado. Este como ya hablamos se
ve afectada por la partícula, así como el medio y temperatura.
Se puede considerar que la movilidad es una constante física para una sustancia si se mantienen
constantes el medio y la temperatura. Por lo tanto está en íntima relación con las condiciones de trabajo
seleccionadas.
Dado: y
Discusión:
Antes de ver las corridas de lisina y del ácido aspártico, se esperaba obtener un desplazamiento negativo
para la primera y uno positivo para la segunda, por su composición química. En los diferentes
procedimientos la histidina fue utilizada como muestra testigo (error de cero), ya que se sabe que al pH
en el que se trabajó, este aa es neutra porque se encuentra en su punto isoeléctrico (la carga neta es
cero, existe un equilibrio de cargas + y -); por lo tanto no debería mostrar desplazamiento. Sin embargo
en los 3 procedimientos se vio que la histidina también se desplaza por la tira de papel y en sentido
negativo. Ese desplazamiento se debe a que en la electroforesis existe, una nube de protones que son
muy lábiles, entonces al aplicar un ΔV, estos protones se mueven como un todo hacia el polo negativo
arrastrando lo que se encuentre en su camino. Por lo tanto arrastra a la lisina, histidina y frena al ácido
aspártico, esto se conoce como efecto electroendosmótico. El efecto electroendosmótico se produce por
flujo de electrones debido a la presencia de grupos cargados de la tira de papel que a determinado pH se
ionizan. Los valores de distancia recorrida por la histidina se utilizaron para corregir los valores de las
distancias recorridas por los otros 2 aa.
Los valores obtenidos para la lisina en el grupo 6 no fueron los esperados (variable longitud), esto podría
deberse a errores en el operador a la hora de llevar a cabo la corrida ya que al cambiar la longitud de la
tira las mediciones pudieron no ser exactas por lo tanto la proporción corrida longitud no sería la
correcta.
Conclusión:
Por la fórmula de movilidad electroforética (µ) sabíamos que al aumentar la longitud de la tira,
disminuye el campo eléctrico (E):
Viendo los resultados en la experiencia donde se varió la longitud, esto se confirmó. Por lo tanto, al
aumentar la longitud, disminuye la velocidad (ya que E y v varían proporcionalmente para mantener a µ
constante) y la distancia recorrida por la partícula, es decir que se compensan las variaciones de los
parámetros involucrados:
µ = ↓v / E↓ = (↓d * L↑) / (tiempo * ∆V)
A la hora de trabajar con voltajes altos se debe tener mucho cuidado de no provocar cortocircuito, el
cual es provocado al intentar hacer que un circuito soporte una mayor intensidad de la que puede. El
valor de de intensidad que puede soportar un circuito está dado por el valor de su resistencia total.
En el gráfico de distancia en función de tiempo se observa que a medida que aumenta el tiempo de
corrida, la distancia recorrida por cada aa aumenta proporcionalmente; cuando se la somete a una caída
de potencial, esto se debe a que la movilidad (µ) es constante, lo que varían son los parámetros
involucrados:
µ = (↓d * L) / (↓tiempo * ∆V) o µ = (↑d * L) / (↑tiempo * ∆V)
TP9: Refractometría
PARTE 1: COMPROBACIÓN EXPERIMENTAL DE LAS LEYES DE REFLEXIÓN Y
REFRACCIÓN.
Cuando un haz de luz que se propaga por un medio ingresa a otro distinto, una parte del haz se refleja
mientras que la otra sufre una refracción, que consiste en un cambio de dirección del haz. Esta diferencia
generada se podrá subsanar con el índice de refracción del material asi podremos calcular la diferencia
entre el ángulo de incidencia y el de refracción del haz (antes y después de ingresar al nuevo material).
Un rayo se refracta cuando pasa de un medio a otro en el que viaja con distinta velocidad. En la
refracción se cumplen las siguientes leyes:
n1sen i = n2 sen r
Cuando la luz se refracta cambia de dirección porque se propaga con distinta velocidad en el nuevo
medio. Como la frecuencia de la vibración no varía al pasar de un medio a otro, lo que cambia es la
longitud de onda de la luz como consecuencia del cambio de velocidad. Si n2 es mayor que n1, como en el
caso de la luz cuando pasa desde el aire (n 1) al vidrio o al agua (n2), el rayo refractado se curva y se
acerca a la normal. En el caso contrario, es decir, si el rayo de luz pasa del medio 2 (agua) al medio 1
(aire) se aleja de la normal. Cuando el rayo de luz pasa de un medio más lento a otro más rápido se aleja
de la normal.
A un determinado ángulo de incidencia le corresponde un ángulo de refracción de 90º y el rayo
refractado saldrá "rasante" con la superficie de separación de ambos medios. Este ángulo de incidencia
se llama ángulo límite o ángulo crítico. Esto sucede cuando se incide desde un medio con un índice de
refracción menor al del objeto al que se le está apuntando con el rayo de luz.
Un rayo incidente cambia más o menos de dirección según el ángulo con que incide y según la
relación de los índices de refracción de los medios por los que se mueve.
Conclusión:
Se ha realizado, la corroboración de la ley de Snell la cual plantea una relación entre el ángulo de
incidencia y el de refracción, teniendo en cuenta el medio por el cual circula un rayo de luz.
A partir de dicha ley se puede establecer que cuanto mayor sea el ángulo de incidencia mayor va
ser el ángulo de refracción. Esto es conforme, cuando aumenta el ángulo de incidencia, el rayo
refractado se aparta de la normal. El aumento del ángulo de refracción se provoca por el cambio de
medio que sufre el rayo de luz, este irá aumentando hasta llegar a un valor máximo llamado ángulo
limite el cual, al ser superado, solo se verá reflexión total. Utilizando un puntero láser y una placa de
acrílico se pudo corroborar la ley de Snell de forma empírica
PARTE 2: REFRACTOMETRÍA
Fundamentos:
El índice de refracción es una constante física que permite, entre otras cosas, determinar la
concentración de determinadas sustancias disueltas en solución.
Refractómetro de Abbe:
Este refractómetro aprovecha la formación del ángulo límite luego de que la luz incidente atraviesa la
sustancia (x) e incide en el prisma rectangular.
Si el rayo S incide en I, paralelo a la cara BC del prisma y rasante a la superficie de separación entre
ambos medios (sustancia X-prisma) se refractará en el medio más refringente (prisma) con el ángulo
límite; al llegar a la cara AB se refractará nuevamente y abandonará el prisma formando un ángulo α con
la normal a dicha cara (S’)
Cuando incide un rayo P en el punto I, con un ángulo de incidencia menor de 90°, forma
dentro del prisma un ángulo de refracción L´ menor que el límite (L). De este modo el rayo
alcanza la cara AB en I´´, un punto situado a la izquierda de I´. Esto es válido para cualquier
otro rayo que incida en la cara BC con un ángulo menor de 90°. Por lo tanto el rayo S define la
situación extrema de refracción en el prisma. El rayo emergente de la cara AB del prisma señala
el límite de separación entre las regiones de luz y sombra. Si un observador se encuentra
situado en el punto D del esquema, visualizará a través del anteojo del refractómetro dichas
zonas de luz y sombra.
El rayo S define la situación extrema de refracción del prisma. El rayo emergente de la cara AB
del prisma señala el límite de separación entre las regiones de luz y sombra.
En el refractómetro se mide entonces el valor del ángulo α; conociendo el índice de refracción del
prisma (N) y su ángulo de refringencia (ω) se puede determinar el valor del ángulo límite (L) y finalmente
calcular el nx de la sustancia en estudio.
Si incide un rayo rasante a la hipotenusa del prisma, aplicando la ley de Snell, tendremos:
O sea,
Luego, nuevamente aplicando la ley de Snell para la segunda refracción (cara AB del prisma):
Discusión:
Uno de los problemas que se nos presentó a la hora de medir con el refractómetro de Abbe fue que
a pequeñas cantidades de sustancia no se llegaba a distinguir bien por lo tanto no se podía medir
adecuadamente.
En esta experiencia también es muy importante el rol del operador ya que se debe ser preciso a la
hora de medir el n y se torna complicado hacer coincidir la escala del refractómetro.
Además se debe tener en cuenta la correcta calibración del instrumento antes de llevar acabo
nuestras mediciones
Conclusión
Se corroboró la calibración del equipo utilizando las muestras de concentración conocida y la tabla
de los índices de refracción de dichas muestras.
A partir de los gráficos realizados se obtuvo una relación entre el índice de refracción y las
concentraciones de las muestras, por una parte el propilenglicol presentó una relación lineal
mientras que la del isopropanol fue una relación cuadrática. Además, a partir de los mismos
gráficos se obtuvo las concentraciones de las muestras incógnitas. Al determinar esto se pudo
constatar que el índice de refracción, propiedad física, aumenta a medida que las soluciones son
más concentradas (debido a que el rayo de luz pierde velocidad, le cuesta más atravesar el
medio) . Igualmente, no existe una relación directa entre la concentración y el índice de
refracción de todas las sustancias. Debido a que la velocidad de la luz cambia de forma
cuantitativa dependiendo del medio por el cual se propague. Por lo tanto cada sustancia
reaccionara diferente al ser atravesada por la luz.
TP10: Polarimetría
Fundamento:
La actividad Óptica es una propiedad que poseen ciertas sustancias de rotar el plano de vibración de la
luz linealmente polarizada que las atraviesa. Puede darse tanto en sólidos, como en líquidos y
soluciones.
La rotación (α) del plano de vibración de la luz linealmente polarizada con la naturaleza y geometría del
sistema ópticamente activo atravesado, se conocen como Leyes de Biot. Estas leyes se dividen en 4
ecuaciones fundamentales, donde (α) es la rotación medida en grados sexagesimales, (l) la longitud en
milímetros para sólidos o en decímetros para líquidos y soluciones, (δ) la densidad expresa en gramos
por mililitro y (c) laconcentración expresa en gramos por mililitro o en concentración molar.
La primera Ley de Biot se usa para sólidos ópticamente activos:
La segunda para líquidos puros:
La última para situaciones en las que existe en la muestra más de un componente ópticamente activo,
de distinta naturaleza química:
El poder rotatorio específico (α)tDes una constante física propia de las sustancias ópticamente activas
.Este se ve afectado por una longitud de onda específica ,temperatura , frecuencia de la luz empleada, el
solvente empleado para disolver solutos ópticamente activos, la aplicación de campos eléctricos o
magnéticos a la muestra y así también la aplicación de esfuerzos mecánicos.
En el trabajo práctico de polarimetría se determinará experimentalmente el poder rotatorio específico
(α)tDdel azúcar de caña -en solución acuosa y a temperatura ambiente- a partir de la pendiente de un
gráfico de α= f (concentración).Se utilizará para tal fin el Polarímetro de Laurent, un instrumento que
permite medir cuántos grados ha rotado el plano de vibración de la luz linealmente polarizada luego de
atravesar la sustancia contenida en un tubo. Un esquema de sus partes puede ser el siguiente:
La posición de lectura se alcanza logrando que los dos semicampos se encuentren igualmente
iluminados y lo más oscuro posible. Se escoge la situación de igualdad en penumbra debido a
que el ojo humano detecta mejor una pequeña variación de intensidad lumínica cuando la
cantidad de luz en el campo visual es poca. Al ir rotando el analizador mientras se mira por el
ocular se le presentan al ojo las situaciones esquematizadas en la siguiente figura:
Método:
[α]=Pendiente de la recta obtenido/Paso óptico
Conclusión:
Se cumplieron los objetivos con éxito. Se determinó el poder rotatorio específico (α) de la
muestra de sacarosa a partir de la pendiente del grafico realizado con los datos de rotación
según cc alcanzados con el polarímetro de Laurent. En esta experiencia se descartó el valor del
solvente para la obtención de α ya que se utilizó como tal el agua que es ópticamente inactivo,
es decir no genera cambios en el plano de la luz.
TP11: Espectroscopia
Fundamento:
● Prisma.
● Colimador.
● Ocular.
La fuente de luz, cuyas radiaciones se desea observar, se coloca frente al colimador. Este dispositivo
posee una ranura de entrada de luz, que permite que el haz luminoso se dirija hacia el prisma en forma
de haz discreto. En el prisma la luz se refracta, por lo que las radiaciones de distinta longitud de onda se
separan y esto se aprecia al observar por el ocular. Si, por ejemplo, la fuente de luz es una lámpara de
tungsteno (luz blanca), lo que veremos desde el ocular será el espectro visible descompuesto desde el
rojo hasta el violeta. El espectroscopio se puede utilizar para evaluar tanto espectros de absorción como
de emisión. Si interponemos entre la fuente de luz y el colimador tubos conteniendo solución coloreada,
estaremos evaluando el espectro de absorción del colorante, o sea que parte del espectro antes visible,
desaparece.
1-OBSERVACION DE ESPECTROS DE ABSORCION
Objetivos:
Resultados:
ESPECTROSCOPIO
Sc coloreadas Color Absorción
Paranitrofenol Amarillo Violeta
Naranja de metilo Naranja Verde-Azul-Violeta
Eosina Naranja Verde-Azul-Violeta
Verde Brillante Turqueza Rojo-Amarillo
Rojo Ponceau Rojo Amarillo-Verde-Naranja-Azul-Violeta
Rojo Ponceau (alcalino) Bordo Amarillo-Verde-Naranja-Azul-Violeta
Rojo Fenol Amarillo Verde-Azul-Violeta
Rojo Fenol (alcalino) Fuxia Amarillo-Verde-Azul-Violeta
Azul de metileno Celeste Rojo
Objetivos:
1. Cargar una cubeta con agua, otra con la solución de azul de metileno, otra con la solución de
Paranitrofenol y en una 4º cubeta mezclar 1,5 ml de cada una de las soluciones.
2. Fijar la en 400 nm.
3. Colocar la cubeta con agua y llevar a cero el espectrofotómetro.
4. Medir la absorbancia de las 3 soluciones coloreadas desde 400nm hasta 700nm variando la longitud de
onda de a 10nm.
5. Cambiar la longitud de onda y repetir desde el paso 2.
6. Confeccionar un gráfico Abs= f () para las 3 soluciones (azul de metileno, paranitrofenol y solución
mezcla) en un mismo par de ejes.
Discusión:
Durante la experiencia hubo diferentes factores que pudieron generar discrepancias los cuales fueron:
● Se midió la transmitancia mediante el espectrofotómetro, ya que poseía una escala más
sensible; luego usando su relación, se pasó a absorbancia, lo que aumenta el error ya que no
se realiza una medida directa.
● Las cubetas, se debe realizarse un control de cubetas midiendo las transmitancias de todas
con agua, si las cubetas poseen rayaduras o estan sucias, generan un error en las lecturas de
transmitancia.
● Se debe tener un buen manejo de las soluciones para evitar contaminaciones cruzadas, esto
más que todo si los frascos no están fraccionados.
● Tomar la precaución de realizar correctamente la mezcla,es decir medir bien la cantidad
correspondiente para generar una desviación en la lectura.
Conclusión:
El paranitrofenol (amarillo) tuvo un pico de absorbancia entre los 400 y los 450 nm aprox. (zona de
violetas y azules), el azul de metileno (azul), tuvo un pico de absorbancia en aprox. 650 nm (zona de
naranjas y rojos) y la mezcla tuvo 2 picos en las mismas zonas que los colorantes puros, pero de menor
absorbancia. Esto se debe a que en las zonas que absorbia el paranitrofenol transmitia el azul de metileno
y viceversa, haciendo que baje la absorbancia en dichos picos con respecto a los colorantes
puros.Cuando se realiza un barrido con soluciones coloreadas , los picos de absorbancia de las muestras
se van a encontrar en las longitudes de onda correspondiente al color complementario al de dicha
solución,dejando pasar las demás.Al realizarse la mezcla los picos se van a encontrar en la misma
longitudes que los colorantes puros pero disminuidos.
TP12: Espectrofotometría
1-CONTROLES DE UN ESPECTROFOTOMETRO.
Fundamento:
4. Control de cubetas
Se realiza para comprobar las cualidades ópticas y de construcción de las cubetas de medida. Se realiza
midiendo la T % de las cubetas llenas de agua o solución diluida de colorante, tomando una cubeta como
referencia y verificando las desviaciones de las demás con respecto a ésta. No debería existir una
variación superior al 1% de T, en caso contrario se deberá corregir como error sistemático.
6. Control de veracidad
Este control se realiza luego de haber verificado los controles anteriores, y permite analizar la veracidad
de los resultados obtenidos con el equipo.
A través de este control se verifica la concordancia entre la absorbancia de referencia, obtenida con una
solución standard en un equipo calibrado, y la absorbancia medida para la misma solución pero en el
equipo que se está controlando.
2- APLICACIONES DE LA ESPECTROFOTOMETRÍA.
Fundamento:
Realizando diluciones de una solución madre y midiendo sus absorbancias se puede realizar un gráfico
de Abs = f(cc). Su m=A/c multiplicada por 1/l (siendo l el paso de la cubeta: 1cm), permite averiguar la
absortividad (a).
Método de Biuret: los enlaces peptídicos de las proteínas reaccionan con el ion cúprico en medio
alcalino para dar un complejo coloreado con un máximo de absorción en 540 nm. La absorción de esta
solución es proporcional a la cc de las proteínas totales presentes en la muestra.