Está en la página 1de 14

Antecedentes de la física (Históricos)

El ser humano, desde el principio de los tiempos, ha tenido la curiosidad y el


hábito de querer aprender la explicación al porqué de los sucesos y fenómenos
que acontecían alrededor suyo. Los cambios del clima, los astros celestes y su
movimiento cíclico, el aire, la tierra, el fuego etc.
Nace de esta forma la filosofía que sería el antecedente de la física actual. De
forma puramente experimental se comienzan a considerar las leyes que rodean al
hombre. De esta forma, podemos ver en un antiguo texto de Ptolomeo llamado
“Almagesto”, donde el autor afirma que la Tierra es el centro del universo y que los
astros giran alrededor de ella. Esta afirmación fue considerada como una ley real
durante muchos siglos después.
Destacó por allá en el siglo XVI uno de los pioneros de la física y claramente el
antecedente de la física moderna. Su nombre Galileo Galilei. A él le debemos
grandes estudios sobre el movimiento de los astros, y ya por entonces comenzó a
utilizar los primeros telescopios que se inventaban en el mundo. Tantos siglos
atrás, Galileo observó por primera vez los satélites que giran en torno a Júpiter. Lo
que demostraba, según el modelo heliocéntrico de Copérnico que no todos los
astros giraban alrededor de la tierra, lo que dejaba de forma más probable a la
tierra como el elemento que giraba en torno al sol.
Otro impulsor de la física y antecedente de la física moderna fue sin duda Isaac
Newton, cuya obra “philosophiae naturalis” de 1687 marcó un hito en la historia de
la física describiendo las leyes de la dinámica más conocidas hoy en día como las
“leyes de Newton”.
En esta misma época surgió
de la mano de Newton y de
Leibniz uno de los principios
más básicos sobre las leyes
de la física, que indican que
estas leyes no son
universales, cambian en
función del lugar del universo
donde se apliquen. En 1895 Roentgen descubrió los rayos X ondas
electromagnéticas de frecuencias muy altas.
El avance de las matemáticas permitió a la física convertirse en una ciencia capaz
de predecir futuros efectos y de realizar predicciones sobre los fenómenos que
tanto tiempo han causado y causarán curiosidad en el ser humano.
Método científico
La Ciencia implica el estudio de un área del conocimiento. Este conocimiento es
racional, porque ha sido originado a lo largo de años y años de trabajo, por
innumerables personalidades dedicadas a la Ciencia.
La Ciencia como producto la conforma el conjunto de hechos, principios, teorías y
leyes que el ser humano ha formulado para comprender la realidad que lo rodea y
que luego le ha permitido transformarla.
El método científico esta sustentado por dos pilares fundamentales. El primero de
ellos es reproducibilidad, es decir, la capacidad de repetir un determinado
experimento de cualquier lugar y por cualquier persona. Este pilar se basa,
esencialmente en la comunicación y publicidad de resultados obtenidos. El
segundo pilar es la falsabilidad, es decir que toda proporción científica tiene que
ser susceptible de ser falsada. Esto quiere decir que se puede diseñar
experimentos que en el caso de dar resultados distintos a los predichos negaría la
hipótesis puesta a prueba.
Así la ciencia adquiere su verdadera importancia, al permitir que la persona
desarrolle una cultura científica para abordar los problemas.
Los pasos generalmente establecidos por el Método Científico son:
1. Observación del fenómeno. - Consiste en fijar la atención en un
fenómeno e identificar aquellas características físicas cuyas
variaciones ayuden a descubrir el fenómeno físico.
2. Formulación de hipótesis. - Son suposiciones o explicaciones,
verdaderas o falsa, después de observar el fenómeno físico.
3. Experimentación. - Es la reproducción de los fenómenos o
hechos observados con el fin de comprobar o desechar una
hipótesis mediante la medición de cantidades físicas.
4. Conclusiones o principio. - Se establece cuando la hipótesis de
un fenómeno llega a comprobarse tanto de forma cuantitativa como cualitativa a
través de la experimentación; es decir, para un fenómeno siempre se obtienen los
mismos resultados. En algunos casos, las leyes físicas obtenidas se pueden
enunciar por una expresión matemática.
Después de las observaciones, el científico se plantea el cómo y el porqué de lo
que ha ocurrido y formula una hipótesis. Formular una hipótesis consiste en
elaborar una explicación provisional de los hechos observados y de sus posibles
causas: la hipótesis es una o varias explicaciones anticipadas que nos permiten
vislumbrar la solución al problema. También podemos decir que las hipótesis son
suposiciones que hacemos con base en las observaciones y conocimientos que
tengamos de los hechos que originaron el problema. Una hipótesis no puede
formularse sin una base de juicio. De hacerlo, podríamos caer fácilmente en
absurdos que desvíen nuestra investigación. Pero, es bueno aclarar que no todas
las hipótesis son ciertas.
Para que la hipótesis se convierta en solución al problema
debemos comprobarla. Una hipótesis bien formulada, nos
debe señalar el camino para comprobarla.
En síntesis, las hipótesis cumplen dos funciones: una
teórica, por cuanto permiten organizar y compilar los
resultados ya obtenidos facilitando su estudio posterior. Y
una función práctica, puesto que orientan al investigador
dirigiéndolo por el camino de una probable solución.
Experimentación: Comprobación de la hipótesis. Una vez formulada la hipótesis, el
científico debe comprobar si es cierta. Para ello realizará.
Sistemas de unidades de medida
Un sistema de unidades es una colección de unidades de medida y reglas que
relacionan a dichas unidades entre sí. En este sentido, se entiende a los sistemas
de unidades como conjuntos de unidades de medida estandarizada y uniforme.
Los sistemas de unidades han jugado un papel fundamental en la ciencia y el
comercio, ya que han permitido regular y unificar múltiples conceptos.
Los sistemas de unidades se dividen en dos grupos el sistema métrico y el
sistema imperial. Sin embargo, es posible encontrar otros sistemas de unidades
en el mundo, como el natural, el técnico, el decimal, el cegesimal y el anglosajón,
entre otros.
No obstante, la mayoría de estos sistemas de unidades tiende a derivarse de las
mismas unidades de medida, aquellas dadas por los sistemas métrico o imperial.
En pocas palabras, los sistemas de unidades pueden medir magnitudes de fuerza,
masa, tiempo, área, velocidad, volumen, longitud, entre otras.
Clasificación de los sistemas de unidades:
Los sistemas de unidades fueron ideados por primera vez en Francia a finales del
siglo XVIII. Nacen gracias a la necesidad de poder contabilizar y medir las cosas
haciendo uso de los mismos patrones o condiciones.
Sin embargo, estos han evolucionado enormemente a lo largo del tiempo
conforme las necesidades de los seres humanos cambian.
El primer sistema que se implementó fue el métrico decimal, no obstante, hoy en
día
El Sistema Métrico Decimal o simplemente sistema métrico, es un sistema de
unidades basado en el metro, en el cual los múltiplos y submúltiplos de una unidad
de medida están relacionadas entre sí por múltiplos o submúltiplos de 10. Se
pretendía buscar un sistema único para todo el mundo para facilitar el intercambio
comercial, ya que hasta entonces cada país, e incluso cada región, tenían su
propio sistema, a menudo con las mismas denominaciones para las magnitudes,
pero con distinto bases.
Se muestra los cambios que as sufrido el Sistema Métrico Decimal, hasta llegar a
lo que hoy se conoce como Sistema Internacional de Unidades.
El Sistema Internacional es el más aceptado en el mundo, el Sistema Inglés,
cuyas unidades se han redefinido en función a las unidades del Sistema
Internacional. La desventaja más notoria del Sistema Inglés es que no existe una
relación sencilla entre sus unidades. Existen otros sistemas de unidades y
unidades que no están en ningún sistema. Nosotros usaremos preferentemente el
Sistema Internacional y en ocasiones el Sistema Inglés.
Medición
Medir es comparar una magnitud con otra de la misma clase y que se elige
arbitrariamente como unidad. La unidad de medida es una cantidad estandarizada
de una determinada magnitud física. Una unidad de medida toma su valor a partir
de un patrón. Un patrón de medida es un objeto o substancia que se emplea como
muestra para medir alguna magnitud.

Ejemplo de patrones de medida:


1. Segundo
2. Metro
3. Amperio
4. Mol
5. Kilogramo
6. Kelvin
7. Candela

Ejemplos de definiciones de patrón de medida:


Metro (patrón) Kilogramos (patrón) Segundo (patrón)

Metro patrón Kilogramo Primero se definió como E un principio se defino


patrón Segundo patrón la masa de un decímetro como la 1/86400 parte
Inicialmente esta unidad cúbico de agua en su del día solar medio, y
de longitud fue definida máxima densidad (4°C). como la 1/31556962
como la diezmillonésima Su definición actual es la parte del primer año
parte de la distancia que siguiente: un kilogramo trópico del siglo XX
separa el polo de la línea patrón equivale a la (1900). En la actualidad,
del ecuador terrestre. La masa de un cilindro se define como la
definición actual del hecho de platino e iridio, duración de 9192631770
metro patrón el cual se conserva en la ciclos de la radiación de
corresponde a la longitud Oficina Internacional de cierta transición del
de luz recorrida por la luz Pesas y Medidas electrón en el átomo de
en el vacío durante un localizada en París, cesio de masa atómica
intervalo de tiempo de Francia. 133.
1/299792458 de
segundo.

Al patrón de medir le llamamos también Unidad de Medida. Debe cumplir estas


condiciones:
1. Ser inalterable, esto es, no ha de cambiar con el tiempo ni en función de quién
realice la medida.
2. Ser universal, es decir utilizada por todos los países. 3. Ha de ser fácilmente
reproducible.
Tipos de mediciones:
Medición directa: es aquella que se realiza aplicando un aparato para medir una
magnitud, por ejemplo, medir una longitud con una cinta métrica.
Mediciones indirectas: se calcula el valor de la medida mediante una fórmula
(expresión matemática), previo cálculo de las magnitudes que intervienen en la
fórmula por medidas directas. Un ejemplo sería calcular el volumen de una
habitación.

ERRORES DE MEDICIÓN
Realmente cada vez que medimos, tenemos una gran probabilidad de cometer
algún tipo de error que nos ofrezca un resultado más o menos alejado del que
realmente deberíamos obtener. Y es que medir, es más bien un proceso
aproximado que exacto
Cuando realizamos una medición siempre se tiene cierto grado de incertidumbre.
Esto se debe a las limitaciones de los instrumentos de medida, a las condiciones
en que se realiza la medición, así como también, a las capacidades del
experimentador. Es por ello que para tener una idea correcta de la magnitud con la
que se está trabajando, es indispensable establecer los límites entre los cuales se
encuentra el valor real de dicha magnitud.
Los resultados que se obtienen en el proceso de medición son aproximados,
debido a la presencia del error experimental.
El error experimental (e) es inherente al proceso de medición y su valor solamente
se puede estimar. Dicho error está definido como la diferencia entre el valor
medido y el valor verdadero de la cantidad medida.

e = Vm – Vv
Error = Valor medido – Valor verdadero

Tipos de errores
Debido a que los errores pueden surgir por distintas causas, los científicos las
clasifican por su análisis en dos amplias categorías:

Sistemáticos
Errores
Aleatorios

Errores sistemáticos: Son errores relacionados con la forma en la que su utiliza


el instrumento de medida. Dentro de estos podemos distinguir otros como el error
de calibrado o el error de paralaje.
Se caracteriza por su reproducibilidad cuando la medición se realiza bajo
condiciones iguales, es decir siempre actúa en el mismo sentido y tiene el mismo
valor. El error sistemático se puede eliminar si se conoce su causa. Estos errores
se pueden originar por:
1. Defectos o falta de calibración del instrumento empleado en la medición.
2. Las condiciones del medio ambiente en que se realiza la medición.
3. Malos hábitos y una forma peculiar de realizar las observaciones por parte del
experimentador.
4. Por el empleo de constantes cuyos valores no corresponden al lugar donde
realizan las mediciones o cálculos.

Errores aleatorios o accidentales: Se tratan de errores que se producen debido


a causas que no se pueden controlar. Para intentar reducir el efecto de este tipo
de errores se suele medir varias veces en las mismas condiciones y se considera
como valor final más probable la media aritmética de los datos obtenidos.
Dado que todas las medidas están afectadas por un error experimental, en el
mundo científico es común hacer constar cada resultado obtenido en una medición
junto con la incertidumbre sobre esa medida. La incertidumbre es un valor
numérico que se obtiene por medio de dos nuevos conceptos denominados error
absoluto y error relativo.
Notación científica
Los números muy pequeños y muy grandes son frecuentes en la ciencia y la
ingeniería, al tratar con datos cuantitativos es posible que nos encontremos con
cantidades muy grandes, como por ejemplo la masa del Sol
(1990000000000000000000000000000 Kg), o muy pequeñas como la masa del
electrón (0.00000000000000000000000000000009109 Kg) ¡Imagínate trabajar
con estos números! Para evitar esto se emplea un sistema que se llama Notación
Científica.
La Notación Científica nos permite expresar cualquier número como el producto de
otro número entre 1 y 10 multiplicado por una potencia entera de 10. Por ejemplo:
83 400 000 000 = 8.34 x 1010 y 0.000 000 005 6 = 5.6 x 10-9 Las potencias de
10, desde 10-6 hasta son las 106 siguientes:

Expresa la cantidad 670 000 con una sola cifra entera, utilizando la potencia con
base 10. Como se puede observar, 670 000 consta de seis cifras enteras, para
expresarlo con una sola cifra entera, debemos recorres el punto decimal cinco
posiciones:
6. 70 000.
Por lo tanto, 670 000 = 6.7 X 105

Observa que el exponente indica los espacios que mueves el punto decimal hasta
colocarlo enseguida del primer dígito diferente de cero, si lo mueves a la izquierda
el exponente es positivo, si lo mueves a la derecha es negativo.
COLEGIO DE BACHILLERES DE TABASCO N.12

PORTAFOLIO DE EVIDENCIA

FISICA I

MAESTRO:
ALEX VADILLO PRIEGO

ALUMNO(A):
JOSELIN DEL CARMEN BALCAZAR BOLÓN

SEMESTRE:
3ro

GRUPO:
“A”
Frontera, Centla, tabasco, 10/10/2018

Concepto y definición de física


La palabra física proviene del vocablo griego fisis que significa “naturaleza”. Es la
ciencia que estudia las propiedades de los cuerpos y las leyes que rigen las
transformaciones que afectan a su estado y a su
movimiento, sin alterar su naturaleza. Es decir, la
ciencia encargada de analizar las
transformaciones o fenómenos físicos; por
ejemplo, la caída de un cuerpo o la fusión de un
hielo. La física es la ciencia más fundamental,
está estrechamente relacionada con las demás
ciencias naturales, y en cierto modo las engloba a
todas. La química, por ejemplo, se ocupa de la
interacción de los átomos para formar moléculas; gran parte de la geología
moderna es en esencia un estudio de la física de la Tierra y se conoce como
geofísica; y la astronomía trata de la física de las estrellas y del espacio exterior.
Los físicos orientan todos sus esfuerzos hacia el descubrimiento de las leyes que
rigen el comportamiento de los objetos en el universo y para ello se sirven de toda
una serie de símbolos, sistemas de unidades, ecuaciones, principios y
definiciones. Todos los medios que se emplean en el proceso de elaboración de
una ley física, siempre fundada en la relación entre un determinado fenómeno y su
causa, son ideados y regidos por la llamada física teórica. La física experimental,
por el contrario, centra sus premisas en la observación, el estudio racional y la
comprobación de una serie de hechos y datos referidos a un fenómeno concreto.
Aunque las ideas sobre el mundo físico se remontan
a la antigüedad, el estudio sistemático de la física
puede situarse en la segunda mitad del siglo XVI, con
los primeros experimentos de Galileo. En aquellos
años y durante los dos siglos siguientes se crearon
los métodos básicos de estudio, que dieron lugar al
desarrollo de las que más tarde sería conocida como
física clásica, basada esencialmente en los conceptos intuitivos de tiempo y
espacio y válida solamente en el ámbito macroscópico (movimiento, fluidos, calor,
sonido, luz, electricidad y magnetismo).
La física moderna, en cambio, agrupa ciertas facetas de la ciencia no
determinables en el tiempo y en el espacio y válida en el ámbito microscópico,
tales como la teoría de la relatividad de Einstein o los postulados de la mecánica
cuántica de Planck. La física por lo general presenta muchas áreas de
investigación como lo son acústica, electromagnética, mecánica, óptica,
termodinámica, atómica, nuclear, mecánica cuántica, materia condensada,
biofísica, cosmología y astrofísica.

También podría gustarte