Tiempo y Lapso
Tiempo y Lapso
El tiempo es una magnitud física y por lo tanto se puede medir. La anotamos con la letra t. Su
unidad en el sistema MKS es el segundo (s) pero como toda unidad pueden usarse sus
múltiplos (horas, días, años, etc.) o submúltiplos (milisegundos, nanosegundos, etc.) según la
conveniencia. El lapso, en cambio, es el intervalo de tiempo transcurrido entre dos instantes
de tiempo. Para distinguir un tiempo de otro, a la letra t de tiempo le agregamos subíndices,
por ejemplo (t1 o t2 o t3, etc., y leemos “instante de tiempo uno” o “instante de tiempo dos”,
etc.).
Es importante resaltar que tanto el tiempo como el lapso son magnitudes escalares y tienen las
mismas unidades pero que no son magnitudes iguales. El tiempo mide “instantes” desde un
tiempo inicial (los relojes que usamos cotidianamente, por ejemplo, marcan los instantes de
tiempo desde la medianoche) el lapso mide diferencias entre dos tiempos cualesquiera. Así
como necesitamos definir un sistema de referencia espacial para describir la posición de un
cuerpo, también necesitaremos definir un sistema de referencia temporal, es decir definir en
qué momento comenzamos a medir el tiempo, a ese tiempo se lo suele llamar t0.
INCERTIDUMBRE EN LAMEDICION
Medición: Es una operación que compara el valor de una magnitud dada con la respectiva unidad
estándar. Esta puede ser directa o indirecta. Las medidas pueden ser por ejemplo la longitud, masa o
tiempo, estas son directas porque comparamos directamente el valor de la magnitud con la unidad
estándar. Mientras la medición indirecta, son aquellas en las cuales el resultado deseado no lo
obtenemos directamente de las lecturas realizadas con los instrumentos, sino que es necesario emplear
los datos obtenidos para hallarla cantidad deseada mediante algunos cálculos.
absolutamente exactas.
margen de duda.
• Errores sistemáticos que son una desviación constante de todas las medidas ya sea siempre
hacia arriba o siempre hacia abajo del valor real y son producidos, por ejemplo, por la falta de
calibración del instrumento de medición.
Cuando al realizar una serie de medidas de una misma magnitud se obtienen los mismos
resultados, no se puede concluir que la incertidumbre sea cero; lo que sucede es que los
errores quedan ocultos ya que son menores que la incertidumbre asociada al aparato de
medición.
Cuando se hacen repeticiones de una medida y estas resultan diferentes, con valores x1,
x2,...,xN, surgen las preguntas:
2.2.1 Medidas de tendencia central La medida más común de la tendencia central de una
muestra o conjunto de mediciones está dada por el promedio o media aritmética. Sin
embargo, algunas veces este valor no basta y es necesario calcular otras variables estadísticas
que ayuden a analizar el resultado de una medición. Estas variables estadísticas son la media y
la moda .
2.2.1.2 La mediana es el valor de la medición que divide la muestra en dos mitades: una mitad
son aquellas mediciones menores a la mediana y la otra mitad es el conjunto de mediciones
mayores que la mediana.
3 cifras significativas
Una manera alternativa para reportar las mediciones es mediante el uso de las cifras
significativas, que son aquellas que se conocen de manera razonablemente confiable; de este
modo la incertidumbre está implícita en el último dígito y es igual a la mitad de una unidad del
orden del digito menos significativo.
En el trabajo científico encontramos dos tipos de números: los números exactos (aquellos cuyos valores
se conocen con exactitud), y los números inexactos (aquellos cuyos valores tienen cierta incertidumbre).
La mayoría de los números exactos que encontraremos en las actividades experimentales tienen valores
definidos. Por ejemplo, en una docena de huevos hay exactamente 12 huevos, en un kilogramo hay
exactamente 1000g, en una pulgada hay exactamente 2,54 cm. Los números que se obtienen por
mediciones siempre son inexactos. El equipo utilizado para medir cantidades siempre tiene limitaciones
inherentes (errores de equipo), y hay diferencias en la forma en que las personas realizan la misma
medición (errores humanos). Suponga que a 10 estudiantes con 10 balanzas se les da la misma moneda
para que determinen su masa. Es probable que las 10 mediciones varíen un poco entre sí por diversas
razones. Las balanzas pueden estar calibradas de manera ligeramente distinta, y puede haber
diferencias en la forma en que cada estudiante lea la masa de la balanza. Recuerde: siempre existe
incertidumbre en las cantidades medidas.
Exactitud: Indica la proximidad entre los valores de medida y el valor verdadero, es una medida muy
exacta si estuviese próxima del valor verdadero, pero, raramente se puede hablar de exactitud de una
medida, apenas podemos hacerlo cuando existe un valor estandarizado por tablas. La exactitud de las
medidas está relacionada con los errores sistemáticos, estos hacen desplazar los valores de las medidas
en el mismo sentido.
Precisión: Se designa la concordancia entre los diversos valores medidos para la misma magnitud en
las mismas condiciones, o sea, la repetitividad de la medida. Si tuviéramos varias medidas, existe una
gran precisión cuando solo existe una pequeña dispersión de valores y la más precisa es aquella cuyo
desvío es menor (la que está más próxima del valor medio).
La precisión de las medidas está relacionada con los errores accidentales (cuanto mayor fuese la
dispersión de las medidas, más errores accidentales fueron cometidos)
4. INCERTIDUMBRE: La guía ISO 3534-1 [ISO 1993], define incertidumbre como “una
estimación unida al resultado de un ensayo que caracteriza el intervalo de valores dentro de
los cuales se afirma que está el valor verdadero”. Esta definición tiene poca aplicación práctica
ya que el “valor verdadero” no puede conocerse. Esto ha hecho que el Vocabulario de
Metrología Internacional, VIM [BIPM, 1993], evite el término “valor verdadero” en su nueva
definición y defina la incertidumbre como “un parámetro, asociado al resultado de una
medida, que caracteriza el intervalo de valores que puede ser razonablemente atribuidos al
mensurando”. En esta definición el mensurando indica: “la propiedad sujeta a medida” [BIPM
1993 Oficina Internacional de Pesas y Medidas]. El contenido de zinc en un acero o el índice de
octano en gasolina son dos ejemplos de mensurando en análisis químicos. El concepto de
incertidumbre refleja, pues, duda acerca de la veracidad del resultado obtenido una vez que se
han evaluado todas las posibles fuentes de error y que se han aplicado las correcciones
oportunas. Por tanto, la incertidumbre nos da una idea de la calidad del resultado ya que nos
muestra un intervalo alrededor del valor estimado dentro del cual se encuentra el valor
considerado verdadero. Adaptado de: http://www.quimica.urv.net/quimio/general/incert.pdf
5. CLASES LOS ERRORES: El error se define, tal como habíamos dicho, como la diferencia entre
el valor verdadero y el obtenido experimentalmente. Los errores no siguen una ley
determinada y su origen está en múltiples causas. Atendiendo a las causas que lo producen, los
errores se pueden clasificar en dos grandes grupos: errores sistemáticos y errores accidentales.
Error sistemático: Es aquel que es constante a lo largo de todo el proceso de medida y, por
tanto, afecta a todas las medidas de un modo definido y es el mismo para todas ellas. Estos
errores tienen siempre un signo determinado y las causas probables pueden ser:
Errores instrumentales (de aparatos); por ejemplo, el error de calibrado de los instrumentos.
Error personal: Este es, en general, difícil de determinar y es debido a las limitaciones de
carácter personal. Como, por ejemplo, los errores de paralaje, o los problemas de tipo visual.
Errores de método de medida, que corresponden a una elección inadecuada del método de
medida; lo que incluye tres posibilidades distintas: la inadecuación del aparato de medida, del
observador o del método de medida propiamente dicho.
Error aleatorio: Son aquellos que se deben a las pequeñas variaciones que aparecen entre
observaciones sucesivas realizadas por el mismo observador y bajo las mismas condiciones.
Las variaciones no son reproducibles de una medición a otra y se supone que sus valores están
sometidos tan sólo a las leyes del azar y que sus causas son completamente incontrolables
para un observador. Los errores accidentales poseen, en su mayoría, un valor absoluto muy
pequeño y si se realiza un número suficiente de medidas se obtienen tantas desviaciones
positivas como negativas. Y, aunque con los errores accidentales no se pueden hacer
correcciones para obtener valores más concordantes con los reales, si pueden emplearse
métodos estadísticos, mediante los cuales se pueden llegar a algunas conclusiones relativas al
valor más probable en un conjunto de mediciones.
Bibliografía [1]
International Standard ISO 17123-3: 2001. Optics and optical instruments – Field procedures
for testing geodetic and surveying instruments – Part 3: Theodolites. International
Standardization Organization. ISO (2007).
International Vocabulary of Metrology – Basic and General Concepts and Associated Terms.
3rd ed. (Geneva: ISO).