Con un cronómetro que indica décimas de segundo medimos el tiempo que tarda en caer un borrador desde una mesa hasta el suelo y obtenemos 2.1s . Con un reloj que indica segundos , medimos el tiempo que tarda una persona en bajar 4 pisos y encontramos que es 97s.
A cual de las dos medidas se considera mas presisa ?por que?
B cual es el error absoluto y relativo en cada caso ?

Respuestas

Respuesta dada por: linolugo2006
37

Se considera más precisa la medida del cronómetro por tener una apreciación menor que el reloj.

Explicación:

A ¿cual de las dos medidas se considera mas precisa ? ¿por qué?

En un instrumento de medida se estima el error de medición tolerable de acuerdo a la escala y la mínima medida en esa escala; es decir, en el caso del cronómetro el error de medición es de  ± 0.1  s; mientras que en el reloj es de  ± 1  s. Por ello se considera más precisa la medida en el cronómetro, porque el error del instrumento es una décima de la unidad de escala, el segundo; mientras que en el reloj el error es de una unidad de escala. Comparativamente, el error que se puede cometer en el cronómetro es la décima parte del error que se puede cometer en el reloj.

B ¿cual es el error absoluto y relativo en cada caso?

El error absoluto (Ea) es el error de medición en unidades de la escala de medida. En los instrumentos dados:

Ea(Cronómetro)  =  ± 0.1  s

Ea(Reloj)  =  ± 1  s

El error relativo (Er) es la porción de lo medido que representa el error cometido y se obtiene dividiendo el error por la magnitud de lo medido. Este error es adimensional y se puede expresar como fracción de la unidad o en porcentaje. En el caso que nos ocupa:

Er(Cronómetro)  =  (0.1)/(2.1)  =  0.0476

Er(Cronómetro)  =  [(0.1)/(2.1)]*100  =  4.76%

Er(Reloj)  =  (1)/(97)  =  0.0103

Er(Reloj)  =  [(1)/(97)]*100  =  1.03%


marierodriguez2562: muchas gracias
Preguntas similares