Se realiza un seguimiento del tiempo en una carrera para ver cuánto tiempo necesita un corredor para correr 100m con el error absoluto 0.1 segundos. ¿Tenemos que considerar el error del reloj, que se retrasa un minuto cada día?

Se realiza un seguimiento del tiempo en una carrera para ver cuánto tiempo necesita un corredor para correr 100m con el error absoluto 0.1 segundos.

Para medir el tiempo en una carrera … con el error absoluto de 0.1 segundos , debemos considerar todo lo que pueda afectar la medición. La precisión del reloj es definitivamente una de estas cosas a tener en cuenta. Identificar todas las fuentes que pueden generar incertidumbre y descubrir cómo abordarlas en nuestras mediciones es un ejercicio interesante.

¿Tenemos que considerar el error del reloj, que se retrasa un minuto cada día?

Solo para que entienda: si un reloj se atrasa un minuto cada día, estamos comparando la inexactitud del reloj cuando se compara con el día. Supongamos que el día se conoce precisamente como:

[matemáticas] 24 \ text {hr} \ times 60 \ text {min} \ times 60 \ text {sec} = 86,400 \ text {sec} [/ math]

lo que estás diciendo que: Este reloj al final del día leerá:

[matemática] 23:59:00 [/ matemática] en lugar de la esperada [matemática] 25:00:00 [/ matemática] – Supongo que el reloj funciona como un cronómetro aquí, no vuelve a 0:0:0 , porque eso será inútil eh.

Sí, esto debe considerarse, parece ser un gran factor, porque cuanto más largo sea el período que está midiendo, mayor será el error.

pero, para ver, qué tan grande es este error por segundo:

[matemática] (85,400 – 85,340) / 85,400 = 0.0123 [/ matemática] segundos por cada segundo.

Como Kim Aaron señaló, lo anterior está mal.

Esto debería haber sido [matemática] 60/86400 \ aproximadamente 0.0007 / seg [/ matemática]

Esto significa que la medición del tiempo medido estará desactivada en [matemáticas] 7/10000 [/ matemáticas] de segundo por cada segundo de la carrera. Para una carrera de 10 segundos, esto se acumula como [matemáticas] 7/10000 \ veces 10 = 7/1000 << 1/10 [/ matemáticas]

Descargo de responsabilidad: respuesta escrita antes de tomar un café, la posibilidad de que esto realmente no responda la pregunta no se calcula 😉

Aquí otra cosa a tener en cuenta.

¿Cuánto dura un día? ¿Cómo definimos lo que queremos decir con día? Que se basa en la rotación de la Tierra.

¿Qué? Los relojes tienen errores. ¿Por qué alguien no me lo dijo? ¿Seguramente no te refieres al reloj atómico cs-133 utilizado por los satélites GPS?

Por supuesto que sí. Ningún reloj es inmune al error.

Solo estaba despotricando acerca de la perfección del reloj cs-133 utilizado por los satélites GPS que no solo te dice la hora, sino que realmente monitorea el paso del tiempo. Supongo que algo tiene que hacerlo.

No si se usa el mismo reloj para todas las razas.

Incluso si se usa solo para algunas de las carreras, un minuto por día es 60/24 segundos por hora, o 1/24 de segundo por minuto. Dado que la mayoría de las personas pueden realizar fácilmente el recorrido de 100 metros en menos de medio minuto, eso es suficiente teniendo en cuenta los criterios.

Pero 0.1 segundos no parece que sea lo suficientemente preciso.

El reloj sale un minuto en 24 × 60 = 1440 minutos. Digamos que la carrera dura unos 15 segundos muy lentos. Una parte en 1440 da .0007 × 15 = .0105 segundos, un error mucho menor que los 0.1 segundos permitidos.