Buenas! Tengo un problema que me está quemando la cabeza hace tiempo. Estoy programando un reloj, yo hice que las horas se sumen cada 1000 milisegundos (1 segundo), osea, se suma 1 hora al reloj cada 1000 milisegundos, me expreso en milisegundos y no en segundos ya que la programación se ejecuta en dicha medida. Teniendo esto en cuenta "que cada 1000 milisegundos se suma 1 hora al reloj", lo que yo necesito es mover la aguja del reloj, o sea, la aguja debe hacer una vuelta completa (360º) en 12.000 milisegundos (12 segundos, lo que representaría las 12 horas que tarda la aguja en dar la vuelta completa en un reloj real). Por lo tanto lo que quiero saber es cuántos grados se debe mover la aguja del reloj "cada 1 milisegundo" para hacer los 360 grados en 12.000 milisegundos (12 segundos) el número puede contener decimales (no es necesario que sea entero). Espero haberme expresado bien y que me puedan ayudar. Desde ya muchas gracias! Saludos!
Respuestas
Respuesta dada por:
1
Respuesta:
0.03°/milisegundo
Explicación paso a paso:
360/12 = 30 grados por segundo
30/1000 = 0.03 grados por milisegundo
dodbuack:
Hola, gracias por la respuesta rápida. Lo que planteas es lo que deduje en un principio pero por alguna razón no me funcionó, por lo que quería asegurarme de haberlo hecho bien, entonces de ser esta la fórmula correcta quizás sea yo el que está fallando en algo más.
* Every 1000 ms
Special : Add 1 to Hour
* Every 1 ms
Clockwise : Set angle to Angle( "Clockwise" ) - ( ( 360.0 / 12 ) / 1000 ) (Quality = 0)
Lo que hago básicamente es decirle que sume 1 al valor "hora" cada 1000 milisegundos, luego que cada 1 milisegundo el ángulo de la aguja del reloj reste ( ( 360.0 / 12 )/1000), o sea, 0.03º de su ángulo actual, en otras palabras que se mueva 0.03 grados hacia la derecha.
Preguntas similares
hace 5 años
hace 8 años
hace 8 años
hace 9 años