Encuentra la distancia que debe recorrer una señal desde que se emite hasta que se recibe.
Adjuntos:
Respuestas
Respuesta dada por:
14
La distancia que debe recorrer una señal desde que se emite hasta que se recibe es de 80.721 km
Explicación paso a paso:
La distancia que debe recorrer una señal desde que se emite hasta que se recibe viene determinada por la hipotenusa que se forma en el primer triangulo mas la hipotenusa que se forma en el segundo triangulo, para esto utilizaremos el Teorema de Pitagoras:
h = √x²+y²
h1 = √(20000km)² + (30000km)²
h1 = 36.000 km
h2 = √(20000km)² + (40000km)²
h2 =44.721 km
Distancia de la señal:
d = h1+h2
d = 36000 km +44.721 km
d = 80.721 km
Respuesta dada por:
6
Respuesta:
Explicación paso a paso:
h1 = √(20000km)² + (30000km)²
h1 = 36.055,51 km
h2 = √(20000km)² + (40000km)²
h2 =44.721,35 km
Distancia de la señal:
d = h1+h2
d = 36055,51 km +44.721,35 km
d = 80.776,87 km
Preguntas similares
hace 6 años
hace 6 años
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años