Encuentra la distancia que debe recorrer una señal desde que se emite hasta que se recibe.

Adjuntos:

Respuestas

Respuesta dada por: luismgalli
14

La distancia que debe recorrer una señal desde que se emite hasta que se recibe es de 80.721 km

Explicación paso a paso:

La distancia que debe recorrer una señal desde que se emite hasta que se recibe viene determinada por la hipotenusa que se forma en el primer triangulo mas la hipotenusa que se forma en el segundo triangulo, para esto utilizaremos el Teorema de Pitagoras:

h = √x²+y²

h1 = √(20000km)² + (30000km)²

h1 = 36.000 km

h2 = √(20000km)² + (40000km)²

h2 =44.721 km

Distancia de la señal:

d = h1+h2

d = 36000 km +44.721 km

d = 80.721 km

Respuesta dada por: blackist
6

Respuesta:

Explicación paso a paso:

h1 = √(20000km)² + (30000km)²

h1 = 36.055,51 km

h2 = √(20000km)² + (40000km)²

h2 =44.721,35 km

Distancia de la señal:

d = h1+h2

d = 36055,51 km +44.721,35 km

d = 80.776,87 km

Preguntas similares