cual es el significado de la educación física?​

Respuestas

Respuesta dada por: anamichell2911
9

Respuesta:

Educación física es una disciplina que se centra en diferentes movimientos corporales para perfeccionar, controlar y mantener la salud mental y física del ser humano.

Explicación:

ESPERO HABER AYUDADO..✌

ATT: MOANA D.V ♥️

Preguntas similares