• Asignatura: Salud
  • Autor: eliseoguzman00
  • hace 9 años

que significa educación fisica

Respuestas

Respuesta dada por: abi1234kai
16
Educación física es una educa para el cuerpo humano diferente de estudiarlo como Anatomía, sino de enseñarle al cuerpo la clase de ejercicios que se deben hacer para estar saludables físicamente y tambien te enseña como hacerlos correctamente para no sufrir algun problema muscular.
Preguntas similares