Respuestas
Respuesta dada por:
0
Respuesta:
Explicación:
La educación física es aquella disciplina que abarca todo lo relacionado con el uso del cuerpo humano, ayudando a la formación integral de cada ser humano.
Respuesta dada por:
0
Respuesta:
La educación física es importante, porque al desarrollar ejercicios mejoramos nuestra salud, evitamos riesgos y somos menos propensos a contraer enfermedades.
Espero ayude :3
Preguntas similares
hace 4 años
hace 4 años
hace 7 años
hace 7 años
hace 8 años
hace 8 años