Qué significado tiene la educación física en la vida?​

Respuestas

Respuesta dada por: crudoeugenia
1

Respuesta:

Explicación:

Educación física es una disciplina que se centra en diferentes movimientos corporales para perfeccionar, controlar y mantener la salud mental y física del ser humano. ... La educación física es una actividad obligatoria tanto en la primaria como en la secundaria

te sirvio ?

Respuesta dada por: Campos1612
1

Ayuda a tener más definido tu cuerpo y te ayudará a tener una mejor salud de tu cuerpo. Te hace sentir fuerte y te ayuda a mejorar el cardio de tu corazón.

Preguntas similares