¿crees que la opinión de los médicos siempre fue a favor de las vacunas? ¿porque lo crees?​
escribe tu hipotesis no lo saques del texto x D

Respuestas

Respuesta dada por: britney06arroba2004
1

Respuesta:

No

Explicación:

Puesto que las vacunas mucho más allá de ser comercializadas, tienen el propósito que desde pequeños activen nuestro sistema inmunológico, lo que permite nuestra buena salud y cuidado de nuestro cuerpo :]


leonardoprincipe2009: t l agadsc}
leonardoprincipe2009: xD
Respuesta dada por: diegoalejandrorequej
1

Respuesta:

NO

Explicación:

NO POR QUE LOS MEDICOS TAMBIEN REALIZAN TAMBIEN CIRUGIAS Y TAMBIEN DAN SU OPINION PARA QUE EL CUERPO HUMANO ESTE EN UN BUEN ESTADO FISICO Y QUE NO TENGAMOS EMFERMEDADES Y A SI NO ESTAR PERJUDICADOS CON EMFERMEDADES CARDIACAS Y OTRAS SERIA EN MUCHAS FORMAS QUE DAN OPINIONES LOS MEDICOS

Preguntas similares