Qué quiere decir dermatología s

Respuestas

Respuesta dada por: zoe847
3

Respuesta:

La dermatología es una especialidad de la medicina que se ocupa del conocimiento y estudio de la piel humana y de las enfermedades que la afectan.

Respuesta dada por: saraviy11
1

Respuesta:

sobre la piel

Explicación:

Preguntas similares