Respuestas
Respuesta dada por:
2
Explicación:
El trabajo social es una profesión que busca favorecer el desarrollo de vínculos humanos saludables y fomentar cambios sociales que deriven en un mayor bienestar para las personas. Los trabajadores sociales, de este modo, actúan sobre ciertos factores relacionados a las interacciones de los individuos con el entorno.
marianaavila20:
espero haberte ayudado
Preguntas similares
hace 4 años
hace 4 años
hace 7 años
hace 7 años
hace 8 años