Estas ciencias buscan dar una explicación a la realidad o a hechos concretos que suceden en la sociedad​

Respuestas

Respuesta dada por: Foxkenstein
0

Respuesta:

Las ciencias sociales son las ramas de la ciencia relacionadas con la sociedad y el comportamiento humano. Se las distingue de las ciencias naturales y de las ciencias formales. Además, es una denominación genérica para las disciplinas o campos del saber que analizan y tratan distintos aspectos de las relaciones sociales y los grupos de personas que componen la sociedad. Estas se ocupan tanto de sus manifestaciones materiales como de las inmateriales. Otras denominaciones confluyentes o diferenciadas, según la intención de quien las utiliza, son las de ciencias humanas, humanidades o letras.​ También se utilizan distintas combinaciones de esos términos, como la de ciencias humanas y sociales.

Explicación:

Preguntas similares