Respuestas
Respuesta dada por:
6
El androcentrismo es la visión del mundo que sitúa al hombre como centro de todas las cosas.
Esta concepción de la realidad parte de la idea de que la mirada masculina es la única posible y universal, por lo que se generaliza para toda la humanidad, sean hombres o mujeres.
El androcentrismo conlleva la invisibilidad de las mujeres y de su mundo, la negación de una mirada femenina y la ocultación de las aportaciones realizadas por las mujeres.
Preguntas similares
hace 6 años
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años