Respuestas
Respuesta dada por:
3
El androcentrismo es la visión del mundo que sitúa al hombre como centro de todas las cosas. Esta concepción de la realidad parte de la idea de que la mirada masculina es la única posible y universal, por lo que se generaliza para toda la humanidad, sean hombres o mujeres.
Respuesta dada por:
2
Dentro a ver el comentario y me encuentro con ese comentario,ya llevo 3 hrs buscando la respuestas y cuando pensé que ya la encontré me encuentro están tontería
Preguntas similares
hace 6 años
hace 6 años
hace 6 años
hace 9 años
hace 9 años
hace 9 años
hace 9 años