Respuestas
Respuesta dada por:
7
Respuesta:
Básicamente, se afirma que el género tiene que ver con los aspectos culturales con los cuales se interpreta la sexualidad. En realidad, el término género comenzó a ser empleado por la sexología en la observación clínica de casos en que el sexo físico no se correspondía con lo que iba a ser el destino y el reconocimiento posterior de un sujeto. El feminismo toma este concepto en los años 70 para producir una crítica a los estereotipos, en lo que respecta a establecer jerarquías entre los sexos y a asignar roles sociales en forma fija.
Explicación:
espero q te sirva no olvides de darle coronita xfaa
josuerangelromero:
no me sale para darle ala corona lo siento pero gracias we
Preguntas similares
hace 4 años
hace 7 años
hace 7 años
hace 8 años
hace 8 años