• Asignatura: Historia
  • Autor: emerbetanco96
  • hace 6 años

Vinieron realmente los españoles a comrtir las enseñanzas cristianas? Explicó ampliamente

Respuestas

Respuesta dada por: elyzarel11ml
0

Respuesta:

No realmente ya que ellos solo venían a conquistar América pero nos inculcaron y nos enseñaron la religión católica

Preguntas similares