• Asignatura: Historia
  • Autor: mateom58
  • hace 2 años

Antes del descubrimiento de América, Europa se representaba en los mapas como el extremo occidental del mundo llamado en latín "Finis Terrae" ¿Qué significa?

Respuestas

Respuesta dada por: diazmiley10
0

Respuesta:

Fin del mundo (Finis Terrae en latín), concepto vinculado a gran cantidad de mitos, especialmente en el Extremo Occidente (España antigua). Antiguo concepto geográfico de que el planeta era plano y que navegar hacia el occidente acarrearía llegar al fin de la Tierra, cayendo al vacío.

Preguntas similares