Antes del descubrimiento de América, Europa se representaba en los mapas como el extremo occidental del mundo llamado en latín "Finis Terrae" ¿Qué significa?
Respuestas
Respuesta dada por:
0
Respuesta:
Fin del mundo (Finis Terrae en latín), concepto vinculado a gran cantidad de mitos, especialmente en el Extremo Occidente (España antigua). Antiguo concepto geográfico de que el planeta era plano y que navegar hacia el occidente acarrearía llegar al fin de la Tierra, cayendo al vacío.
Preguntas similares
hace 2 años
hace 2 años
hace 5 años
hace 5 años
hace 7 años