Respuestas
Respuesta dada por:
1
Respuesta:
La historia de Alemania como país se inicia en 1871 al instaurarse el Imperio alemán. Con anterioridad, lo que conocemos como Alemania fue una agrupación de Estados en el marco del Sacro Imperio Romano Germánico, formado a partir de la división en 843 del Imperio carolingio, fundado en el año 800 por Carlomagno.
Explicación:
Respuesta dada por:
0
Respuesta:
El inicio de los nazis y la primera guerra mundial
Explicación:
Por hittler
Preguntas similares
hace 6 años
hace 6 años
hace 6 años
hace 8 años
hace 9 años