En Francia que cambios trajo la guerra con Alemania???

Respuestas

Respuesta dada por: dinak2003
2

Respuesta:

Las relaciones Alemania-Francia, relaciones franco-alemanas o relaciones germano-francesas son términos que aluden a las relaciones internacionales entre la República Federal de Alemania y la República Francesa. Han sido de gran importancia en el desarrollo de varios de los principales acontecimientos mundiales durante los últimos dos siglos. Así, los grandes conflictos bélicos europeos y mundiales entre 1870 y 1945 enfrentaron a Francia y Alemania

Preguntas similares