expliqué el imperio francés y alemán​

Respuestas

Respuesta dada por: tvlosmenores
7

Respuesta:

Las relaciones Alemania-Francia, relaciones franco-Alemanias o relaciones germano-francesas son términos que aluden a las relaciones internacionales entre la República Federal de Alemania y la República Francesa, ambos estados miembros de la Unión Europea. Han sido de gran importancia en el desarrollo de varios de los principales acontecimientos mundiales durante los últimos dos siglos. Así, los grandes conflictos bélicos europeos y mundiales entre 1870 y 1945 enfrentaron a Francia y Alemania.

Preguntas similares