• Asignatura: Historia
  • Autor: albertoportillo548
  • hace 3 años

Fue el fin de la primera Guerra Mundial *
a)Estados Unidos invade Japon
b)España coloniza Mexico
c)Alemania pierde una gran cantidad de Territorios en el "Tratado De Versalles"
d)La Revolución Francesa​

Respuestas

Respuesta dada por: retroandrex20
0

Respuesta:

A) Estados Unidos invade Japon

Respuesta dada por: pomahucreniver
0

Respuesta:

es la a). ,,,,,,,,,,,,,,,,,

Preguntas similares