Respuestas
Respuesta dada por:
1
Respuesta:
No se si hagas referencia a América de Estados Unidos o a América como Continente.
Pero si te refieres a Estados unidos te puedo decir que ellos fueron conquistados por los británicos y esa ademas de su cultura es la unica relación que mantienen :)
Preguntas similares
hace 6 años
hace 6 años
hace 8 años
hace 8 años
hace 8 años
hace 9 años