• Asignatura: Religión
  • Autor: marcelamintiel
  • hace 3 años

en parte de la biblia dice que Dios hizo la tierra​

Respuestas

Respuesta dada por: ShotoXD
1

Respuesta:

En el libro del Génesis, exactamente en el Capítulo 1

Respuesta dada por: fujoshiuwu12
0

Respuesta:

sipi en el capitulo 1

Explicación:

:333333333 porque la pregunta? :3

Preguntas similares