• Asignatura: Historia
  • Autor: eduardo192conde
  • hace 3 años

por qué crees tú que es importante lo necesario decir la verdad justifica tu respuesta​

Respuestas

Respuesta dada por: rocioyupanqui8paszst
4

Respuesta:

Explicación:

Decir la verdad nos hace más humanos , más cercanos y nos permite relacionarnos más y mejor con las personas a las que queremos y con la verdad te sentirás mejor por que no ocultas ningún secreto ya que estableces una buena confianza con la otra persona.

Preguntas similares