Respuestas
Respuesta dada por:
1
Explicación:
Decir la verdad nos hace más humanos , más cercanos y nos permite relacionarnos más y mejor con las personas a las que queremos o con las que tenemos un proyecto en común ( como el trabajo ).
Decir la verdad es una manera de empatizar y construir relaciones fuertes y duraderas.
Espero te ayude!!! :)
Preguntas similares
hace 2 años
hace 4 años
hace 4 años
hace 7 años