• Asignatura: Castellano
  • Autor: marianafernandacuric
  • hace 2 años

por que cres que siempre es necesario decir la verdad

Respuestas

Respuesta dada por: MateoYuncan
1

Respuesta:

Decir la verdad es una manera de empatizar y construir relaciones fuertes y duraderas. Decir la verdad nos hace más humanos , más cercanos y nos permite relacionarnos más y mejor con las personas a las que queremos o con las que tenemos un proyecto en común ( como el trabajo ).

Explicación:

Respuesta dada por: enorme362
0

Respuesta:

depende de la situación ya que hay verdades que lastiman, pero la sinceridad es algo importante en las relaciones humanas porque asi se refuerza la relación de x persona a x persona xdxd yo creo nose

Preguntas similares