• Asignatura: Filosofía
  • Autor: sirley121
  • hace 4 años

Debemos decir siempre la verdad?

Respuestas

Respuesta dada por: dashaLAPRO
5

Respuesta:

Por qué es importante decir la verdad? Decir las verdades puede ser tan malo como decir mentiras, ya que la bondad de ambas opciones depende de lo que se sabe y de las consecuencias que se sigan de lo que se dice. A pesar de ello, cuando uno es sincero, implica reconocer sus virtudes y defectos

Preguntas similares