que indica la desviación estándar y cuando los datos son mas dispersos?
ayudenme porfaavor

Respuestas

Respuesta dada por: melodychan17
1

La desviación estándar mide la dispersión de una distribución de datos. Entre más dispersa está una distribución de datos, más grande es su desviación estándar. Es interesante que la desviación estándar no puede ser negativa.

Espero haberte ayudado


frankilol689: muchas gracias
melodychan17: denada :)
Preguntas similares