Originariamente inviato da MItaly
Ma ti riferisci a media e deviazione standard dei tempi di esecuzione o del risultato della funzione? O la media è riferita al tempo di esecuzione mentre la deviazione standard alla distanza tra il risultato fornito e il valore atteso?
Praticamente le due misure prese in considerazione sono sia il tempo di esecuzione che l'accuratezza del tragitto ricostruito (calcolata con la dtw che ti citai tempo fa). Sia per tempo di esecuzione che per l'accuratezza mi è stato fatto calcolare Media e Deviazione Standard.

Ora la media è scontata, e mi dice che in media i valori hanno quel risultato. Ma potrebbe essere che il 50% dei valori me li calcola in 1 secondo, gli altri in 10 secondi e come risultato mi da 5 secondi che magari è un valore accettabile. La deviazione standard dovrebbe farmi capire che se sebbene la media è 5, se la deviazione è alta allora posso dedurre che i valori sono appunto molto distanti dalla media, o no?

Steso identico discorso per i valori di accuratezza.


Edit1: leggevo su wikipedia:

Se non indicato diversamente, la deviazione standard è semplicemente la radice quadrata della varianza, la quale viene coerentemente rappresentata con il quadrato di sigma (σ²).
Io su excel non ho indicato nulla, ho solo richiamato DEV.ST.

Edit 2: Leggendo la descrizione sulla formula di excel ce scritto:

Stima la deviazione standard sulla base di un campione. La deviazione standard è una misura che indica in che misura i valori si discostano dal valore medio (la media).
Ergo una deviazione standard bassa mi dice che i valori sono molto vicini alla media, quindi media buona, deviazione standard buona, vuol dire che ho tutti valori buoni. Invece media buona e deviazione standard non buona indica che ho tanti valori buoni e tanti valori brutti, giusto?