DISCLAIMER
Chiunque abbia un minimo odio nei confronti della fisica, non prosegua nella lettura: la troverà oltremodo noiosa. Astenersi quindi commenti del tipo "pensa alla gnocca" e "vai a zappare".

Ho effettuato più misurazioni del periodo di 10 oscillazioni di una molla, utilizzando un cronometro analogico (sensibilità 0,2 secondi)
Ho ottenuto quindi varie misure precise al decimo di secondo. In seguito le ho divise per 10 per ottenere il periodo della singola oscillazione, dopodichè ho calcolato la media e la deviazione standard.
Il dubbio viene adesso:
La media mi viene 0,90 (in quanto, dividendo le precedenti misure per 10, si arriva al centesimo di secondo)
Quello 0 finale è da considerarsi o no? Mi verrebbe da dire di no, in quanto cmq la sensibilità dello strumento non lo permetterebbe; ma lo scopo dell'esercizio era proprio far vedere come calcolando il periodo di 10 oscillazioni piuttosto che una ho una maggiore precisione, in quanto l'errore (strumentale + casuale) si "spalma" sulle 10 oscillazioni. Che dite voi? Io propendo molto per il non considerarlo, ma attendo il parere di fisici e non.
(Analogo discorso per la deviazione standard, che mi viene 0,01)