Per essere più chiari, ho selezionato un'area precisa di pixel da uno schermo (immaginiamo 10x10) facendo lo screenshot della finestra principale del programma X.
- Monitor 1680x925
- Finestra software 680x540, posizione sullo schermo: 0,0
- Selezione area 0,0,10,10 (left,top,right,bottom)
Poi ho acceso un altro PC contenente una scheda grafica differente ed un monitor di grandezza maggiore:
- 1980x1205
- Finestra software 680x540, posizione sullo schermo: 0,0
- Selezione area 0,0,10,10 (left,top,right,bottom)
Con la differenza che i pixel erano "leggermente" differenti.
Perchè? Dipende dalla scheda grafica? Da qualche configurazione?
Qualcuno sarebbe così gentile da spiegarmi come funziona?
// Edit
Perchè spiego, ho sviluppato un software che parsa gli screenshot che effettuato ogni tot millisecondi e "capisce" cosa ha di fronte grazie al fatto che gli ho spiegato che "tot pixel equivalgono a questo o a quello".
Ora dovrei passare questo software ad alcuni miei colleghi che ovviamente hanno scheda video, driver e settaggi diversi.
Siccome vorrei evitare di creare un algoritmo che fa una specie di bruteforce o cerca di "dedurre" cosa ha di fronte perchè 1) potrebbe essere fallace ogni tanto e 2) impiegherebbe troppe risorse e sarebbe veramente pesante.
Come faccio a capire precisamente "quali sono le mie impostazioni video" e forzare tutti i miei colleghi ad utilizzarle (ovviamente sarebbero d'accordo)?