Ciao a tutti, vorrei eseguire dei calcoli aritmetici, sfruttando la potenza di calcolo della GPU.

Esempio:

for x1 = 1 to 10^10
x2 = x2 + x1
next x1

come faccio a far fare questi calcoli alla GPU e non al processore?

Grazie...