Originariamente inviata da
vonkranz
leggevo degli avvertimenti di
Stephen Hawking e
Elon Musk (tra gli altri) in merito ai pericoli legati allo sviluppo di intelligenze artificiali.
Ok, se lo dicevo io che sono un pirla qualsiasi, mi sarebbe stato risposto che vedo troppi film di fantascienza ma certe cose, dette da due personaggi di quel calibro, mi fanno un po' pensare.
non e' che stiamo facendo una cazzata e stiamo ponendo le basi per il nostro annientamento? sicuramente la razza umana sta gia' facendo parecchio in tal senso, ma tutto sommato sono azioni che in tutto e per tutto dipendono da noi: cessare il disboscamento selvaggio, cessare l'emissione di gas serra ecc. anche se "difficile" e' qualche cosa che dipende da noi.
ma se un giorno prendera' vita un'intelligenza artificiale e, nel giro di 2000 cicli di clock arriva la conclusione che il genere umano e' per lei un pericolo, che possibilita' abbiamo noi di resistere?
sta a vedere che in Terminator non ci sono andati cosi' distante
Skynet e' alle porte
chissa' se suona il campanello e dubito che staccare la corrente potrebbe servire