agoago, in realtà sono meno propenso a considerare questa ipotesi.
Personalmente ritengo che, poiché un computer si basa su una logica e nulla avviene per caso (neanche l'output di un valore random con un classico Randomize() in un linguaggio di programmazione avviene casuale) è altrettanto vero che ogni prodotto creato da un computer è soggetto ad una logica, ad uno schema.

Io posso affinare quanto voglio l'algoritmo che genera il testo ma una volta individuato lo schema sarà banale ritornare indietro e risalire a chi o cosa ha creato quel testo.

Il problema, a mio avviso, sarà per i MdR (come è già ora) riuscire ad invividuare questa logica in tempi accettabili.


Mi spiego meglio.
Ipotizzando che io oggi voglia creare N pagine automaticamente, posso partire con 10 frasi e dire al computer di miscelarne 2 a random (e ribadisco che il concesso "a caso" non esiste in un computer) per pagina.

Per un MdR evoluto è banale oggi risalire alla logica di questo processo tanto che una soluzione di questo tipo è spesso individuata, parliamo di google, e le contromisure del caso vengono messe in atto.

Poi posso complicare la cosa e, senza entrare nel dettaglio, ci sono valide possibiità ad oggi di sfruttare un algoritmo complesso per creare testo artificiale sufficientemente evoluto.
Questo cosa significa? Che i MdR non possono capirlo?

Non proprio, probabilmente è lo stesso principio di un algoritmo di crittazione. Non è che una chiave crittata non è decifrabile, è che con l'attuale ptenza ed evoluzione del calcolo il tempo necessario a decodificarla non è accettabile.

Cosa ne pensi?