Se hai a disposizione una macchina Linux (o le GNU Utilities installate su Windows) ti direi di fare:
ovvero: concatena i due file e li ordina; a questo punto, le righe presenti in entrambi i file saranno duplicate e adiacenti - e uniq le rimuove, lasciando solo quelli presenti in uno solo dei due file.codice:cat file1.txt file2.txt | sort | uniq -u
(se nei file ci possono essere indirizzi duplicati:
)codice:cat file1.txt | uniq -u > temp1.txt cat file2.txt | uniq -u > temp2.txt cat temp1.txt temp2.txt | sort | uniq -u rm temp1.txt temp2.txt
In alternativa, probabilmente tra un po' passerà di qui nicola75ss e ti fornirà una soluzione basata su PowerShell.![]()