Buongiorno,
lavoro in una banca, ed ho sempre utilizzato access per elaborare moli di dati. In precedenti esperienze access era predisposto per collegarsi a tabelle ODBC enormi (non so quanti milioni di record) che poi raggruppavo in tabelle locali, alcune delle quali raggiungevano i 5 milioni di record, e raggiungevano quasi il limite del vecchio access (1 Gb).

Nell'attuale realtà mi verrebbero inviati via txt o csv dei file con i dati di ogni titolo nel portafoglio di ogni cliente parliamo quindi di almeno cento-duecento milioni di record.

Problema: dubito fortemente di poter "ciucciare" questi dati su access; ho provato ad inserire un record campione ed a replicarlo n volte per vedere quanto occupava il DB: ebbene 100000 record occupano circa 15Mb, dunque mi apetterei che 100 milioni di record siano circa 1,5 Gb; con 200 milioni di record già sforo i 2GB massimi del nuovo access, senza considerare che ho anche altre tabelle likate, anche se un po più piccole; e senza considerare inoltre i tempi di calcolo.

Il linguaggio SQL sottostante alle query lo posso visualizzare ed ho imparato a modificarlo e gestirlo, ma non son sicuro che saprei scriverlo autonomamente senza un'interfaccia grafica.
Cosa mi consigliate di fare per gestire questa mole di dati? Quale DB?

Grazie mille a chiunque mi sappia dar consiglio.