1Mio Datensätze pro Minute ist für
SQL schon nicht schlecht... Da ich pro Tabelle "sehr sehr viele" kleine Buchungsdatensätze(100..300Mio Records) in Simulationen schneller 1..2Mio Datensätze pro Sekunde incl. (Zeit)Index streamen/kopieren muss(das ist nochmal Faktor 100+ schneller!), geht das wohl weiter nur mit eigenen auf LowLevel programmierten binären File-Strukturen.
In diese Bereiche wird ein
SQL Server aufgrund der notwendigen Overheads (Recordversionen, Transaktion, Multiuserfähigkeit usw.) wohl eher nicht hinnkommen, daher ist das für deinen Anwendungsbereich sicherlich besser in eigener Lowlevel Implementation aufgehoben, bei der dich der Overhead sicherlich sowieso nicht interessiert. Welcher Bereich ist das denn, in dem man immer mal eben 300 mio records hin und herschubsen muss