Es kann ja sein, das man das gruppieren kann. Oder einfach doch 100 Bit-Spalten in die Tabelle klatschen. Von der Performance her ist das jedenfalls bei weitem das Beste.
Kann ich ausdrücklich bestätigen, zumindest für alle Fälle, in denen die
DB große bis riesengroße Datenmengen vorhält. In meiner OSM-Verwaltung (OpenStreetMap) hatte ich anfangs auch erst versucht, wie aus dem Lehrbuch alle Redundanzen weitgehend zu vermeiden – mit dem Ergebnis, daß Abfragen inakzeptabel lange benötigten. Nachdem ich die Normalisierung wieder soweit rückgängig gemacht hatte, daß in der Tabelle für Orte (Millionen von Datensätzen) die Bundesländer, Länder, Provinzen etc. als String verfügbar waren und nicht mehr als Verweis auf die jeweiligen Sub-Tabellen BUNDESLAND, LAND, PROVINZ etc., bewegten sich die Abfragezeiten wieder in erträglichem Rahmen.