![]() |
Datenbank: MS-SQL • Version: 2008R2 • Zugriff über: ADO
Grosse Datenmengen in SQL einfügen - Tuning?
Hallo liebe DP-Profis,
ich bastel seit geraumer Zeit an einem ZusatzTool zu unserem ERP-System herum, das Daten aus (fixed-length) Text"Dateien" in MS-SQL-Tabellen abbilden soll... Und bis auf kleine Problemchen läufts auch, theoretisch, aber natürlich nicht so performant, wie ich mir das vorstelle. Die Textfiles beinhalten pro Datensatz bis zu 530!!! Felder, und z.B. im Belegstamm haben wir hier derzeit ca. 170.000 Belege, von den Positionen red' ich momentan noch nicht mal (OK, doch, sind 2.67 Millionen). Und da ich mit SQL grad mal erst begonnen habe ists für mich natürlich eher schwierig (ausser mittels viel Recherche hier) mich vorwärtszutasten... (Für die Interessierten: ERP ist BüroWARE, und leider, nein, wir werden's in den nächsten 2 Jahren nicht austauschen...) Meine Herangehensweise ist bisher, die Variablennamen und damit die Parametervorbereitung nur 1 x zu durchlaufen, und bei jedem gelesenen Datensatz dann nur mehr die Werte in die Parameter einzufügen, ungefähr so: Zuerst zerlege ich mir den Text-Datensatz in ein Array auf das ich mit der Feldnummer zugreifen kann... Danach kommt in etwa dies... jaja, nicht der sauberste Code aber ich steh' da ja noch am Anfang... Verzeiht...
Delphi-Quellcode:
Danach findet die eigentliche Schreiberei statt, also myQuery.ExecSQL;
for i:=0 to iH (höchste Feldnummer)
begin try //wir versuchen, die Felder zuzuweisern sVA:=aSQLVals[i].sValue; //Inhalt aus dem Werte-Array holen if (sVA<>'') or (regFillAll) then //Wenns gefüllt ist oder alle Felder geschrieben werden sollen, hier ist regFillAll False... DBqu.Parameters.ParamByName(aBWVars[i].sNum).Value:=sVA; //Wert in die Parameterliste except //sofern es Peng gemacht hat ;-) ... Errorhandling end; end; Daraus ergibt sich leider folgendes Problem: Entweder schreibe ich ALLE Werte (also auch leere Felder) brav in jedes einzelne Feld in dem aktuellen Datensatz - das ist allerdings grottig langsam oder ich schreibe (wie in diesem Beispiel) nur dann, wenn wirklich im Feld was drinsteht - dann bleibt - wenn nicht drübergeschrieben wird - der Inhalt dieses Feldes vom vorigen Satz hängen und steht im nächsten automatisch auch drin... eher blöd... Gibt's für solche Anwendungen ein Patentrezept? Eine 'best practice'? Über ca. 10.000 Artikel brauch ich mit diesem Code (und dem Lesen und aufdröseln der Daten und und und) rund 7 Minuten - das wäre zu verkraften - wenn ich NUR die Felder mit Inhalt eintrage. Dann hat's Fehler (also Werte vom vorigen Satz). Wenn ich alle Felder eintrage dauerts dann ca. 40 Minuten :-( Und die Artikel sind eher noch eine kleinere Tabelle... Irgendwo glaube ich gelesen zu haben, dass man(n) da irgendwas 'preparen' soll, aber wo und wie? Oder gäbe es die Möglichkeit (Felder sind fixed length, also Artikelnummer ist immer von Stelle 1 bis 25) das dem SQL sinnvoll per Bulk bzw. external reinzupusten? Und noch eine Frage: gibts eine Variante nicht alle Werte zu übergeben und dem Delphi / SQL zu erklären, dass er nicht die vom vorigen Satz 'gespeichert lassen soll'? I steh momentan am Schlauch :-( GLG, ein ratloser Mr. Joerginger ;-) |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Klingt für mich als ob Du ein Integration Services-Projekt (DTSX) mit SQL Server Business Intelligence Development Studio erstellen solltest.
|
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Zitat:
Ich hab von dem Dir genannten Teil genau NULL (und ich meine nicht das gute SQL NULL, das 'wir kennen den Zustand nicht' NULL) Ahnung, von daher wäre das wahrscheinlich Overkill? Ich mein, im Prinzip bin ich am Weg, nur denke ich mir dass es einen 'Mittelweg' geben sollte, also zwischen 7 Minuten und falsche Daten sowie 40 Minuten... Wenn die Daten mal drin sind ist es Pipifax die aktuell zu halten. Wenn ich über die 167.000 Belege drüberrausche und nur gucke, ob der TimeStamp von Geändert zwischen SQL und BüroWARE differiert und erst dann update ist das in 3 Minuten lockerst durch... Abgesehen davon dass ich mit Triggern in der BW mir das Ding eh relativ aktuell halte... Geht sich halt nur um den Erstimport... GLG, Erwin |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Eigentlich ist das nur ein zusammenklicken von ein paar "Komponenten" und etwas Mapping, dass dafür pfeilschnell durchläuft.
Wenn ich zu Fuß machen sollte würde ich wahrscheinlich einfach ein Adodataset mit der Bedingung 'where 1=0' aufmachen, und in einer Schleife appenden, die Felder die belegt sind eintragen und Posten. |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
wäre erst mal zu klären ob es überhaupt an deinem Code-Snippet liegt oder an der Eintragungsgeschwinditkeit des SQL-Servers.
Wird übers Netz eingetragen oder auf der gleichen Maschine? Der Code selber ist sicherlich auch noch optimierbar, das ParamByName z.B. muss erst mal mit Textsuche die Paramname durcheiern. Also selber eine Prep-Prozedur schreiben, die vor dem for aufgerufen wird und die Feldnamen einem Array zuordnet. Der dann in der Prozedur erfolgende Arrayzugriff ist dann wesentlich schneller, da kein internes Find mehr erforderlich. so mal für den Anfang... ;-) |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Zitat:
Zitat:
Darf ich nochmal kurz nachhaken, wie ich (evtl) die falschen Werte aus den 'vor-Datensätzen' sinnhaft entfernen könnte? Gibts da ein globales Löschen? GLG aus Wien, Erwin |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Hab grad die Änderung eingepflegt, jetzt lautet die Zeile
Delphi-Quellcode:
DBqu.Parameters[i].Value:=sVA;
Ein kurzer Test über Artikelstamm hat ergeben: statt 7 Minuten nur mehr 1:30!!!!!!!!!! WOW!!! Das kann was! :thumb::thumb::thumb: GLG, Erwin |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Hallo,
musste mal in eine SQL-Serverdatenbank Unmengen von Daten reinschieben. Zuerst also (ähnlich wie Du) die Textdatei zerbröselt, Parameter für das Insertstatement gefüllt und per ExecSQL satzweise Richtung Datenbank geschickt. War nicht wirklich schnell. Dann bin ich hergegangen und habe die Insertstatement als Text erstellt, also Statements, die die Datenbank selbst verarbeiten kann. In der Form
Code:
Die kannst Du z. B. in den SQL.Text einer ADOQuery packen und alle 100 oder 1000 Zeilen ein ExecSQL, SQL.Text leeren und weiter.
Insert into tabelle (spalte1, spallte2, ..., Spalten) values ('Paula',4711,...,'0815');
Ungefähr sowas:
Delphi-Quellcode:
Alternative:
qry.SQL.Clear;
for i := 0 to slCSVDatei.Count - 1 do begin qry.sql.Add(FunktionCreateInsert(slCSVDatei[i])); if i mod 100 = 0 then begin // oder 1000, ausprobieren wie's am Schnellsten geht. qry.sql.Add('Commit;'); // Prüfen, ob das erforderlich ist, weiß ich momentan nicht. qry.ExecSQL; qry.sql.Clear; end; end; // Resteverarbeitung qry.sql.Add('Commit;'); // Prüfen, ob das erforderlich ist, weiß ich momentan qry.ExecSQL; Ebenfalls Insertstatements erstellen und in Textdatei(en) speichern. Diese Datei(en) per ISQL (Kommandozeilentool von SQL-Server - zumindest früher mal, gibt's das noch?) in die Datenbank jagen. Mit zweiter Methode habe ich vor Jahren mal einige Tage Laufzeit gegenüber der reinen Delphiversion eingespart. |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Zitat:
Jetzt hab ich folgendes gebaut:
Delphi-Quellcode:
Und man mag es nicht glauben: Das was vorher mit knapp 40!!! Minuten unterwegs war schafft jetzt alles in unter 2 Minuten... Ich lieeebe dieses Forum!
sVA:=aSQLVals[i].sValue; //STRING, WHAT ELSE
if (sVA<>'') or (regFillAll) then //WENN WAS ZU SCHREIBEN IST DBqu.Parameters[i].Value:=sVA //Felder in Parameters zuweisen else //alternativ DBqu.Parameters[i].Value:=''; //Leerfeld, damit alles passt Jetzt fehlt mir nur mehr der Plan, was es mit diesem Befehl 'Prepare' auf sich hat. Oder ist das eine Forums-Ente? GLG, Erwin |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Hm, wusste gar nicht, dass das mit dem ParamByName eine solche Performance-Bremse ist (klar, eigentlich aber logisch) - sollte man mal im Hinterkopf behalten.
10.000 Datensätze in unter 2 Minuten klingt doch schon mal ganz gut, aber vielleicht kann man noch ein bisschen herauskitzeln. Zum Prepared, nach dem du noch gefragt hast. Du arbeitest in deinem SQL-Statement ja schon mit den Parametern. Das einzige, was du noch tun musst, ist, folgenden Befehl einzufügen, direkt nachdem du den SQL-Befehl geschrieben hast (also bevor du die Parameter mit Werten befüllst):
Delphi-Quellcode:
DBqu.prepared:=true;
Das ist auch schon alles und kann tatsächlich einiges an Zeit bringen (wobei ich hier davon ausgehe, dass DBqu dein TADOQuery-Objekt ist). Mit einem bisschen Rumspielen mit dem Datenbank-Cursor und dem Sperrverhalten kann man evtl. weitere Zeit sparen (den Tipp, mir das mal näher anzuschauen hatte mir bei ähnlichen Problemen wie deinem vor einiger Zeit mal Bernhard Geyer hier im Forum gegeben). In einem Projekt ist das hier bei mir z.B. eine Einstellung, die zu guter Performance führt:
Delphi-Quellcode:
Weitere Infos zu den jeweiligen Geschichten gibt es erstmal in der Online-Hilfe (und sicherlich zur Not auch hier ;) )
DBqu.CursorType:=ctOpenForwardOnly;
DBqu.LockType:=ltBatchOptimistic; Bis denn Bommel |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Oh Mann... das glaub' ich einfach alles nicht mehr...
Also zuerstmal ganz wesentlich (das hab ich in den letzten Minuten durch Probieren herausgefunden):
Delphi-Quellcode:
und meinen Code hab ich zu
var
vNull: variant; //Da nicht initiiert wird bleibt die NULL!
Delphi-Quellcode:
geändert. Einfach nur vNull zuweisen... So gemacht: ca. 2 Minuten!!! Wenn man's mit '' befüllt (statt mit vNull) dauerts 6-7 Minuten!!! :cyclops:
if (sVA<>'') or (regFillAll) then //WENN WAS ZU SCHREIBEN IST
DBqu.Parameters[i].Value:=sVA //Felder in Parameters zuweisen else DBqu.Parameters[i].Value:=vNull; Und - jetzt der Hammer: 10.038 Sätze inkl. zerhacken, einarrayen, einflicken, reinschmieren UND INKL. preparen (und zwar innerhalb der Schleife, bei jedem Datensatz!): Zitat:
Alter Schwede!!! Von knapp 40 Minuten auf 37 Sekunden ist irgendwie schon der Hammer, ne nech? Und vor allem: Alle Sätze voll korregd, inkl. NULL's! Wenn ich nicht momentan AntiAlkoFix wäre, ein bis zehn Bierli hätten wir uns hier allemal verdient :thumb: GLG, Erwin |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
8-)
Zitat:
Also:
Delphi-Quellcode:
Viel Erfolg...
DBqu.CursorType:=ctOpenForwardOnly;
DBqu.LockType:=ltBatchOptimistic; DBqu.SQL.Text:='blablabla'; DBqu.Prepared:=true; for i:=0 to max do begin ... DBqu.Parameters[i].Value:=wuppdi; ... DBqu.ExecSQL; end; |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Zitat:
Delphi-Quellcode:
var
ParamName, ParamVorname: TParameter; begin ParamName := Dataset.ParamByName('Name'); ParamVorname := Dataset.ParamByName('Vorname'); for i := 0 to Liste.Count - 1 do begin ParamName.Value := Liste[i].Name; ParamVorname.Value := Liste[i].Vorname; Dataset.ExecSQL; end; |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Ist 'BULK INSERT' keine Option? So kann man mit einem SQL-Befehl in null-komma-nix Millionen von Datensätzen importieren.
SQL-Code:
Das Schema für die Format-Datei ist
BULK INSERT
MyTable FROM 'C:\Somewhere\MyDataFile.txt' WITH FORMATFILE = 'C:\SomewhereElse\MyFormat.xml' --- --- oder --- SELECT * FROM OPENROWSET(BULK 'C:\Somewhere\MyDataFile.txt' FORMATFILE='C:\SomewhereElse\MyFormat.xml'). ![]()
Code:
Für eine Datei bestehend aus drei Spalten (Längen: 20,7 und 40) und einem String an der 1. und 3. Stelle, sowie einer INT-Zahl an der 2.
<?xml version="1.0"?>
<BCPFORMAT xmlns="http://schemas.microsoft.com/sqlserver/2004/bulkload/format" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"> <RECORD> <FIELD ID="1" xsi:type="CharFixed" LENGTH="20"/> <FIELD ID="2" xsi:type="CharFixed" LENGTH="7"/> <FIELD ID="3" xsi:type="CharFixed" LENGTH="40"/> </RECORD> <ROW> <COLUMN SOURCE="1" NAME="Name" xsi:type="SQLVARYCHAR"/> <COLUMN SOURCE="2" NAME="Age" xsi:type="SQLINT"/> <COLUMN SOURCE="3" NAME="Street" xsi:type="SQLVARYCHAR"/> </ROW> </BCPFORMAT> Deine 10.000 Datensätze wären so in geschätzten 0.5 Sekunden importiert. Bei 20-50 Mio Records sind das bei meinem Fall ca. 20 Sekunden (sofern ich mich erinnere). Zitat:
Delphi-Quellcode:
sollte man das mit Parametern tun.
MyDataset['FieldName'] := 'Values';
Nichtsdestotrotz würde ich der 'BULK INSERT' Variante eine Chance geben. Sind die Dateien nicht auf dem Server verfügbar, würde ich mich mit BCP.EXE beschäftigen. Die von Bummy propagierte SSIS-Lösung dürfte dies ebenso umsetzen. |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Mal herzlichen Dank an alle 'entfernten Mitarbeiter'! Für die kleineren Dateien (bis 20.000 Sätze) pfeift's so eh... Leider geht mir (da ich hier bei mir nur einen Express im Einsatz hab) danach schon bei den Belegen die Luft aus und er wird wieder extrem langsam... Sehr seltsam. Die Artikel (10.038 Records) sind - vielleicht auch gechached? - in 31 Sekunden in der DB, die Adressen (mit 19.000 Sätzen) brauchen schon 32 Minuten, die Belege (167.000) 1:14 benötigt. OK, ist immer noch wesentlich flotter als vorher... Werds aber jetzt mal auf einem echten SQL-Server testen, ohne Limits. Irgendwie legt mir der zu viele 'Denkpausen' ein, wo sich de facto der Fortschrittsbalken kaum bewegt.
Zitat:
Wenn ich das mit BULK jetzt richtig interpretiere - ich dachte nämlich dass das nur CSV-Format kann - könnte ich die Daten zerlegen, in ein XML schmieren und dann per SQLCommand sagen: Hol's Stöckchen? Das hätt' große Phantasie. OTOH hat die BULK Variante einen gravierenden Nachteil, nämlich, dass Du nie weisst wo's Peng macht wenns Peng mach... Angeblich, wurde mir nur gesagt? Stimmt das? GLG, Erwin |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Für die Interessierten: Hab BULK ausprobiert, der glatte Wahnsinn...
Lesen der Positionsdatei und Ausgeben der Sätze (nur die Sinnvollen, ohne Umwandlungen) dauert ca. 5 Minuten. Import via BULK, naja, 10 Sekunden? Wenn überhaupt. Demgegenüber waren's vorher ca. 7 Stunden... So, ab an das XML-Schreiben... GLG, Erwin |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Ähm, jetzt aber nicht die Daten in XML umwandeln, sondern eine Format-Datei in XML erstellen, die den Aufbau der Textdatei beschreibt.
|
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Thank you, Sir (Rufo)
I was about to mention that. |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
JoJo, mein Fehler, hab beim ersten Mal drüberlesen gedacht: Geil, XML und gut ist. Aaaaber, nach intensiver Lektüre auf der MSDN-Seite hab ich eben folgendes gezimmert:
TEXTDatei lesen (und die leeren / unnötigen Sätze filtern) Ergebnis in Textdatei - die hat nur 'sinnvollen' Inhalt, ist fixedlength Aus meinem Array mit Beginn / Länge und Feldname ein XML für fixedLength ausgeben (Der Import klappt ohne dass ich den DS auch nur 1 x angreifen muss...) SQL Table droppen SQL Table creatern Table mittels Bulk füllen... Hopsassa! Klappt sensationell... Und da ich alles Parametriert habe und quasi nur über eine einzige Dateinummer zugreife klappts mit egal welcher Table :thumb: GLG, Erwin |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Zitat:
[QUOTEUnd da ich alles parametriert habe [/QUOTE] Einmal will ich loswerden, was ich mal gelernt habe :stupid: Parametrisieren: Das Ausstatten mit Parametern. Parametrieren: Das Belegen der Parameter mit Werten. Du hast also dein Verfahren parametrisiert, damit Du es im Anwendungsfall mit den entsprechenden Werten parametrieren kannst. Ich komm sonst nicht so als Klugscheißer daher (psst!), aber einmal darf man doch :-) |
AW: Grosse Datenmengen in SQL einfügen - Tuning?
Zitat:
Zitat:
Zitat:
GLG, Erwin |
Alle Zeitangaben in WEZ +1. Es ist jetzt 22:01 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
LinkBacks Enabled by vBSEO © 2011, Crawlability, Inc.
Delphi-PRAXiS (c) 2002 - 2023 by Daniel R. Wolf, 2024 by Thomas Breitkreuz