Bei dem ChatGPT Fenster hängt es davon ab welches Modell man verwendet.
Mit welchem Modell habt Ihr in Verbindung mit Delphi bis jetzt die besten/produktivsten Ergebnisse erzielt.
Viele Grüße
Bastian
Hi Bastian,
ich finde die "Integration" in der Delphi
IDE immer noch lächerlich. Wer schon einmal mit VS-Code und Copilot oder sogar Cursor AI gearbeitet hat der macht die Delphi Integration einmal auf, greift sich an den Kopf und macht sie schnell wieder zu. Ich verwende nach wie vor diese (kostengünstigere und
imho bessere) Variante:
https://github.com/csm101/EditInVsCodeDelphiPlugin
Grundsätzlich wirst du mit den "kleineren" LLMs die du lokal laufen lassen kannst in Kombination mit Delphi nicht viel mehr als absolute Basic Aufgaben erledigt bekommen. Die Performance und Qualität deines lokalen LLMs hängt stark von deiner Hardware und dem eingesetzten Modell ab. Ich habe sehr gute Erfahrungen mit GPT4o und o3-Mini von Chat-GPT gemacht. Lokal hat mich kein LLM überzeugt, kann aber auch daran liegen, dass ich mir mit 32 GB
RAM nur die maximal 14b Modelle gezogen habe.