Hast Du ein praktisches "Hello World" für ein lokales LLM (Mit Delphi)
Wie gesagt, lokale LLMs sind (aktuell) bei weitem nicht so intelligent wie gehostete.
Dennoch: Mit Ollama (
https://ollama.com/) kannst Du viele LLMs lokal betreiben:
Das ist ja ein externe Software.
Ein LLM "Hello World" mit Delphi sieht für mich so aus:
Eine Delphi
Unit - zur Not mit einer Komponente - Läd Daten eines LLM und kann dann ohne externe Resourcen die Frage(n) beantworten.
Mavarik