Ich habe es jetzt hinbekommen, die "KI" in die
IDE einzubinden. Jeder Aufruf dauert natürlich ewig, weil der PC dafür schlicht nicht geeignet ist. Aber es funktioniert.
Das kommt natürlich auf die Hardware an.
Mit den Cloud-Services geht es zwar flott, aber das "Rendern" der Texte dauert halt auch seine Zeit.
Im DeepResearch bei OpenAI kann der mal locker ein paar Minuten nachdenken.
In der Zeit sollte natürlich nichts blockieren ...
Mit eigener Hardware:
Die echten KI-Beschleuniger kann sich ein "Normalsterblicher" kaum leisten.
Es hört sich so an, als würdest Du eine lokale Hardware nutzen, welche GPU hast Du denn im PC verbaut?
Ich denke mit weniger als NVIDIA GeForce RTX 4090 sollte man gar nicht anfangen.
Mit MacMini und M2+ geht es allerdings auch relativ flott.
Wenn es schneller sein soll kann man auch externe GPU's in der Cloud nutzen, aber dann bist Du wieder in der Cloud ...