KI macht doch nix weiter, als nachgucken, ob's für die (vermeintlich) verstandene Frage eine (vermeintlich) richtige Antwort gibt.
Wenn die "Wissensquelle" fundiertes Halbwissen enthält, kommt als Ergebnis eben auch nur fundiertes Halbwissen heraus
Es gilt auch hier: Mist rein, Mist raus.
Nur wird durch die Algorithmen der KI der Input deutlich schneller und deutlich komplexer zu Output. Aber das erlaubt kein Urteil über die Qualität des Outputs.
Wikipedia als "Wissensgrundlage" ist zwar gut und schön, weil man viel an Info bekommt. An etlichen Unis ist Wikipedia jedoch nicht zitierfähig, da zu fehlerbehaftet und damit fangen dann schon die ersten Probleme bei den Antworten von ChatPGT an. Und was richtig ist und was falsch ist, ist oft schon subjektiv.
Solange nicht sichergestellt ist, dass die Wissensbasis der KI absolut fehlerfrei ist, kann man keine absolut fehlerfreie Ausgabe erwarten. (Wer, wie oder was definiert überhaupt, was Fehlerfreiheit ist, wann eine Information fehlerfrei ist?)
Solange die Wissensbasis nicht moralisch einwandfrei ist, kann man nicht erwarten, dass die Ausgabe moralisch einwandfrei ist. (Und dann unterhalte man sich mal mit einem Dutzend Leute darüber, was moralisch einwandfrei ist und man bekommt genausoviele, mal mehr mal weniger von einander abweichende, Antworten.)
Und das soll die KI, egal wie komplex die Algorithmen auch sein mögen, richten?