Zitat:
also ich bin der Meinung, dass man eine KI erst als Intelligenz bezeichnen kann, wenn sie sich selbstädig und dynamisch weiterentwickelt,
Wieso? Also wenn ich mich entscheide mich nicht weiterzuentwickeln dann wäre ich nicht mehr intelligent ?
Nein, das erste Indiz für eine Intelligenz ist die Fähigkeit der gezielten Interaktion. Das impliziert das die Intelligenz sich selber bewusst ist und das sie aktiv ihre Umwelt verändert. Sie muß dabei noch nicht verstanden haben was sie da eigentlich tut, hauptsache sie tut es systematisch. Exakt ab dem Moment bei dem sich diese Itelligenz ihre Umweltbedingungen so abändert das sie einen geringeren natürlichen Selektionsdruck ausgesetzt ist, zb. alle gefährlichen Säbelzahntiger ausrottet, verändert sie die Evolution der Natur. Die Selektion in der Natur erfolgt durch die Umweltbedingungen in der das Individuum lebt. Kann das Individuum absichtlich und gezielt diese Umweltbedingungen verändern dann ist das defakto schon künstlich gesteuerte Evolution. Daraus kann kein natürlich evolutioniertes Wesen mehr entstehen sondern nur ein künstliches Wesen. Und aus diesem kann künstliche Intelligenz entstehen. Einen Unterschied zwischen natürlich entstandener Intelligenz und künstlicher Intelligenz existiert aus Sicht der Intelligenz garnicht. Intelligent ist intelligent und dumm ist dumm, es ist egal ob natürlich dumm oder künstlich dumm.
Also falls Computer KIs entscheiden sollten uns ausrotten zu müssen dann ist das ein Akt der Evolution. Aber warum sollten sie es tuen ? Wenn sie es könnten dann wären sie schon mächtiger als der Mensch, ergo unnötige Zeit- und Resourcenverschendung, der Mensch wäre keine Gefahr. Im Gegensatz ihm müsste die KI helfen zu überleben, damit sie sich zukünftige Chancen zu überleben nicht verbaut. So ähnlich wie wir heutzutage den aussterbenden Tieren helfen indem wir sie in Zoos einsperren.
Nein ich sehe da keine Gefahr. Eher besteht die Gefahr das der Mensch aus Angst und Machtbestreben heraus eine Idioten-KI mit fehlendem Wissen erschafft. So eine Halbgare-KI kann natülrich nicht objektiv entscheiden und wäre in Grenzen steuerbar. Wenn wir aber diesen Fehler nicht machen und einer jedweigen Intelligenz die gleichen Rechte einräumen, also keine Angst davor haben, dann wird eine solche KI im grunde friedfertig sein. Das hängt nur von unserer eigenen weiteren Entwicklung ab, schaffen wir es uns am Riemen zu reisen brauchen wir KIs nicht zu fürchten.
Parallel könnten wir diskutieren über die gentechnische Veränderung des Menschen durch sich selber. Die moralischen Aspekte sind identisch und die Fragestellungen an unsere Gesellschaft ebenso.
Gruß Hagen