KI - Künstliche Intelligenz

  • In der Computertechnik ist man bestrebt, eine "intelligente Maschine" zu erschaffen.


    Das sollte als Diskussionsgrundlage reichen. Legt los. .... nein so schreibe ich keine neuen Themen *lach*


    Was soll ein "künstliche Intelligenz" ( ab jetzt nur noch mit "KI" abgekürzt) eigentlich leisten und wozu ist sie gut ?


    In den paar Jahrzehnten, in denen es jetzt Computersoftware gibt, scheint es, als wenn die Software immer intelligenter würde.
    Sie trifft Entscheidungen, die scheinbar "intelligent" wirken und immer mehr Menschen verlassen sich darauf, dass diese "Entscheidungen und Handlungen" auch gut für sie sind.
    Eigentlich sind es jedoch weder "intelligente" Entscheidungen, noch sind sie "immer gut" für den Benutzer.


    Die aktuelle Software ist "völlig dumm". Sie kann immer noch eine "Ja/Nein-Entscheidung" treffen.
    Aus dem "Ergebnis" wird dann wieder die nächste Frage eingeleitet, auf die wieder mit "Ja/Nein" entschieden werden muss.


    Beispiel für die Entscheidungsprozesse in einem Antivirenprogramm


    Heutige Software arbeitet also immer mit "Ja/Nein" ... und im nächsten Schritt heißt es immer wieder " wenn... dann".


    Die Menge der vielen Einzelfragen übersteigt natürlich längst das was sich ein Mensch selbst an Fragen stellen würde.
    Millionen von Fragen und Abfragen pro Sekunde und Millionen kleiner "Entscheidungen" .. die am Ende nur zu einer einzigen Aktion führen.


    Was jedoch so intelligent zu sein scheint, ist nur das Ergebnis eines "Denkprozesses", den der Programmierer einmal hatte und in viele Einzelfragen ausformuliert hat. Die "Grenze der intelligenten Entscheidung" liegt da, wo der Programmierer mit der Fragerei aufgehört hat. Die Software ist also nur so schlau wie sein Programmierer.
    In der Regel ist es wirklich so, dass eine Software "intelligenter als der Nutzer" ist ... aber das auch nur, weil der Programmierer (in genau diesem Bereich) mehr Erfahrungen hatte.


    Typische Präzedenzfälle sind Computerspiele.
    Hier hat der Entwickler seine eigenen Erfahrungen rund um das Genre in einer Datenbank als Antwort abgelegt.
    Hat der Spieler mehr Erfahrungen in dem Genre als der Entwickler, kann er das Spiel gewinnen. Hat er weniger, verliert er das Spiel.


    Aber:
    Der Mensch ist in der Lage, aus seinen Fehlern zu lernen. Der Software fehlt jedoch dieses Attribut.
    Sie kann immer nur reagieren, nie aber eigene Erfahrungen für weitere (noch nicht vorhandene) Ja/Nein-Fragen nutzen.


    Der Mensch erwartet zunächst, dass eine KI mehr Erfahrungen als er selbst hat. Aus diesem "Mehr" an Erfahrungen, soll sie in seinem Sinn eine Entscheidung treffen.


    Der Nachteil:
    Wenn die KI mehr Erfahrungen als der Benutzer hat, kann der Benutzer die Konsequenz der KI-Entscheidung nicht mehr überblicken.
    Er muss sich einfach darauf verlassen, dass die KI so programmiert wurde, dass sie nur zu seinem Wohl arbeitet.


    Das beste Beispiel, dass der Benutzer eine Software-Entscheidung nicht mehr überblicken kann, sind jetzt schon moderne Betriebssysteme.
    Der Hersteller sagt "das musst du unbedingt haben oder updaten, weil es gut für dich ist ".
    Der Benutzer muss dieser Aussage vertrauen, er kann es in der Regel jedoch nicht überprüfen.


    Ich nehme einfach mal die Windowsfunktion "wgatray.exe".
    Sie überprüft mit jedem Rechnerstart, ob man ein Original-Windows hat.
    Ist diese tägliche Abfrage wirklich für den Benutzer wichtig und gut ? Nein, ist sie nicht. Die tägliche Überprüfung ist völliger Blödsinn.
    Wenn ich eine Raubkopie habe, genügt es wenn sie nach der Installation oder nach der Aktivierung unbrauchbar gemacht wird.
    Wenn ich dagegen ein Original habe, ist es eben ein "geprüftes Original". Jede weitere regelmäßige Überprüfung ist verschwendete Rechner-Ressource und Energie.
    Die Überprüfung ergibt also keinen Sinn.


    Aber ... was viele Benutzer nicht wissen (weil sie die EULA nicht lesen):
    Dieses kleine Programm prüft nicht nur, ob man ein original Windows hat (was es ja eigentlich nur machen soll), sondern es überprüft auch, welche Software man installiert hat und ob diese original ist. Diese Daten werden dann an alle angeschlossenen Softwarehersteller weiter gesendet.
    Diese tägliche Prüfung ergibt jetzt also doch einen Sinn. Das Betriebssystem handelt hier jedoch nicht mit Wissen des Nutzers und es ist auch nicht eindeutig, dass diese Prüfung nur zu seinem Wohl ist.


    Es gab schon Windowssysteme, die gewisse Originalsoftware nach so einer Überprüfung als illegal einsortierte und deren Benutzung völlig sperrte. Hier handelte die kleine Prüfsoftware also gegen die Interessen des Nutzers und schadete ihm nur... weil die Programmierer einen Fehler gemacht hatten.


    Alle Entscheidungen beruhen nur auf dem Software-Entwickler. Was ER will, macht die Software. Was er nicht will/weiß/kann, kann/will auch die Software nicht.


    KI gibt es also noch nicht. Noch kann eine Software also nicht "selbst denken" ... auch wenn manche Software so betrachtet wird.


    Doch warum wird weiter an einer KI gearbeitet ?
    Die KI soll in einem ganz bestimmten Fachgebiet alle menschliche Erfahrungen zur Verfügung haben, um daraus eine optimale Entscheidung treffen zu können.
    In dem Fall wäre es aber immer noch keine KI. Es wäre einfach nur der Einsatz alles zur Verfügung stehenden menschlichen Wissens.


    Wann wird es wirklich zu einer KI ?
    - Wenn die KI in der Lage ist, selbst neue Daten (und Wissen) zu schaffen, die dann wieder in Entscheidungsprozesse einfließen können.
    - Wenn sie kreativ/erfinderisch wird
    - Wenn sie ein eigenes Bewusstsein entwickelt.


    Welche Probleme würden mit einer echten KI entstehen ?

    - völliger Kontrollverlust über die Entscheidungsprozesse.

    Eine "echte KI" kann sich "Gedanken machen". Sie kann damit auch zu völlig anderen Ansichten kommen, welche Entscheidung zum Wohle des Nutzers ist.


    Hier kann man sich mal die "Asimovschen Gesetze" vornehmen

    Zitat

    1 ) Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
    2) Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
    3 ) Ein Roboter muss seine Existenz beschützen, so lange dieser Schutz nicht mit Regel eins oder zwei kollidiert.


    Es klingt so, als wenn diese alles berücksichtigen würden.
    Sie berücksichtigen jedoch nicht, dass sich z.B. ein Mensch in Gefahr begibt, um einen anderen Menschen zu retten oder ihm sonstwie zu helfen.
    Polizei, Feuerwehr, Rettungsdienste, Krankenhäuser .. ja selbst "Erste Hilfe am Unfallort" würden damit durch eine KI verhindert werden müssen. Überall dabei bringen sich Menschen für andere Menschen in Gefahr, um ihnen zu helfen.


    Ein Computer kennt eben keine Menschlichkeit. Sein strickt logisches Denken verhindert es, weil der Mensch eben kein "logisch denkendes Wesen" ist.


    - ethische Bedenken
    Sobald eine KI selbstständig denken und Entscheidungen treffen kann, handelt es sich um eine eigenständige Intelligenz.
    "Ich denke, also bin ich"
    Mit einer echten KI würde also ein neues (elektronisches) Lebewesen entstehen, das wie ein Mensch behandelt werden müsste.


    Das stellt grundsätzlich kein Problem dar .. aber so eine KI denkt "unmenschlich-logisch" .. und trotzdem würde es eine Intelligenz sein, die (als Individuum) geschützt werden muss.
    Noch kann man sagen "es ist doch eine Maschine , die keine Gefühle hat und deshalb nicht mit einem Menschen gleichzusetzen ist".
    In dieser Phase darf man also so eine Maschine einfach vernichten, wenn sie ihren Zweck nicht mehr erfüllt.


    Kann sie aber aus Erfahrungen lernen, sich anpassen, eigene Entscheidungen fällen ... wird sie irgendwann einmal auch an dem Punkt angelangt sein, an dem sie so etwas Ähnliches wie Gefühle entwickeln könnte.


    JETZT ist sie wirklich ein eigenes Lebewesen geworden ... ein Lebewesen, das keinen körperlichen Schmerz empfinden kann und das deshalb wahrscheinlich immun gegen jede Art von "Bestrafung" sein würde.
    Ein neues Lebewesen, das man "menschlich" behandeln muss und das nicht nur ein Werkzeug ist, das sowohl Freund oder Feind sein kann.
    Ein neues Lebewesen, das in seinem eigenem Interesse handeln kann (und wahrscheinlich auch wird).
    Ein Lebewesen , das seine eigenen Ziele hat, die nicht dem der Menschheit entsprechen müssen.
    Ein Lebewesen, das sich selbst weiter entwickeln kann und "die Nachfolge des Menschen" antreten könnte.


    Allein wegen der ethischen Bedenken, muss man also die Entwicklung der KI an einem ganz bestimmten Punkt abbrechen:
    DANN wenn der Punkt erreicht ist, an dem sich eine Intelligenz entwickelt, die eigenständige Entscheidungen treffen kann ---> damit wird sie nämlich schützenswert (siehe Tierschutz) und ist nicht mehr nur ein Werkzeug, das man einfach benutzen darf.
    Es wird also nie eine "künstliche Intelligenz" entstehen .... oder der Mensch müsste sie dann als "gleichwertig" behandeln und betrachten.


    "Die Geister, die ich schuf ..."

  • Ich habe auch mal ein Buch gelesen, welches sich mit KI beschäftigt hat:
    http://www.amazon.de/UFO-geheimen-Welt-Computerkrimi-4-Serie


    Etwas kindisch und für eine jüngere Altersgruppe geschrieben, aber der Hintergrundgedanke ist derselbe, wie du ihn gerade angesprochen hast: Was ist, wenn Maschinen selbstständig denken können? Was ist, wenn sie selbst Entscheidungen treffen können? Muss man sie dann abschalten? Und wie geht das, wenn sie selbstständig denken und sich anpassen können?


    In der Geschichte konnte so eine Revolution noch aufgehalten werden. Aber der Hintergrundgedanke ist gut. Daher sollte die Entwicklung der KI am jetzigen Stand festgehalten werden - irgendwann wird es so weit kommen, dass wir das selbst nicht mehr kontrollieren können.