Wenn wir darüber diskutieren, ob KI gefährlich für uns ist oder nicht, gibt es zwei gerne genutzte Denkfehler. Fehler eins: KI ist intelligent wie ein Mensch.
Falsch, sie kann nur intelligentes Verhalten simulieren, in dem sie aus gigantischen Datenmengen die wahrscheinlichsten Antworten heraus generiert.
Hier die Definition des europäischen Union, was KI eigentlich ist:
Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.
Man beachte das Wort „imitieren“. Wie sie das macht, das ist noch völlig unklar, um diese Frage zu klären entsteht gerade eine neue Forschungsrichtung namens Explainable AI (kurz XAI), die sich damit befasst, KI Entscheidungen nachvollziehbar und erklärbar zu machen. Denn bislang sind wir zwar erstaunt über die Ergebnisse, warum aber eine spezifische Antwort generiert wurde, ist weitestgehend unerklärbar. Der Algorithmus ist bekannt, aber wie er sich justiert, um passende Antworten zu geben, das steckt vergraben im Algorithmus selbst.
Kommen wir aber zum Titel dieses Blogbeitrags und damit zum Messer. Denn genau wie ein Messer Brot schneiden oder einen Menschen verletzen kann, ist es auch bei der KI. Ob sie Gutes oder Böses tut, das liegt in der Verantwortung des Menschen. Der KI ist Werkzeug wie das Messer und kann genauso für Gutes wie Schlechtes eingesetzt werden. Selbst die Entscheidung, wie sehr ich der Antwort einer KI vertraue ist Teil der Verantwortung des Menschen. Die KI für alles verantwortlich zu machen wäre sicher einfach, aber viel zu kurz gesprungen.
Die rasante Entwicklung generativer KI darf uns nicht vergessen lassen, dass wir die Verantwortung haben ob KI Brot schneidet oder Menschen verletzt.