Liest man im Moment über generative KI und LLMs (Large Language Models) bekommt man vor allem durch die Medien den Eindruck vermittelt , wir hätten es mit einer echten Intelligenz zu tun.
Sorry wenn ich jetzt enttäusche aber dem ist nicht so. Die Maschinen sind nach wie vor dumm, die Neuronalen Netze und die Algorithmen dahinter zum Maschinellen Lernen vermitteln den Eindruck, als könnten die Computer echte Antworten auf Fragen geben.
Was aber eigentlich passiert ist, dass Token (Wörter) über spezielle Algorithmen über Vektoren semantisch verknüpft werden. Das KI Modell sucht vereinfacht gesagt lediglich das nächste plausibelste Wort. Es erzeugt also Wortketten, die dann durch die schiere Grösse der Modelle und der neuronalen Netze einen sinnvollen Zusammenhang geben (meist, wenn die generative KI nicht gerade halluziniert, also die falschen Worte für die plausibelsten hält).
Spätestens jetzt kommt Ethik mit ins Spiel. Beim Training der Netze gibt es einiges an ethischen Fragen. Welche Quellen verwende ich? Vieles an Trainingsmaterial kommt aus dem Internet. Zapfe ich jetzt zum Beispiel X, the platform formerly know as Twitter, an kann es sehr schnell zu einem Bias, einer falschen Gewichtung auf rechtes Gedankengut kommen. Ebenso wichtig ist die Erstellung qualitativer Prompts (quasi Anweisungen an das Modell) um gute und passende Ergebnisse zu erhalten.
Was ist mit Copyright bei entsprechenden Datenquellen? Wie vermeide ich Deepfakes bzw. welche Wege gibt es, hier algorithmisch einzugreifen? Was ist mit Datenschutz? Wer ist hier der Ansprechpartner bei Verstössen?
Das neuronale Netz interessiert sich aber nicht für solche Fragen, es ist letztlich auch nur ein Algorithmus. Gravierender vielleicht noch bei Bildern oder Filmen, bei denen scheinbare Wahrheiten generiert werden, die aber rein dem Verrauschen und Entrauschen von einer Unmenge von Vorlagen entsprungen sind.
Wer aber ist hier verantwortlich, wer überprüft die Validität der Ausgaben. Bislang werden viele Antworten noch von Hand von Menschen geprüft. Je mehr aber generative KI zum Einsatz kommt, um so eher wird auch diese Prüfung automatisiert. Das aber birgt einige Gefahren. Es kann erneut eine falsche Gewichtung passieren oder durch unwissentliches Anlernen einer generativen KI mit von anderen generativen Systemen erzeugten Daten verdummen die Modelle wieder. Und warum genau ein System eine bestimmte Antwort gibt, ist nicht entschlüsselbar, da die Lernalgorithmen neuronaler Netze diese Information in einer gigantischen Menge verknüpfter Neuronen und deren Gewichtung verschlüsseln.
Wir sind an einem Wendepunkt, wo KI zum ersten Mal in großem Maßstab genutzt und gesellschaftlich akzeptiert wird. Insofern ist ein Diskurs über eine Ethik der KI, einen Codex für das Training und die Verwendung von KI Systemen notwendig. Erste Ansätze sind in der EU mit der KI-Verordnung und in anderen Ländern zu erkennen.
Letztlich braucht es eine feine Balance von Regulierung der Technologie und Ermöglichen, sich weiter zu entwickeln. Insofern halte ich einen beständigen Diskurs parallel zur technologischen Weiterentwicklung generativer KI für dringend angeraten. Wichtig hier die Teilnahme verschiedener gesellschaftlicher Gruppen, bis hin zum einzelnen Bürger selbst.
Ich erinnere mich gut an die Kontroversen zu meiner Studienzeit, als Neuronale Netze erstmal als neues Konzept (Stichwort „Weiche KI“) in meinem KI Studium aufkamen. Aber schon 1994, als ich meinen Abschluss machte, war abzusehen, dass hier ganz neue ethisch-moralische Fragen im Entstehen waren.
Es bleibt spannend. Die Technologie der generativen KI hat viel Potential. Es ist dennoch notwendig, einen Diskurs jenseits der technischen Grundlagen über soziale und gesellschaftlich-politische Aspekte zu führen. Dies vor allem begleitend, nicht nur punktuell um Fehlentwicklungen frühzeitig zu erkennen, was letztlich auch der Akzeptanz und Qualität der generativen Systeme zu Gute kommt.
Der Diskurs ist alleine deshalb schon wichtig, weil populistische Ablehnung oder Profilierung auf Kosten der Forschung nicht nur Deutschland als Wissenschafts- und Forschungsstandort schaden. Wenn hier zu viel reguliert wird, kann das auch die Wirtschaft ins Hintertreffen bringen, ebenso aber auch Ablehnung durch Uninformiertheit über Risiken UND Chancen. Gerade z.B. in der Medizin kann hier ein Quantensprung entstehen auf Grund völlig neuer Möglichkeiten durch KI als Werkzeug.
Letztlich trifft nach wie vor das alte Gedankenexperiment zu, dass wir in Diskussionen schon damals im Studium vorbrachten.
Ein Messer kann ich zum Brot schneiden und zum Töten eines Menschen verwenden. Das ist aber nicht die Entscheidung des Messers sondern desjenigen, der es nutzt.