Die KI-Illusion: Warum die Krise der Arbeitswelt ein gesellschaftliches Versagen ist

​Gestern war ich beim KI Salon Disput „

KI & Arbeit – Wo werde ich noch gebraucht?

Ein paa Gedanken dazu und zu den dort angesprochenen Punkten:

Zunächst einmal: Es ist ein bequemes Narrativ: Die Künstliche Intelligenz kommt wie eine Naturgewalt über uns und vernichtet Arbeitsplätze. In Talkshows und Management-Etagen (aber eben auch in der KI Community selbst ) wird die Automatisierung oft als technisches Schicksal dargestellt, dem wir machtlos gegenüberstehen. Doch wer die Transformation der Arbeitswelt allein der KI zuschreibt, betreibt gefährlichen Technodeterminismus.

Drei Bildschirme mit dem Schriftzug KI

​Das Problem ist nicht die Rechenleistung von Large Language Models (LLMs) oder die Effizienz von Algorithmen. Das Problem ist eine Gesellschaft, die krampfhaft an Strukturen des 19. Jahrhunderts festhält, während sie die Technologie des 21. Jahrhunderts implementiert.

​Der Mythos vom „Job-Killer“ KI

​Die Angst vor technologischer Arbeitslosigkeit ist so alt wie die industrielle Revolution selbst. Doch ökonomische Daten zeigen regelmäßig, dass Technologie primär Aufgaben innerhalb von Berufen verändert, statt ganze Berufsbilder ersatzlos zu streichen. Laut einer Studie der OECD (2023) sind vor allem hochqualifizierte Tätigkeiten von der KI-Exposition betroffen, doch gleichzeitig entstehen neue Bedarfe an menschlicher Expertise in der Steuerung und Validierung dieser Systeme.

​Das eigentliche Problem ist die Entkopplung von Produktivität und Entlohnung. Seit den 1970er Jahren ist die Produktivität massiv gestiegen, während die Reallöhne in vielen Sektoren stagnierten. KI ist lediglich das neueste Werkzeug, das diese Schere weiter öffnen könnte – aber nur, wenn wir die Verteilungsmechanismen nicht ändern.

​Bullshit Jobs und das Sinn-Vakuum

​Der Anthropologe David Graeber prägte den Begriff der „Bullshit Jobs“ – Tätigkeiten, die selbst von denjenigen, die sie ausüben, als sinnlos erachtet werden. Unsere Gesellschaft definiert den Wert eines Menschen fast ausschließlich über seine Erwerbsarbeit. Wenn KI nun administrative oder repetitive Aufgaben übernimmt, gerät dieses Identitätsmodell ins Wanken.

​Die Krise der Arbeitswelt ist eine Sinnkrise. Wir haben es versäumt, den technologischen Fortschritt in Zeitwohlstand zu übersetzen. Statt die Arbeitszeit bei steigender Effizienz zu senken, halten wir am 40-Stunden-Dogma fest, was zu psychischen Belastungen und einer Entfremdung von der eigentlichen Tätigkeit führt.

​Das Bildungs-Paradoxon

​Wir bilden Menschen immer noch nach dem preußischen Fabrikmodell aus: Disziplin, Standardisierung und das Auswendiglernen von Fakten. In einer Welt, in der Generative KI (wie GPT-4 oder Nachfolger) Faktenwissen in Millisekunden aggregiert, ist dieses Bildungsmodell obsolet.

​Die Gesellschaft scheitert daran, Kompetenzen wie kritisches Denken, ethische Urteilskraft und interdisziplinäres Systemverständnis zu fördern. Wir brauchen keine „menschlichen Taschenrechner“, sondern Individuen, die KI als Werkzeug verstehen, um komplexe gesellschaftliche Probleme zu lösen.

​Fazit: Wir brauchen einen neuen Gesellschaftsvertrag

​Die Transformation der Arbeitswelt ist kein technologisches Problem, das wir durch bessere Algorithmen lösen. Es ist eine politische und soziologische Gestaltungsaufgabe.

  1. ​Umverteilung von Produktivitätsgewinnen: Wenn Maschinen den Mehrwert erwirtschaften, muss die Besteuerung von Arbeit hin zu einer Besteuerung von automatisierten Wertschöpfungsketten (z. B. Robotersteuer-Modelle) diskutiert werden.
  2. ​Arbeitszeit-Souveränität: Die Entkoppelung von Existenzsicherung und 40-Stunden-Woche ist zwingend, um den Druck aus dem Kessel zu nehmen.
  3. ​Explainable AI & Ethik: Wir müssen sicherstellen, dass KI-Entscheidungen im Arbeitsumfeld transparent und menschenzentriert bleiben (XAI).

​Nicht die KI bedroht unsere Zukunft, sondern unsere Unfähigkeit, den Begriff „Arbeit“ neu zu definieren. Es ist Zeit, dass wir die Technologie nutzen, um das Menschliche wieder ins Zentrum zu rücken, statt den Menschen zum Anhängsel der Maschine zu degradieren.

​Quellen und Referenzen

  • OECD (2023): OECD Employment Outlook 2023: Artificial Intelligence and the Labour Market. Dieser Bericht analysiert die Auswirkungen von KI auf die Beschäftigung und betont die Notwendigkeit politischer Maßnahmen für einkommensschwache Haushalte. Link zum vollständigen Bericht (OECD)
  • Brynjolfsson, E., & McAfee, A. (2014): The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. Ein Standardwerk zur digitalen Transformation und deren ökonomischen Folgen. Informationen und Publikationsdetails (MIT IDE)
  • Graeber, D. (2018): Bullshit Jobs: A Theory. David Graebers Untersuchung über die Zunahme sinnfreier Beschäftigungen in modernen Volkswirtschaften. Projektseite und Buchübersicht (DavidGraeber.org)
  • Arrieta, A. B., et al. (2020): Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI. Ein zentrales Paper zur wissenschaftlichen Einordnung von Explainable AI, wie im Fazit des Beitrags erwähnt. Link zum Paper (ScienceDirect)
  • Mubarak, F. (2026): Guarding truth in an AI world: ethics for the next generation of scholarship. Journal of Information, Communication and Ethics in Society. Eine aktuelle wissenschaftliche Einordnung der ethischen Herausforderungen durch KI (Stand März 2026). Link zum Journal-Eintrag (Emerald Insight)

Von der Assistenz zur Autonomie: Wo wir im Frühjahr 2026 wirklich stehen

Es ist noch nicht lange her, da haben wir uns darüber gewundert, dass Sprachmodelle halbwegs fehlerfrei halluzinieren können. Heute, im März 2026, hat sich der Fokus verschoben. Wir reden nicht mehr nur über „Generative KI“, sondern über Agentic AI – Systeme, die nicht mehr nur auf Prompts warten, sondern eigenständig Ziele verfolgen.

Für jemanden, der die Anfänge der Computerlinguistik in den 90ern miterlebt hat, ist diese Entwicklung faszinierend und beängstigend zugleich. Wir verlassen den Bereich der bloßen Textvorhersage und treten in das Zeitalter der handelnden Systeme ein.

1. Agentische Systeme: Autonomie statt Interaktion

Der entscheidende Durchbruch der letzten Monate ist die Reife von KI-Agenten. Im Gegensatz zu klassischen LLMs, die reaktiv arbeiten, agieren agentische Systeme proaktiv innerhalb definierter Leitplanken. Sie zerlegen komplexe Aufgaben selbstständig in Teilaufgaben, nutzen externe Werkzeuge (APIs, Browser, Code-Interpreter) und korrigieren ihre eigenen Fehler in Echtzeit [1].

In der Softwareentwicklung sehen wir das am deutlichsten: KI-Agenten übernehmen heute nicht mehr nur das Autocomplete von Codezeilen, sondern das gesamte Refactoring komplexer Legacy-Systeme. Analysten gehen davon aus, dass wir uns an einem Wendepunkt befinden, an dem der „Agentic Pivot“ die gesamte Unternehmensstrategie neu ausrichtet [2].

2. Multimodalität und World Models

Wir haben die Ebene der reinen Token-Verarbeitung verlassen. Die aktuellen Modelle des Frühjahrs 2026 basieren auf sogenannten World Models. Diese Systeme verstehen physikalische Gesetzmäßigkeiten und räumliche Zusammenhänge in Videos und Simulationen weitaus besser als ihre Vorgänger. Dies ist die notwendige Voraussetzung für die nächste Welle: die Integration von KI in humanoide Hardware, die nun langsam die Fabrikhallen verlässt und in Pilotprojekten im Alltag ankommt [3].

3. KI in der Wissenschaft: Die „Golden Era“ der Entdeckungen

Als Wissenschaftler beeindruckt mich am meisten die Geschwindigkeit in der Materialforschung und Biologie. KI-Forschungsassistenten sind heute in der Lage, Hypothesen über Proteinfaltungen oder neue Batteriematerialien nicht nur aufzustellen, sondern deren Verifikation in automatisierten Laboren selbst zu steuern. In der medizinischen Forschung übernimmt die KI mittlerweile die Rolle einer echten Laborassistenz, die weit über bloße Datenanalyse hinausgeht [3].

Ethik und „Explainable AI“ (XAI)

Doch bei all der Euphorie bleibt eine Baustelle kritisch: die Erklärbarkeit. Je autonomer die Agenten werden, desto dringlicher wird die Frage der Governance. Experten warnen bereits vor den erheblichen Risiken, die entstehen, wenn autonome Agenten Zugriff auf sensible Kontodaten oder IT-Infrastrukturen erhalten, ohne dass ihre Entscheidungswege vollständig transparent sind [4]. Wir brauchen dringend robustere Frameworks für Explainable AI, um den Kontrollverlust zu verhindern [5].

Fazit

Die Experimentierphase ist vorbei. Wir stecken mitten in der produktiven Implementierung. Die Frage ist nicht mehr, ob die KI uns Arbeit abnimmt, sondern wie wir die Souveränität über die Prozesse behalten, wenn die KI-Agenten erst einmal anfangen, das Internet und unsere internen Netzwerke eigenständig zu „bewohnen“.

Wir leben in der Zukunft, die wir früher nur theoretisch diskutiert haben. Jetzt müssen wir sie gestalten.


Quellen:

Bedeutung ist etwas anderes

Wenn ich zurückblicke, dann war vor meinem Suizidversuch und der Rettung außer meiner Beziehung und den Kindern nichts von Relevanz, jedenfalls nicht aus meinem Blickwinkel. Okay, eine Stammzellspende, die ein Leben rettete aber das war ein Zufall, eine Koinzidenz.

Danach wurde ich zum Erfolgsautor, zum Aktivisten für mentale Gesundheit. Ich startete zwei erfolgreiche Petitionen mit knapp 120000 Stimmen in Bayern und mit 250000 Stimmen bundesweit. Das sind für mich persönlich Erfolge, die aber in dem Meer anderer Erlebniswelten schlicht untergehen.

Das Verrückte ist, wie schnell man so etwas vergisst, sich selbst als wertlos, zumindest aber als bedeutungslos ansieht.  Worauf ich hinaus will. Relevanz ist nichts, was automatisch aus einer Handlung entspringt.

Betrachtet man, wie unwahrscheinlich die eigene Geburt ist, kommt eine Zahl heraus, die eigentlich das menschliche Vorstellungsvermögen sprengt:

Die Zahl: 1 zu

Um diese Zahl zu verdeutlichen: Es ist eine 1 gefolgt von 2.685.000 Nullen. Zum Vergleich: Es gibt „nur“ etwa Atome im gesamten beobachtbaren Universum.

Noch ein paar Zahlen, die es vielleicht deutlicher werden lassen.

Der Harvard-Absolvent und Autor Dr. Ali Binazir hat diese Wahrscheinlichkeit in einem bekannten Gedankenexperiment aufgeschlüsselt. Er berücksichtigte dabei folgende Faktoren:

  • Das Treffen deiner Eltern: Die Chance, dass sich genau deine Eltern begegnen und miteinander sprechen ().

  • Die Fortpflanzung: Die Chance, dass sie lange genug zusammenbleiben, um ein Kind zu zeugen ().

  • Die richtige Kombination: Die Chance, dass genau die eine Samenzelle (unter ca. 250 Millionen) auf genau die eine Eizelle trifft, aus der du entstanden bist ( Quadrillionen).

  • Die Ahnenreihe: Dieser Prozess muss über Tausende von Generationen perfekt funktioniert haben. Jede einzelne deiner Vorfahren musste das geschlechtsreife Alter erreichen und sich erfolgreich fortpflanzen ( über die gesamte Menschheitsgeschichte).

„Die Wahrscheinlichkeit, dass du existierst, ist vergleichbar mit der Chance, dass zwei Millionen Menschen zusammenkommen, um mit einem Billionen-seitigen Würfel zu spielen, und alle exakt die gleiche Zahl würfeln.“ – Dr. Ali Binazir


Die Quelle

Die detaillierte Berechnung basiert auf den Ausführungen von Dr. Ali Binazir, die er unter anderem in seinem Blog und seinem Buch The Tao of Dating sowie in einem viel beachteten TEDx-Vortrag („The Probability of You Existing“) dargelegt hat. Er stützt sich dabei auf statistische Modelle zur menschlichen Evolution und Fortpflanzungsbiologie.

Vielleicht sollten wir es manchmal etwas mehr wertschätzen, überhaupt jetzt hier zu sein. Dann noch versuchen, im eigenen kleinen Umfeld etwas besser zu hinterlassen, als man es vorgefunden hat. Bedeutung hat was für mich selbst bedeutsam ist. Die Meinungen anderer sind Interpretation, nicht Bedeutung.

Social Media ist vorbei

Social Media ist für mich nahezu wertlos geworden, lediglich Kontakt halten zu meinen Followern und Fans macht noch Sinn. Warum? Nein, nicht Mal wegen der rechten Trolle. KI hat dem Medium die Glaubwürdigkeit geraubt. Bilder, Videos, Texte sind nahezu unmöglich als KI generiert erkennbar. Das führt aber zu einer generellen Vertrauenskrise was das Medium angeht. Welcher Instanz darf man noch glauben. Man kann noch einige öffentlich rechtliche Kanäle verwenden, selbst scheinbare Wissenschaftskanäle können aber komplett generiert und damit anfällig für Halluzinationen sein. Zumal KI nach wie vor nicht VERSTEHT was sie schreibt, sondern Wahrscheinlichkeiten ermittelt. Das zwar in erschreckend hoher Qualität aber eben völlig unvalidierbar. 

Es braucht Strategien, KI als solche zu entlarven und Methoden, das Halluzinieren zu unterbinden. Aber selbst dann wird das Medium Social Media immer weniger interessant. Weil alles generiert und damit nicht real sein könnte.

Ja, selbst Cat Content.

Wo bin ich, wer bin ich, was will ich

Ich wurde in letzter Zeit des Öfteren gefragt, warum es so still geworden ist um meine Geschichte.

Es gibt eine Zeit und einen Ort. Und ich denke, meine Zeit ist nicht mehr die eines Aktivisten gegen Depression und die damit einhergehenden Vorurteile.  Hier ist eine neue Generation gefragt, ich kehre zurück zu meinen Wurzeln und befasse mich mit KI insbesondere Generativer KI, auf die ich seit meinem Studium vor 30 Jahren gehofft habe. Die letzten Jahre wurde es still, der Bedarf an meiner Geschichte beschränkt sich zunehmend auf Schulen. Das werde ich auch weiterhin anbieten, weil ich der festen Überzeugung bin, je früher wir eine Bewußtsein für mentale Gesundheit schaffen, um so besser.

Aber Moment.

Gestern war ich auf dem KI Festival des IPAI in Heilbronn. Und dort wurde unter anderem auch die Vision einer Diagnostik mit Hilfe von KI vorgestellt.  Das mag manche gruseln, ich sehe es aber als große Chance. Wir brauchen allerdings viel mehr Daten, Diagnosen, Untersuchungsergebnisse, um Modelle definieren, programmieren und trainieren zu können.

Deshalb plädiere ich weiterhin für einen offenen Umgang mit psychischen Erkrankungen. Man kann Daten einfach pseudonimsieren aber dennoch relevante Informationen erhalten. Aber auch dafür gilt es, eine Öffentlichkeit zu schaffen.

Und es gilt, Ängste und Hemmungen im Bezug auf KI abzubauen. Es birgt Risiken, KI zu verwenden aber auch unendliche Möglichkeiten, Chancen, Wege in die Zukunft.

Es ist wie  mit dem Messer, dass man zum töten oder Brot schneiden verwenden kann. Es ist nicht das Messer, es ist unser Umgang mit KI, der entscheidet, ob wir uns selbst aus der Gleichung nehmen oder eine Zukunft für alle schaffen. Dafür braucht es Umdenken und vor allem keine Politik, die immer am alten, fossilen, immer schon so getanen festklebt.

Wir brauchen Mut, um neue Wege zu gehen, Mut, auch Fehler einzugestehen, Mut, wieder aufzustehen und weiter zu machen.

Ich werde wohl doch ewig der Aufklärer, der Aktivist bleiben, aber jetzt möglicherweise auf zwei Gebieten. Mentale Gesundheit und die Chancen durch KI in der Diagnostik.

Ungesundes asoziales Medium, der Rückzug

Es fing mit einigen Wenigen an, die ihren kompletten Rückzug aus Sozial Media verkündeten. Zuerst hielt ich die Reaktion auf die jüngsten Entwicklungen für überdreht. Dann meldete Zuckertrump, dass Facebook und Co. das Fact Checking auf die Community verlagern. Wir wissen ja alle, wie gut das geht (nicht).

Mittlerweile wird das zu einem massiven Trend.Weg von den asozialen Marktplätzen für rechten Sumpf und Verschwörungstheorien, zurück zu klassischen Chats. Auch ich werde wohl primär Discord (für die Familie) und Mastodon für meine Fans, Leser und Freunde nutzen. Whatsapp und Co nur noch wenn unbedingt nötig weil sonst nicht erreichbar.

Es wird wohl dauern, bis sich wieder eine vernünftige Kultur des Miteinander umgehens entsteht. Bis dahin werde ich wohl eher auf Github, in den KI Foren und auf Discord und Mastodon sein. Der Rückzug ist nicht permanent, aber solange es so eine Kackophonie von Verschwörungstheorien, Hass und Lügen gibt, ist es für meine mentale Gesundheit einfach besser.

Und ja, auch mein Blog wird weiter bespielt, aber sonst gilt, wenn Sozial Asozial wird, ist die eigene psychische Gesundheit wichtiger als FOMO.

Wir sehen uns sicher auch so. Spätestens zur re:publica oder dem Barcamp Heilbronn oder Stuttgart.

Generative KI ist auch nur ein Messer

Wenn wir darüber diskutieren, ob KI gefährlich für uns ist oder nicht, gibt es zwei gerne genutzte Denkfehler. Fehler eins: KI ist intelligent wie ein Mensch.

Drei Bildschirme mit dem Schriftzug KI

Falsch, sie kann lediglich intelligentes Verhalten simulieren, in dem sie aus gigantischen Datenmengen die wahrscheinlichsten Antworten heraus generiert.

Hier die Definition des europäischen Union, was KI eigentlich ist:

Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.

Man beachte das Wort „imitieren“. Wie sie das macht, das ist noch völlig unklar, um diese Frage zu klären entsteht gerade eine neue Forschungsrichtung namens Explainable AI (kurz XAI), die sich damit befasst, KI Entscheidungen nachvollziehbar und erklärbar zu machen. Denn bislang sind wir zwar erstaunt über die Ergebnisse, warum aber eine spezifische Antwort generiert wurde, ist weitestgehend unerklärbar. Der Algorithmus ist bekannt, aber wie er sich justiert, um passende Antworten zu geben, das steckt vergraben im Algorithmus selbst.

Kommen wir aber zum Titel dieses Blogbeitrags und damit zum Messer. Denn genau wie ein Messer Brot schneiden oder einen Menschen verletzen kann, ist es auch bei der KI. Ob sie Gutes oder Böses tut, das liegt in der Verantwortung des Menschen. Der KI ist Werkzeug wie das Messer und kann genauso für Gutes wie Schlechtes eingesetzt werden. Selbst die Entscheidung, wie sehr ich der Antwort einer KI vertraue ist Teil der Verantwortung des Menschen. Die KI für alles verantwortlich zu machen wäre sicher einfach, aber viel zu kurz gesprungen.

Die rasante Entwicklung generativer KI darf uns nicht vergessen lassen, dass wir die Verantwortung haben ob KI Brot schneidet oder Menschen verletzt.

Die KI und die Moral. Warum das nicht so einfach ist

Liest man im Moment über generative KI und LLMs (Large Language Models) bekommt man vor allem durch die Medien den Eindruck vermittelt , wir hätten es mit einer echten Intelligenz zu tun.

Sorry wenn ich jetzt enttäusche aber dem ist nicht so. Die Maschinen sind nach wie vor dumm, die Neuronalen Netze und die Algorithmen dahinter zum Maschinellen Lernen vermitteln den Eindruck, als könnten die Computer echte Antworten auf Fragen geben.

Was aber eigentlich passiert ist, dass Token (Wörter) über spezielle Algorithmen über Vektoren semantisch verknüpft werden. Das KI Modell sucht vereinfacht gesagt lediglich das nächste plausibelste Wort. Es erzeugt also Wortketten, die dann durch die schiere Grösse der Modelle und der neuronalen Netze einen sinnvollen Zusammenhang geben (meist, wenn die generative KI nicht gerade halluziniert, also die falschen Worte für die plausibelsten hält).

Spätestens jetzt kommt Ethik mit ins Spiel. Beim Training der Netze gibt es einiges an ethischen Fragen. Welche Quellen verwende ich? Vieles an Trainingsmaterial kommt aus dem Internet. Zapfe ich jetzt zum Beispiel X, the platform formerly know as Twitter, an kann es sehr schnell zu einem Bias, einer falschen Gewichtung auf rechtes Gedankengut kommen. Ebenso wichtig ist die Erstellung qualitativer Prompts (quasi Anweisungen an das Modell) um gute und passende Ergebnisse zu erhalten.

Was ist mit Copyright bei entsprechenden Datenquellen? Wie vermeide ich Deepfakes bzw. welche Wege gibt es, hier algorithmisch einzugreifen? Was ist mit Datenschutz? Wer ist hier der Ansprechpartner bei Verstössen?

Das neuronale Netz interessiert sich aber nicht für solche Fragen, es ist letztlich auch nur ein Algorithmus. Gravierender vielleicht noch bei Bildern oder Filmen, bei denen scheinbare Wahrheiten generiert werden, die aber rein dem Verrauschen und Entrauschen von einer Unmenge von Vorlagen entsprungen sind.

Wer aber ist hier verantwortlich, wer überprüft die Validität der Ausgaben. Bislang werden viele Antworten noch von Hand von Menschen geprüft. Je mehr aber generative KI zum Einsatz kommt, um so eher wird auch diese Prüfung automatisiert.  Das aber birgt einige Gefahren. Es kann erneut eine falsche Gewichtung passieren oder durch unwissentliches Anlernen einer generativen KI mit vonEin Schreibtisch mit diversen Notebooks anderen generativen Systemen erzeugten Daten verdummen die Modelle wieder. Und warum genau ein System eine bestimmte Antwort gibt, ist nicht entschlüsselbar, da die Lernalgorithmen neuronaler Netze diese Information in einer gigantischen Menge verknüpfter Neuronen und deren Gewichtung verschlüsseln.

Wir sind an einem Wendepunkt, wo KI zum ersten Mal in großem Maßstab genutzt und gesellschaftlich akzeptiert wird. Insofern ist ein Diskurs über eine Ethik der KI, einen Codex für das Training und die Verwendung von KI Systemen notwendig. Erste Ansätze sind in der EU mit der KI-Verordnung und in anderen Ländern zu erkennen.

Letztlich braucht es eine feine Balance von Regulierung der Technologie und Ermöglichen, sich weiter zu entwickeln. Insofern halte ich einen beständigen Diskurs parallel zur technologischen Weiterentwicklung generativer KI für dringend angeraten. Wichtig hier die Teilnahme verschiedener gesellschaftlicher Gruppen, bis hin zum einzelnen Bürger selbst.

Ich erinnere mich gut an die Kontroversen zu meiner Studienzeit, als Neuronale Netze erstmal als neues Konzept (Stichwort „Weiche KI“)  in meinem KI Studium aufkamen. Aber schon 1994, als ich meinen Abschluss machte, war abzusehen, dass hier ganz neue ethisch-moralische Fragen im Entstehen waren.

Es bleibt spannend. Die Technologie der generativen KI hat viel Potential. Es ist dennoch notwendig, einen Diskurs jenseits der technischen Grundlagen über soziale und gesellschaftlich-politische Aspekte zu führen. Dies vor allem begleitend, nicht nur punktuell um Fehlentwicklungen frühzeitig zu erkennen, was letztlich auch der Akzeptanz und Qualität der generativen Systeme zu Gute kommt.

Der Diskurs ist alleine deshalb schon wichtig, weil populistische Ablehnung oder Profilierung auf Kosten der Forschung nicht nur Deutschland als Wissenschafts- und Forschungsstandort schaden. Wenn hier zu viel reguliert wird, kann das auch die Wirtschaft ins Hintertreffen bringen, ebenso aber auch Ablehnung durch Uninformiertheit über Risiken UND Chancen. Gerade z.B.  in der Medizin kann hier ein Quantensprung entstehen auf Grund völlig neuer Möglichkeiten durch KI als Werkzeug.

Letztlich trifft nach wie vor das alte Gedankenexperiment zu, dass wir in Diskussionen schon damals im Studium vorbrachten.

Ein Messer kann ich zum Brot schneiden und zum Töten eines Menschen verwenden. Das ist aber nicht die Entscheidung des Messers sondern desjenigen, der es nutzt.