Von der Assistenz zur Autonomie: Wo wir im Frühjahr 2026 wirklich stehen

Es ist noch nicht lange her, da haben wir uns darüber gewundert, dass Sprachmodelle halbwegs fehlerfrei halluzinieren können. Heute, im März 2026, hat sich der Fokus verschoben. Wir reden nicht mehr nur über „Generative KI“, sondern über Agentic AI – Systeme, die nicht mehr nur auf Prompts warten, sondern eigenständig Ziele verfolgen.

Für jemanden, der die Anfänge der Computerlinguistik in den 90ern miterlebt hat, ist diese Entwicklung faszinierend und beängstigend zugleich. Wir verlassen den Bereich der bloßen Textvorhersage und treten in das Zeitalter der handelnden Systeme ein.

1. Agentische Systeme: Autonomie statt Interaktion

Der entscheidende Durchbruch der letzten Monate ist die Reife von KI-Agenten. Im Gegensatz zu klassischen LLMs, die reaktiv arbeiten, agieren agentische Systeme proaktiv innerhalb definierter Leitplanken. Sie zerlegen komplexe Aufgaben selbstständig in Teilaufgaben, nutzen externe Werkzeuge (APIs, Browser, Code-Interpreter) und korrigieren ihre eigenen Fehler in Echtzeit [1].

In der Softwareentwicklung sehen wir das am deutlichsten: KI-Agenten übernehmen heute nicht mehr nur das Autocomplete von Codezeilen, sondern das gesamte Refactoring komplexer Legacy-Systeme. Analysten gehen davon aus, dass wir uns an einem Wendepunkt befinden, an dem der „Agentic Pivot“ die gesamte Unternehmensstrategie neu ausrichtet [2].

2. Multimodalität und World Models

Wir haben die Ebene der reinen Token-Verarbeitung verlassen. Die aktuellen Modelle des Frühjahrs 2026 basieren auf sogenannten World Models. Diese Systeme verstehen physikalische Gesetzmäßigkeiten und räumliche Zusammenhänge in Videos und Simulationen weitaus besser als ihre Vorgänger. Dies ist die notwendige Voraussetzung für die nächste Welle: die Integration von KI in humanoide Hardware, die nun langsam die Fabrikhallen verlässt und in Pilotprojekten im Alltag ankommt [3].

3. KI in der Wissenschaft: Die „Golden Era“ der Entdeckungen

Als Wissenschaftler beeindruckt mich am meisten die Geschwindigkeit in der Materialforschung und Biologie. KI-Forschungsassistenten sind heute in der Lage, Hypothesen über Proteinfaltungen oder neue Batteriematerialien nicht nur aufzustellen, sondern deren Verifikation in automatisierten Laboren selbst zu steuern. In der medizinischen Forschung übernimmt die KI mittlerweile die Rolle einer echten Laborassistenz, die weit über bloße Datenanalyse hinausgeht [3].

Ethik und „Explainable AI“ (XAI)

Doch bei all der Euphorie bleibt eine Baustelle kritisch: die Erklärbarkeit. Je autonomer die Agenten werden, desto dringlicher wird die Frage der Governance. Experten warnen bereits vor den erheblichen Risiken, die entstehen, wenn autonome Agenten Zugriff auf sensible Kontodaten oder IT-Infrastrukturen erhalten, ohne dass ihre Entscheidungswege vollständig transparent sind [4]. Wir brauchen dringend robustere Frameworks für Explainable AI, um den Kontrollverlust zu verhindern [5].

Fazit

Die Experimentierphase ist vorbei. Wir stecken mitten in der produktiven Implementierung. Die Frage ist nicht mehr, ob die KI uns Arbeit abnimmt, sondern wie wir die Souveränität über die Prozesse behalten, wenn die KI-Agenten erst einmal anfangen, das Internet und unsere internen Netzwerke eigenständig zu „bewohnen“.

Wir leben in der Zukunft, die wir früher nur theoretisch diskutiert haben. Jetzt müssen wir sie gestalten.


Quellen:

Social Media ist vorbei

Social Media ist für mich nahezu wertlos geworden, lediglich Kontakt halten zu meinen Followern und Fans macht noch Sinn. Warum? Nein, nicht Mal wegen der rechten Trolle. KI hat dem Medium die Glaubwürdigkeit geraubt. Bilder, Videos, Texte sind nahezu unmöglich als KI generiert erkennbar. Das führt aber zu einer generellen Vertrauenskrise was das Medium angeht. Welcher Instanz darf man noch glauben. Man kann noch einige öffentlich rechtliche Kanäle verwenden, selbst scheinbare Wissenschaftskanäle können aber komplett generiert und damit anfällig für Halluzinationen sein. Zumal KI nach wie vor nicht VERSTEHT was sie schreibt, sondern Wahrscheinlichkeiten ermittelt. Das zwar in erschreckend hoher Qualität aber eben völlig unvalidierbar. 

Es braucht Strategien, KI als solche zu entlarven und Methoden, das Halluzinieren zu unterbinden. Aber selbst dann wird das Medium Social Media immer weniger interessant. Weil alles generiert und damit nicht real sein könnte.

Ja, selbst Cat Content.

Generative KI ist auch nur ein Messer

Wenn wir darüber diskutieren, ob KI gefährlich für uns ist oder nicht, gibt es zwei gerne genutzte Denkfehler. Fehler eins: KI ist intelligent wie ein Mensch.

Drei Bildschirme mit dem Schriftzug KI

Falsch, sie kann lediglich intelligentes Verhalten simulieren, in dem sie aus gigantischen Datenmengen die wahrscheinlichsten Antworten heraus generiert.

Hier die Definition des europäischen Union, was KI eigentlich ist:

Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.

Man beachte das Wort „imitieren“. Wie sie das macht, das ist noch völlig unklar, um diese Frage zu klären entsteht gerade eine neue Forschungsrichtung namens Explainable AI (kurz XAI), die sich damit befasst, KI Entscheidungen nachvollziehbar und erklärbar zu machen. Denn bislang sind wir zwar erstaunt über die Ergebnisse, warum aber eine spezifische Antwort generiert wurde, ist weitestgehend unerklärbar. Der Algorithmus ist bekannt, aber wie er sich justiert, um passende Antworten zu geben, das steckt vergraben im Algorithmus selbst.

Kommen wir aber zum Titel dieses Blogbeitrags und damit zum Messer. Denn genau wie ein Messer Brot schneiden oder einen Menschen verletzen kann, ist es auch bei der KI. Ob sie Gutes oder Böses tut, das liegt in der Verantwortung des Menschen. Der KI ist Werkzeug wie das Messer und kann genauso für Gutes wie Schlechtes eingesetzt werden. Selbst die Entscheidung, wie sehr ich der Antwort einer KI vertraue ist Teil der Verantwortung des Menschen. Die KI für alles verantwortlich zu machen wäre sicher einfach, aber viel zu kurz gesprungen.

Die rasante Entwicklung generativer KI darf uns nicht vergessen lassen, dass wir die Verantwortung haben ob KI Brot schneidet oder Menschen verletzt.

Die KI und die Moral. Warum das nicht so einfach ist

Liest man im Moment über generative KI und LLMs (Large Language Models) bekommt man vor allem durch die Medien den Eindruck vermittelt , wir hätten es mit einer echten Intelligenz zu tun.

Sorry wenn ich jetzt enttäusche aber dem ist nicht so. Die Maschinen sind nach wie vor dumm, die Neuronalen Netze und die Algorithmen dahinter zum Maschinellen Lernen vermitteln den Eindruck, als könnten die Computer echte Antworten auf Fragen geben.

Was aber eigentlich passiert ist, dass Token (Wörter) über spezielle Algorithmen über Vektoren semantisch verknüpft werden. Das KI Modell sucht vereinfacht gesagt lediglich das nächste plausibelste Wort. Es erzeugt also Wortketten, die dann durch die schiere Grösse der Modelle und der neuronalen Netze einen sinnvollen Zusammenhang geben (meist, wenn die generative KI nicht gerade halluziniert, also die falschen Worte für die plausibelsten hält).

Spätestens jetzt kommt Ethik mit ins Spiel. Beim Training der Netze gibt es einiges an ethischen Fragen. Welche Quellen verwende ich? Vieles an Trainingsmaterial kommt aus dem Internet. Zapfe ich jetzt zum Beispiel X, the platform formerly know as Twitter, an kann es sehr schnell zu einem Bias, einer falschen Gewichtung auf rechtes Gedankengut kommen. Ebenso wichtig ist die Erstellung qualitativer Prompts (quasi Anweisungen an das Modell) um gute und passende Ergebnisse zu erhalten.

Was ist mit Copyright bei entsprechenden Datenquellen? Wie vermeide ich Deepfakes bzw. welche Wege gibt es, hier algorithmisch einzugreifen? Was ist mit Datenschutz? Wer ist hier der Ansprechpartner bei Verstössen?

Das neuronale Netz interessiert sich aber nicht für solche Fragen, es ist letztlich auch nur ein Algorithmus. Gravierender vielleicht noch bei Bildern oder Filmen, bei denen scheinbare Wahrheiten generiert werden, die aber rein dem Verrauschen und Entrauschen von einer Unmenge von Vorlagen entsprungen sind.

Wer aber ist hier verantwortlich, wer überprüft die Validität der Ausgaben. Bislang werden viele Antworten noch von Hand von Menschen geprüft. Je mehr aber generative KI zum Einsatz kommt, um so eher wird auch diese Prüfung automatisiert.  Das aber birgt einige Gefahren. Es kann erneut eine falsche Gewichtung passieren oder durch unwissentliches Anlernen einer generativen KI mit vonEin Schreibtisch mit diversen Notebooks anderen generativen Systemen erzeugten Daten verdummen die Modelle wieder. Und warum genau ein System eine bestimmte Antwort gibt, ist nicht entschlüsselbar, da die Lernalgorithmen neuronaler Netze diese Information in einer gigantischen Menge verknüpfter Neuronen und deren Gewichtung verschlüsseln.

Wir sind an einem Wendepunkt, wo KI zum ersten Mal in großem Maßstab genutzt und gesellschaftlich akzeptiert wird. Insofern ist ein Diskurs über eine Ethik der KI, einen Codex für das Training und die Verwendung von KI Systemen notwendig. Erste Ansätze sind in der EU mit der KI-Verordnung und in anderen Ländern zu erkennen.

Letztlich braucht es eine feine Balance von Regulierung der Technologie und Ermöglichen, sich weiter zu entwickeln. Insofern halte ich einen beständigen Diskurs parallel zur technologischen Weiterentwicklung generativer KI für dringend angeraten. Wichtig hier die Teilnahme verschiedener gesellschaftlicher Gruppen, bis hin zum einzelnen Bürger selbst.

Ich erinnere mich gut an die Kontroversen zu meiner Studienzeit, als Neuronale Netze erstmal als neues Konzept (Stichwort „Weiche KI“)  in meinem KI Studium aufkamen. Aber schon 1994, als ich meinen Abschluss machte, war abzusehen, dass hier ganz neue ethisch-moralische Fragen im Entstehen waren.

Es bleibt spannend. Die Technologie der generativen KI hat viel Potential. Es ist dennoch notwendig, einen Diskurs jenseits der technischen Grundlagen über soziale und gesellschaftlich-politische Aspekte zu führen. Dies vor allem begleitend, nicht nur punktuell um Fehlentwicklungen frühzeitig zu erkennen, was letztlich auch der Akzeptanz und Qualität der generativen Systeme zu Gute kommt.

Der Diskurs ist alleine deshalb schon wichtig, weil populistische Ablehnung oder Profilierung auf Kosten der Forschung nicht nur Deutschland als Wissenschafts- und Forschungsstandort schaden. Wenn hier zu viel reguliert wird, kann das auch die Wirtschaft ins Hintertreffen bringen, ebenso aber auch Ablehnung durch Uninformiertheit über Risiken UND Chancen. Gerade z.B.  in der Medizin kann hier ein Quantensprung entstehen auf Grund völlig neuer Möglichkeiten durch KI als Werkzeug.

Letztlich trifft nach wie vor das alte Gedankenexperiment zu, dass wir in Diskussionen schon damals im Studium vorbrachten.

Ein Messer kann ich zum Brot schneiden und zum Töten eines Menschen verwenden. Das ist aber nicht die Entscheidung des Messers sondern desjenigen, der es nutzt.

Ich hab mal ne KI gefragt: Geschichte der KI seit 1990

Mal ein Test mit Copilot von Microsoft

Prompt war: Schreib mir einen Blogbeitrag über die Entwicklung der KI seit 1990 mit Bezug auf mein Studium der Computerlinguistik und Künstlichen Intelligenz

Das war die Antwort:

Die Entwicklung der Künstlichen Intelligenz seit 1990: Ein Blick auf Computerlinguistik und KI

Die letzten Jahrzehnte haben eine bemerkenswerte Entwicklung in der Künstlichen Intelligenz (KI) erlebt. Diese Fortschritte sind besonders relevant für Studierende der Computerlinguistik und Künstlichen Intelligenz, da sie die Grundlage für viele der heutigen Technologien und Anwendungen bilden.

Die 1990er Jahre: Der Beginn des maschinellen Lernens

In den 1990er Jahren begann die Ära des maschinellen Lernens. Mit der zunehmenden Verfügbarkeit von Daten und der Verbesserung der Rechenleistung konnten Algorithmen entwickelt werden, die aus Daten lernen und Muster erkennen konnten1. Dies war ein entscheidender Schritt, da es den Weg für viele der heutigen KI-Technologien ebnete.

Die 2000er Jahre: Der Aufstieg des Internets und Big Data

Mit dem Aufstieg des Internets und der Verbreitung von Big Data in den 2000er Jahren wurden die Möglichkeiten für KI-Anwendungen erheblich erweitert. Große Datenmengen ermöglichten es, komplexere Modelle zu trainieren und genauere Vorhersagen zu treffen1. Für Studierende der Computerlinguistik bedeutete dies, dass sie Zugang zu riesigen Textkorpora hatten, die für die Entwicklung und das Training von Sprachmodellen genutzt werden konnten.

Die 2010er Jahre: Deep Learning und neuronale Netze

Die 2010er Jahre waren geprägt von Durchbrüchen im Bereich des Deep Learning und der neuronalen Netze. Diese Technologien ermöglichten es, sehr komplexe Muster in Daten zu erkennen und führten zu bedeutenden Fortschritten in Bereichen wie Bild- und Spracherkennung1. Für Computerlinguisten bedeutete dies, dass sie nun in der Lage waren, leistungsfähige Sprachmodelle zu entwickeln, die in Anwendungen wie maschineller Übersetzung, Spracherkennung und Textgenerierung eingesetzt werden konnten.

Die 2020er Jahre: KI im Alltag

Heute ist KI in vielen Bereichen unseres täglichen Lebens präsent, von autonomen Fahrzeugen über personalisierte Gesundheitsversorgung bis hin zu intelligenten persönlichen Assistenten1. Für Studierende der Computerlinguistik und Künstlichen Intelligenz bietet dies eine Vielzahl von Möglichkeiten, ihre Fähigkeiten in realen Anwendungen zu testen und weiterzuentwickeln. Die Integration von KI in verschiedene Branchen zeigt, wie wichtig interdisziplinäre Ansätze sind, bei denen Sprachwissenschaft, Informatik und maschinelles Lernen zusammenkommen.

Fazit

Die Entwicklung der Künstlichen Intelligenz seit den 1990er Jahren hat die Art und Weise, wie wir mit Technologie interagieren, revolutioniert. Für Studierende der Computerlinguistik und Künstlichen Intelligenz bietet diese Entwicklung eine spannende Gelegenheit, an der Spitze dieser technologischen Revolution zu stehen und die Zukunft der KI mitzugestalten.

Welche Aspekte der KI-Entwicklung interessieren dich besonders

 

Fazit von mir: Nun ja, eher sehr oberflächlich.

Blogparade: Digitale Heimat

Alex Schnapper, ein guter Freund von mir, den ich sozial medial zuerst kennengelernt habe, hat eine Blogparade „Verlust der digitalen Heimat“ gestartet, eine Frage, die ich mir in den letzten Monaten oft gestellt habe und da ich auf dem Barcamp Stuttgart dieses Jahr endlich wieder dabei war (für mich DAS Barcamp, das mich an die Idee herangeführt hat), wo ich eine Session anbot mit dem Titel „Ist Social Media tot oder riecht es nur schlecht?“ Hubert Mayer, der mit einer ähnlichen Fragestellung am Start war, schlug vor, wir machen das gemeinsam, was zu einer sehr spannenden Session führte, deren Fazit war in etwa: Nicht ganz tot, aber es zerfleddert gerade und es gibt keine zentrale Plattform wie es Twitter einst für viele von uns war.

Digital war ich schon seit meiner Jugend. Mit dem VC20 fing es an, ich verkaufte eigene Programme in Computerzeitungen (damals tippte man Code noch ab um an neue Software zu kommen). Damit finanzierte ich meinen ersten AMIGA. Nach einer kurzen Phase an einer Berufsakademie, die so gar nicht meins war, hab ich dann in Osnabrück Computerlinguistik und Künstliche Intelligenz studiert. Zu der Zeit begann es gerade mit dem World Wide Web (nein, das Internet ist viel älter) und ich stürzte mich voll Enthusiasmus ins Aufbauen von Webservern und die Webseitenerstellung.  Dort gab es auch erste Chatsysteme am Großrechner und Bulletin Boards. Als ich dann ein Forschungsstipendium bei der IBM bekam, war klar, wohin die Reise geht. KI und World Wide Web.

Und als Plattformen wie Twitter und Facebook beliebt wurden, war ich stets Early Adopter. (Tipp am Rande. Early Adopter ist ne spannende Sache, aber von allem, was neu erscheint ist es sinnvoll, die erste „Runde“ zu ignorieren, das spart viel Zeit und Nerven)

Den Großteil meiner Follower bekam ich durch #zensursula und den damaligen Plan von Netzsperren und durch meinen Aufenthalt in psychiatrischen Kliniken nach einem Suizidversuch und der darauf folgenden Diagnose: Schwere wiederkehrende Depression und generalisierte Angststörung.

Aus den Tweets von damals unter dem Hashtag #ausderklapse ein sehr erfolgreiches Buch bei Bastei Lübbe (Depression abzugeben) und ich konnte dank eines sehr erweiterten Followerkreises an Aufklärung über Mentale Gesundheit arbeiten.

Dann kam Elon und damit das Ende von Twitter. Nicht nur der Name änderte sich zu X (ein überaus dämlicher Name wie ich finde) sondern auch das früher schon oft flache Niveau wurde zu einer Kakophonie von rechtem Müll, Pornbots und Schwurblern.  Letztlich bin ich nur noch auf X , damit niemand anderes meinen Twitternick für rechten Blödsinn missbrauchen kann.

Nach einigen Experimenten mit Bluesky (zu nieschig für mich) und Mastodon (einfach nicht mein Ding) bin ich nun bei Threads gelandet, wo ich schnell eine sympathische Mental Health und Programmier/KI Community fand.  Aber damit gehen mir über 5000 Follower verloren und  bei Threads baut sich die Community gerade erst wieder auf.

Für mich ist Social Media nicht tot aber in einer Schockstarre. Ich bin in anderen Themen aktiv. Nach langer Abstinenz code ich wieder zum Thema KI und bin dadurch und durch die Nutzung der Plattform durch meine Kinder bei Discord sehr viel aktiver.  Facebook und Instagram bespiele ich zwar, lese da aber eher selten.

Social Media ist im Moment immer noch in einer Schockstarre und ich wieder auf historischen Pfaden unterwegs, nachdem ich ja bereits vor über 30 Jahren KI studiert habe und die aktuelle Entwicklung mich sehr fasziniert, weil während meines Studiums damals die Grundlagen für das gelegt wurden, was heute als generative KI bekannt ist.

Bislang fühle ich mich auf Threads ganz wohl, wenn auch die Lust aufs Posten sich eher reduziert hat. Aber immerhin laufen Diskussionen (noch) sehr viel kultivierter auf Threads aber irgendwie ist die Luft raus. Dafür belebt sich mein Blog wieder, was ich leider habe viel zu lange brach liegen lassen mit nur spärlichen Beiträgen und dann zu monothematisch.

Ja, wenn ich es genau betrachte, ich habe meine digitale Heimat verloren. Ob das schlecht ist? Schade ist es, Discord, Threads und Softwareentwicklung gleichen da viel aus, aber es fühlt sich merkwürdig an. Social Media riecht für mich gerade sehr schlecht. Und ich fürchte, wir sind damit durch, dank zu viel Werbung, Influencergebläsen und rechtem/Schwurblerzeug.

Immerhin bin ich wieder zu meinen Wurzeln als KI Forscher und Softwareentwickler zurückgekehrt. Man ist nie zu alt fürs Coden und fürs Forschen schon zweimal nicht. Und Wissenschaftler verlernt man nicht, das ist Teil der eigenen DNA.

Und was besonders schön ist: Meine Söhne haben sich beide entschlossen, das zu machen, was immer schon meine Leidenschaft war und ist. Sie studieren Informatik und dort mit Fokus auf KI. Und das fast ganz ohne mein Zutun.

Die Stimmen der anderen

Rückblickend war er einfach ein A…… . Damals aber mein direkter Vorgesetzter. Und der, der die Lawine der Selbstzweifel, der Angst, des Lebens für die Erwartungen und Wünsche anderer angestossen und mich auf den Weg in den Abgrund geführt hat. „Sie arbeiten nicht, sie spielen zu viel und organisieren sich schlecht“ (War Bullshit, ich nutzte damals schon digitale Kalender, das konnte der Typ aber nicht sehen….oder verstehen). Er hat viel damit kaputt gemacht, das auch Stellen oder Arbeitgeberwechsel nicht mehr heilen konnten. Dieser Mensch hat mich geradewegs Richtung Suizidversuch und Angststörung/Depression geführt. Denn damit begann das unmögliche Streben nach Perfektion. Und als ich ihn später nochmal traf, merkte man mit jedem Satz, den er plapperte, dass er nichts, aber auch gar nichts begriffen hat.

Meine Kreativität, die Lust an IT und Softwareentwicklung hat er damals nachhaltig beschädigt. Erst jetzt, mittlerweile knapp 20 Jahre später erkenne ich das ganze Ausmaß der Zerstörung, das er hinterlassen hat. Und es wird noch Jahre dauern, die Zerstörung halbwegs zu beseitigen. Aber jetzt bin ich auf dem Weg. Und was ich gelernt habe. Gebt nichts auf die Meinung anderer von euch. Sein beschissenster Satz in diesem Tribunal damals war: „Da ist wohl das Fremdbild von Ihnen genauer als das Selbstbild“ . Maul halten, setzen sechs. Der hatte und hat keine Ahnung.

Bleibt euch treu und denkt dran. Vieles, was uns passiert ist in der zeitlichen Nähe ein Drama, aus der Distanz aber eine Komödie.

Gut eine sehr schwarze bei mir aber langsam gelingt das Lachen darüber.

Solange wir dafür leben, besser zu sein als jemand anders, leben wir ein fremdes Leben. Der einzige, mit dem ich konkurriere ist mein vergangenes Ich. Demgegenüber will ich besser werden. Und ihm gleichzeitig sagen. Alles gut, du bist richtig, genau so wie du bist.

Zwischenzeitlich wechselten merhfach die Vorgesetzten. Die Arbeitsstelle, die Freude am Leben.

Heute geht es mir wieder besser. Gut wäre gelogen. Immerhin bin ich (ein Jugendtraum) Buchautor eines Erfolgsbuchs und finde gerade wieder zu meinen Wurzeln als Softwareentwickler und IT Geek zurück. Fast zu spät. Aber nur fast. Aber ich weiß nicht, was ohne meine wunderbare Familie passiert wäre. Danke euch allen, das ihr das Kerzenlicht im Fenster wart, das Rettungsseil, der Anker. DANKE!

Fremdbild ist Bullshit. Basta.

 

Bin ich wieder da oder war ich nie weg?

Ich schreibe diese Zeilen auf meinem neuen Entwickler-Notebook. JA, Entwickler.  Rückblickend war ich immer schon Entwickler und nach DEM Ereignis habe ich mir zum Teil selbst eingeredet, ich wäre dafür nicht geeignet, nicht gut genug. Aber wahrscheinlich war das das Dilemma, das mich hat all die letzten Jahre nie ganz ich sein lassen.

Es fehlte ein Teil, ein bedeutsamer Teil. Software zu entwickeln, neue Programmiersprachen lernen, neue Technologien. Verdammt, ich habe schliesslich mit großer Freude Computerlinguistik, Künstliche Intelligenz und Informatik studiert.

Weil meine Jungs jetzt beide Informatik studieren, weil ich immer mehr unruhig wurde und etwas fehlte kam erstaunlicherweise die Familie auf die Idee, ich solle doch wieder mit dem Programmieren anfangen.

Assembler, C(++#) , Pascal, Modula, Java, PHP, Perl, Basic, Lisp, Prolog, Forth, Javascript, HTML, XML, CSS und noch einige mehr an Sprachen habe ich mir im Laufe der Jahre angeeignet. Und da werde ich anknüpfen.

Momentan stehen auf meiner Agenda Python, Kotlin und Rust. Mal sehen, was noch kommt. Auf jeden Fall wieder etwas mit (generativer) KI.

Der echte Uwe ist wieder zurück. Eigentlich war er ja nie fort.

Und vielleicht mache ich die Technologie Sparte hier im Blog wieder auf. Genug Themen habe ich allemal.

Es grüsst der Softwareentwickler und KI Begeisterte.

Wir coden uns.