Social Media ist vorbei

Social Media ist für mich nahezu wertlos geworden, lediglich Kontakt halten zu meinen Followern und Fans macht noch Sinn. Warum? Nein, nicht Mal wegen der rechten Trolle. KI hat dem Medium die Glaubwürdigkeit geraubt. Bilder, Videos, Texte sind nahezu unmöglich als KI generiert erkennbar. Das führt aber zu einer generellen Vertrauenskrise was das Medium angeht. Welcher Instanz darf man noch glauben. Man kann noch einige öffentlich rechtliche Kanäle verwenden, selbst scheinbare Wissenschaftskanäle können aber komplett generiert und damit anfällig für Halluzinationen sein. Zumal KI nach wie vor nicht VERSTEHT was sie schreibt, sondern Wahrscheinlichkeiten ermittelt. Das zwar in erschreckend hoher Qualität aber eben völlig unvalidierbar. 

Es braucht Strategien, KI als solche zu entlarven und Methoden, das Halluzinieren zu unterbinden. Aber selbst dann wird das Medium Social Media immer weniger interessant. Weil alles generiert und damit nicht real sein könnte.

Ja, selbst Cat Content.

Generative KI ist auch nur ein Messer

Wenn wir darüber diskutieren, ob KI gefährlich für uns ist oder nicht, gibt es zwei gerne genutzte Denkfehler. Fehler eins: KI ist intelligent wie ein Mensch.

Drei Bildschirme mit dem Schriftzug KI

Falsch, sie kann lediglich intelligentes Verhalten simulieren, in dem sie aus gigantischen Datenmengen die wahrscheinlichsten Antworten heraus generiert.

Hier die Definition des europäischen Union, was KI eigentlich ist:

Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.

Man beachte das Wort „imitieren“. Wie sie das macht, das ist noch völlig unklar, um diese Frage zu klären entsteht gerade eine neue Forschungsrichtung namens Explainable AI (kurz XAI), die sich damit befasst, KI Entscheidungen nachvollziehbar und erklärbar zu machen. Denn bislang sind wir zwar erstaunt über die Ergebnisse, warum aber eine spezifische Antwort generiert wurde, ist weitestgehend unerklärbar. Der Algorithmus ist bekannt, aber wie er sich justiert, um passende Antworten zu geben, das steckt vergraben im Algorithmus selbst.

Kommen wir aber zum Titel dieses Blogbeitrags und damit zum Messer. Denn genau wie ein Messer Brot schneiden oder einen Menschen verletzen kann, ist es auch bei der KI. Ob sie Gutes oder Böses tut, das liegt in der Verantwortung des Menschen. Der KI ist Werkzeug wie das Messer und kann genauso für Gutes wie Schlechtes eingesetzt werden. Selbst die Entscheidung, wie sehr ich der Antwort einer KI vertraue ist Teil der Verantwortung des Menschen. Die KI für alles verantwortlich zu machen wäre sicher einfach, aber viel zu kurz gesprungen.

Die rasante Entwicklung generativer KI darf uns nicht vergessen lassen, dass wir die Verantwortung haben ob KI Brot schneidet oder Menschen verletzt.

Die KI und die Moral. Warum das nicht so einfach ist

Liest man im Moment über generative KI und LLMs (Large Language Models) bekommt man vor allem durch die Medien den Eindruck vermittelt , wir hätten es mit einer echten Intelligenz zu tun.

Sorry wenn ich jetzt enttäusche aber dem ist nicht so. Die Maschinen sind nach wie vor dumm, die Neuronalen Netze und die Algorithmen dahinter zum Maschinellen Lernen vermitteln den Eindruck, als könnten die Computer echte Antworten auf Fragen geben.

Was aber eigentlich passiert ist, dass Token (Wörter) über spezielle Algorithmen über Vektoren semantisch verknüpft werden. Das KI Modell sucht vereinfacht gesagt lediglich das nächste plausibelste Wort. Es erzeugt also Wortketten, die dann durch die schiere Grösse der Modelle und der neuronalen Netze einen sinnvollen Zusammenhang geben (meist, wenn die generative KI nicht gerade halluziniert, also die falschen Worte für die plausibelsten hält).

Spätestens jetzt kommt Ethik mit ins Spiel. Beim Training der Netze gibt es einiges an ethischen Fragen. Welche Quellen verwende ich? Vieles an Trainingsmaterial kommt aus dem Internet. Zapfe ich jetzt zum Beispiel X, the platform formerly know as Twitter, an kann es sehr schnell zu einem Bias, einer falschen Gewichtung auf rechtes Gedankengut kommen. Ebenso wichtig ist die Erstellung qualitativer Prompts (quasi Anweisungen an das Modell) um gute und passende Ergebnisse zu erhalten.

Was ist mit Copyright bei entsprechenden Datenquellen? Wie vermeide ich Deepfakes bzw. welche Wege gibt es, hier algorithmisch einzugreifen? Was ist mit Datenschutz? Wer ist hier der Ansprechpartner bei Verstössen?

Das neuronale Netz interessiert sich aber nicht für solche Fragen, es ist letztlich auch nur ein Algorithmus. Gravierender vielleicht noch bei Bildern oder Filmen, bei denen scheinbare Wahrheiten generiert werden, die aber rein dem Verrauschen und Entrauschen von einer Unmenge von Vorlagen entsprungen sind.

Wer aber ist hier verantwortlich, wer überprüft die Validität der Ausgaben. Bislang werden viele Antworten noch von Hand von Menschen geprüft. Je mehr aber generative KI zum Einsatz kommt, um so eher wird auch diese Prüfung automatisiert.  Das aber birgt einige Gefahren. Es kann erneut eine falsche Gewichtung passieren oder durch unwissentliches Anlernen einer generativen KI mit vonEin Schreibtisch mit diversen Notebooks anderen generativen Systemen erzeugten Daten verdummen die Modelle wieder. Und warum genau ein System eine bestimmte Antwort gibt, ist nicht entschlüsselbar, da die Lernalgorithmen neuronaler Netze diese Information in einer gigantischen Menge verknüpfter Neuronen und deren Gewichtung verschlüsseln.

Wir sind an einem Wendepunkt, wo KI zum ersten Mal in großem Maßstab genutzt und gesellschaftlich akzeptiert wird. Insofern ist ein Diskurs über eine Ethik der KI, einen Codex für das Training und die Verwendung von KI Systemen notwendig. Erste Ansätze sind in der EU mit der KI-Verordnung und in anderen Ländern zu erkennen.

Letztlich braucht es eine feine Balance von Regulierung der Technologie und Ermöglichen, sich weiter zu entwickeln. Insofern halte ich einen beständigen Diskurs parallel zur technologischen Weiterentwicklung generativer KI für dringend angeraten. Wichtig hier die Teilnahme verschiedener gesellschaftlicher Gruppen, bis hin zum einzelnen Bürger selbst.

Ich erinnere mich gut an die Kontroversen zu meiner Studienzeit, als Neuronale Netze erstmal als neues Konzept (Stichwort „Weiche KI“)  in meinem KI Studium aufkamen. Aber schon 1994, als ich meinen Abschluss machte, war abzusehen, dass hier ganz neue ethisch-moralische Fragen im Entstehen waren.

Es bleibt spannend. Die Technologie der generativen KI hat viel Potential. Es ist dennoch notwendig, einen Diskurs jenseits der technischen Grundlagen über soziale und gesellschaftlich-politische Aspekte zu führen. Dies vor allem begleitend, nicht nur punktuell um Fehlentwicklungen frühzeitig zu erkennen, was letztlich auch der Akzeptanz und Qualität der generativen Systeme zu Gute kommt.

Der Diskurs ist alleine deshalb schon wichtig, weil populistische Ablehnung oder Profilierung auf Kosten der Forschung nicht nur Deutschland als Wissenschafts- und Forschungsstandort schaden. Wenn hier zu viel reguliert wird, kann das auch die Wirtschaft ins Hintertreffen bringen, ebenso aber auch Ablehnung durch Uninformiertheit über Risiken UND Chancen. Gerade z.B.  in der Medizin kann hier ein Quantensprung entstehen auf Grund völlig neuer Möglichkeiten durch KI als Werkzeug.

Letztlich trifft nach wie vor das alte Gedankenexperiment zu, dass wir in Diskussionen schon damals im Studium vorbrachten.

Ein Messer kann ich zum Brot schneiden und zum Töten eines Menschen verwenden. Das ist aber nicht die Entscheidung des Messers sondern desjenigen, der es nutzt.

Ich hab mal ne KI gefragt: Geschichte der KI seit 1990

Mal ein Test mit Copilot von Microsoft

Prompt war: Schreib mir einen Blogbeitrag über die Entwicklung der KI seit 1990 mit Bezug auf mein Studium der Computerlinguistik und Künstlichen Intelligenz

Das war die Antwort:

Die Entwicklung der Künstlichen Intelligenz seit 1990: Ein Blick auf Computerlinguistik und KI

Die letzten Jahrzehnte haben eine bemerkenswerte Entwicklung in der Künstlichen Intelligenz (KI) erlebt. Diese Fortschritte sind besonders relevant für Studierende der Computerlinguistik und Künstlichen Intelligenz, da sie die Grundlage für viele der heutigen Technologien und Anwendungen bilden.

Die 1990er Jahre: Der Beginn des maschinellen Lernens

In den 1990er Jahren begann die Ära des maschinellen Lernens. Mit der zunehmenden Verfügbarkeit von Daten und der Verbesserung der Rechenleistung konnten Algorithmen entwickelt werden, die aus Daten lernen und Muster erkennen konnten1. Dies war ein entscheidender Schritt, da es den Weg für viele der heutigen KI-Technologien ebnete.

Die 2000er Jahre: Der Aufstieg des Internets und Big Data

Mit dem Aufstieg des Internets und der Verbreitung von Big Data in den 2000er Jahren wurden die Möglichkeiten für KI-Anwendungen erheblich erweitert. Große Datenmengen ermöglichten es, komplexere Modelle zu trainieren und genauere Vorhersagen zu treffen1. Für Studierende der Computerlinguistik bedeutete dies, dass sie Zugang zu riesigen Textkorpora hatten, die für die Entwicklung und das Training von Sprachmodellen genutzt werden konnten.

Die 2010er Jahre: Deep Learning und neuronale Netze

Die 2010er Jahre waren geprägt von Durchbrüchen im Bereich des Deep Learning und der neuronalen Netze. Diese Technologien ermöglichten es, sehr komplexe Muster in Daten zu erkennen und führten zu bedeutenden Fortschritten in Bereichen wie Bild- und Spracherkennung1. Für Computerlinguisten bedeutete dies, dass sie nun in der Lage waren, leistungsfähige Sprachmodelle zu entwickeln, die in Anwendungen wie maschineller Übersetzung, Spracherkennung und Textgenerierung eingesetzt werden konnten.

Die 2020er Jahre: KI im Alltag

Heute ist KI in vielen Bereichen unseres täglichen Lebens präsent, von autonomen Fahrzeugen über personalisierte Gesundheitsversorgung bis hin zu intelligenten persönlichen Assistenten1. Für Studierende der Computerlinguistik und Künstlichen Intelligenz bietet dies eine Vielzahl von Möglichkeiten, ihre Fähigkeiten in realen Anwendungen zu testen und weiterzuentwickeln. Die Integration von KI in verschiedene Branchen zeigt, wie wichtig interdisziplinäre Ansätze sind, bei denen Sprachwissenschaft, Informatik und maschinelles Lernen zusammenkommen.

Fazit

Die Entwicklung der Künstlichen Intelligenz seit den 1990er Jahren hat die Art und Weise, wie wir mit Technologie interagieren, revolutioniert. Für Studierende der Computerlinguistik und Künstlichen Intelligenz bietet diese Entwicklung eine spannende Gelegenheit, an der Spitze dieser technologischen Revolution zu stehen und die Zukunft der KI mitzugestalten.

Welche Aspekte der KI-Entwicklung interessieren dich besonders

 

Fazit von mir: Nun ja, eher sehr oberflächlich.

Blogparade: Digitale Heimat

Alex Schnapper, ein guter Freund von mir, den ich sozial medial zuerst kennengelernt habe, hat eine Blogparade „Verlust der digitalen Heimat“ gestartet, eine Frage, die ich mir in den letzten Monaten oft gestellt habe und da ich auf dem Barcamp Stuttgart dieses Jahr endlich wieder dabei war (für mich DAS Barcamp, das mich an die Idee herangeführt hat), wo ich eine Session anbot mit dem Titel „Ist Social Media tot oder riecht es nur schlecht?“ Hubert Mayer, der mit einer ähnlichen Fragestellung am Start war, schlug vor, wir machen das gemeinsam, was zu einer sehr spannenden Session führte, deren Fazit war in etwa: Nicht ganz tot, aber es zerfleddert gerade und es gibt keine zentrale Plattform wie es Twitter einst für viele von uns war.

Digital war ich schon seit meiner Jugend. Mit dem VC20 fing es an, ich verkaufte eigene Programme in Computerzeitungen (damals tippte man Code noch ab um an neue Software zu kommen). Damit finanzierte ich meinen ersten AMIGA. Nach einer kurzen Phase an einer Berufsakademie, die so gar nicht meins war, hab ich dann in Osnabrück Computerlinguistik und Künstliche Intelligenz studiert. Zu der Zeit begann es gerade mit dem World Wide Web (nein, das Internet ist viel älter) und ich stürzte mich voll Enthusiasmus ins Aufbauen von Webservern und die Webseitenerstellung.  Dort gab es auch erste Chatsysteme am Großrechner und Bulletin Boards. Als ich dann ein Forschungsstipendium bei der IBM bekam, war klar, wohin die Reise geht. KI und World Wide Web.

Und als Plattformen wie Twitter und Facebook beliebt wurden, war ich stets Early Adopter. (Tipp am Rande. Early Adopter ist ne spannende Sache, aber von allem, was neu erscheint ist es sinnvoll, die erste „Runde“ zu ignorieren, das spart viel Zeit und Nerven)

Den Großteil meiner Follower bekam ich durch #zensursula und den damaligen Plan von Netzsperren und durch meinen Aufenthalt in psychiatrischen Kliniken nach einem Suizidversuch und der darauf folgenden Diagnose: Schwere wiederkehrende Depression und generalisierte Angststörung.

Aus den Tweets von damals unter dem Hashtag #ausderklapse ein sehr erfolgreiches Buch bei Bastei Lübbe (Depression abzugeben) und ich konnte dank eines sehr erweiterten Followerkreises an Aufklärung über Mentale Gesundheit arbeiten.

Dann kam Elon und damit das Ende von Twitter. Nicht nur der Name änderte sich zu X (ein überaus dämlicher Name wie ich finde) sondern auch das früher schon oft flache Niveau wurde zu einer Kakophonie von rechtem Müll, Pornbots und Schwurblern.  Letztlich bin ich nur noch auf X , damit niemand anderes meinen Twitternick für rechten Blödsinn missbrauchen kann.

Nach einigen Experimenten mit Bluesky (zu nieschig für mich) und Mastodon (einfach nicht mein Ding) bin ich nun bei Threads gelandet, wo ich schnell eine sympathische Mental Health und Programmier/KI Community fand.  Aber damit gehen mir über 5000 Follower verloren und  bei Threads baut sich die Community gerade erst wieder auf.

Für mich ist Social Media nicht tot aber in einer Schockstarre. Ich bin in anderen Themen aktiv. Nach langer Abstinenz code ich wieder zum Thema KI und bin dadurch und durch die Nutzung der Plattform durch meine Kinder bei Discord sehr viel aktiver.  Facebook und Instagram bespiele ich zwar, lese da aber eher selten.

Social Media ist im Moment immer noch in einer Schockstarre und ich wieder auf historischen Pfaden unterwegs, nachdem ich ja bereits vor über 30 Jahren KI studiert habe und die aktuelle Entwicklung mich sehr fasziniert, weil während meines Studiums damals die Grundlagen für das gelegt wurden, was heute als generative KI bekannt ist.

Bislang fühle ich mich auf Threads ganz wohl, wenn auch die Lust aufs Posten sich eher reduziert hat. Aber immerhin laufen Diskussionen (noch) sehr viel kultivierter auf Threads aber irgendwie ist die Luft raus. Dafür belebt sich mein Blog wieder, was ich leider habe viel zu lange brach liegen lassen mit nur spärlichen Beiträgen und dann zu monothematisch.

Ja, wenn ich es genau betrachte, ich habe meine digitale Heimat verloren. Ob das schlecht ist? Schade ist es, Discord, Threads und Softwareentwicklung gleichen da viel aus, aber es fühlt sich merkwürdig an. Social Media riecht für mich gerade sehr schlecht. Und ich fürchte, wir sind damit durch, dank zu viel Werbung, Influencergebläsen und rechtem/Schwurblerzeug.

Immerhin bin ich wieder zu meinen Wurzeln als KI Forscher und Softwareentwickler zurückgekehrt. Man ist nie zu alt fürs Coden und fürs Forschen schon zweimal nicht. Und Wissenschaftler verlernt man nicht, das ist Teil der eigenen DNA.

Und was besonders schön ist: Meine Söhne haben sich beide entschlossen, das zu machen, was immer schon meine Leidenschaft war und ist. Sie studieren Informatik und dort mit Fokus auf KI. Und das fast ganz ohne mein Zutun.

Die Stimmen der anderen

Rückblickend war er einfach ein A…… . Damals aber mein direkter Vorgesetzter. Und der, der die Lawine der Selbstzweifel, der Angst, des Lebens für die Erwartungen und Wünsche anderer angestossen und mich auf den Weg in den Abgrund geführt hat. „Sie arbeiten nicht, sie spielen zu viel und organisieren sich schlecht“ (War Bullshit, ich nutzte damals schon digitale Kalender, das konnte der Typ aber nicht sehen….oder verstehen). Er hat viel damit kaputt gemacht, das auch Stellen oder Arbeitgeberwechsel nicht mehr heilen konnten. Dieser Mensch hat mich geradewegs Richtung Suizidversuch und Angststörung/Depression geführt. Denn damit begann das unmögliche Streben nach Perfektion. Und als ich ihn später nochmal traf, merkte man mit jedem Satz, den er plapperte, dass er nichts, aber auch gar nichts begriffen hat.

Meine Kreativität, die Lust an IT und Softwareentwicklung hat er damals nachhaltig beschädigt. Erst jetzt, mittlerweile knapp 20 Jahre später erkenne ich das ganze Ausmaß der Zerstörung, das er hinterlassen hat. Und es wird noch Jahre dauern, die Zerstörung halbwegs zu beseitigen. Aber jetzt bin ich auf dem Weg. Und was ich gelernt habe. Gebt nichts auf die Meinung anderer von euch. Sein beschissenster Satz in diesem Tribunal damals war: „Da ist wohl das Fremdbild von Ihnen genauer als das Selbstbild“ . Maul halten, setzen sechs. Der hatte und hat keine Ahnung.

Bleibt euch treu und denkt dran. Vieles, was uns passiert ist in der zeitlichen Nähe ein Drama, aus der Distanz aber eine Komödie.

Gut eine sehr schwarze bei mir aber langsam gelingt das Lachen darüber.

Solange wir dafür leben, besser zu sein als jemand anders, leben wir ein fremdes Leben. Der einzige, mit dem ich konkurriere ist mein vergangenes Ich. Demgegenüber will ich besser werden. Und ihm gleichzeitig sagen. Alles gut, du bist richtig, genau so wie du bist.

Zwischenzeitlich wechselten merhfach die Vorgesetzten. Die Arbeitsstelle, die Freude am Leben.

Heute geht es mir wieder besser. Gut wäre gelogen. Immerhin bin ich (ein Jugendtraum) Buchautor eines Erfolgsbuchs und finde gerade wieder zu meinen Wurzeln als Softwareentwickler und IT Geek zurück. Fast zu spät. Aber nur fast. Aber ich weiß nicht, was ohne meine wunderbare Familie passiert wäre. Danke euch allen, das ihr das Kerzenlicht im Fenster wart, das Rettungsseil, der Anker. DANKE!

Fremdbild ist Bullshit. Basta.

 

Bin ich wieder da oder war ich nie weg?

Ich schreibe diese Zeilen auf meinem neuen Entwickler-Notebook. JA, Entwickler.  Rückblickend war ich immer schon Entwickler und nach DEM Ereignis habe ich mir zum Teil selbst eingeredet, ich wäre dafür nicht geeignet, nicht gut genug. Aber wahrscheinlich war das das Dilemma, das mich hat all die letzten Jahre nie ganz ich sein lassen.

Es fehlte ein Teil, ein bedeutsamer Teil. Software zu entwickeln, neue Programmiersprachen lernen, neue Technologien. Verdammt, ich habe schliesslich mit großer Freude Computerlinguistik, Künstliche Intelligenz und Informatik studiert.

Weil meine Jungs jetzt beide Informatik studieren, weil ich immer mehr unruhig wurde und etwas fehlte kam erstaunlicherweise die Familie auf die Idee, ich solle doch wieder mit dem Programmieren anfangen.

Assembler, C(++#) , Pascal, Modula, Java, PHP, Perl, Basic, Lisp, Prolog, Forth, Javascript, HTML, XML, CSS und noch einige mehr an Sprachen habe ich mir im Laufe der Jahre angeeignet. Und da werde ich anknüpfen.

Momentan stehen auf meiner Agenda Python, Kotlin und Rust. Mal sehen, was noch kommt. Auf jeden Fall wieder etwas mit (generativer) KI.

Der echte Uwe ist wieder zurück. Eigentlich war er ja nie fort.

Und vielleicht mache ich die Technologie Sparte hier im Blog wieder auf. Genug Themen habe ich allemal.

Es grüsst der Softwareentwickler und KI Begeisterte.

Wir coden uns.

Die Reha ist zu Ende. Was nehme ich mit?

 

Sechs Wochen Reha. Sechs Wochen mit mir selbst beschäftigen. Neue Wege finden, alte Zöpfe abschneiden. Den unbegangenen Pfad wählen, der den ganzen Unterschied ausmacht.

Vieles war mir klar, einiges wurde mir klar. Ich habe meine Angst schon wieder zu sehr ignoriert und als erledigt betrachtet. Dabei wird sie mich mein Leben lang begleiten. Aber ich muss mein Denken ändern, will ich auch langfristig noch stabil bleiben.

Ich muss lernen, viel häufiger nein zu sagen. Oder zumindest mir Bedenkzeit erbitten. Vieles habe ich wieder akzeptiert, weil ich halt gemocht werden will. Dabei darf ich mir selbst zugestehen, Menschen auch nicht zu mögen oder von ihnen nicht gemocht zu werden.

Was dieses mal anders ist? Ich war zu nachlässig im Setzen MEINER Prioritäten.

Ich habe auf die Frage nach den zehn wichtigsten Menschen in meinem Leben mich selbst beständig vergessen.

Äußerlich habe ich mich verändert. 5 Kilo verloren und einen Bart wachsen lassen, der selbst Sibylle gefällt, die eigentlich Bärte so gar nicht mag.

Aber innen waren die Pfade immer noch die alten. Breit ausgetreten,  sicher aber auch perspektivlos und nicht meine Pfade.

Sechs Wochen sind genug. Jetzt muss die Realität mit mir auskommen.

Eine psychische Krankheit ist ernst zu nehmen. Sie kann das Leben behindern oder sogar verhindern. Dann lebt man nur eine Maske, eine Täuschung, bis man selbst vor lauter Masken verschwindet. Auch dieses Mal habe ich im Rückblick erkannt, wie viel meiner eigenen Wünsche und Ideale ich wieder geopfert habe.

Meine Familie litt unter meiner Panik, meine dauernde Ängstlichkeit hat alle in Panik versetzt. Das muss ein Ende haben, ihnen zu Liebe aber vor allem auch mir. Sonst werde ich wieder abrutschen, wieder die Angst mich überwältigen.

Aber ich bin schon weiter als in den ersten drei Kliniken zusammen. Oder wie meine Therapeutin so begeistert formulierte: Sie sind so wunderbar reflektiert, kennen ihre Krankheiten und können selbstkritisch die eigene Situation betrachten.  Ja, mit dem Verstand schon, solange aber das Herz nicht folgt, wird es nie nachhaltig werden.

Also Herz an die Hand nehmen und den Weg zeigen. Ich zitiere hier mal Robert Frost:

The Road Not Taken

Two roads diverged in a yellow wood,
And sorry I could not travel both
And be one traveler, long I stood
And looked down one as far as I could
To where it bent in the undergrowth;
Then took the other, as just as fair,
And having perhaps the better claim,
Because it was grassy and wanted wear;
Though as for that the passing there
Had worn them really about the same,

 

And both that morning equally lay
In leaves no step had trodden black.
Oh, I kept the first for another day!
Yet knowing how way leads on to way,
I doubted if I should ever come back.

I shall be telling this with a sigh
Somewhere ages and ages hence:
Two roads diverged in a wood, and I—
I took the one less traveled by,
And that has made all the difference.