Künstliche Intelligenz scheint alles zu ändern. Auch die Art und Weise, wie wir lernen. Die Frage ist nur, warum sich die KI nicht uns anpassen kann.
Seit wenigen Jahren scheint sich ein kollektiver und globaler Infekt auszubreiten: die Sorge vor der spekulativen Wirkmacht der Künstlicher Intelligenz.
Interessanterweise verläuft der Pfad dieser Unsicherheit exakt parallel zu dem Versuch einer Klärung, was Künstliche Intelligenz eigentlich ist.
Es ist wenig erstaunlich, dass dieses Thema in vorderster Front mit der Frage vernetzt ist, was dies für die Bildung und die Methoden des Lernens zu tun hat.
Das Problem ist schnell erkannt und bekommt eine irritierende Überschrift:
Warum sollte ich überhaupt noch etwas lernen, wenn es Systeme gibt, die alle Antworten auf alle Fragen und damit auch die idealen Lösungen vorhalten?“
Mit Vorhalten ist gemeint, es wirkt fast so, als wäre die Lösung schon vor dem Problem vorhanden.
Menschen werden verunsichert. Die Bilder einer komplett planbaren persönlichen Zukunft verschwimmen im Dickicht vieler Unbekannter.
Die Herausforderung scheint darin zu liegen, genau diese Dynamik und Variabilität einer volatilen Zukunft zu akzeptieren.
Dann werden vielleicht die Potenziale für eine gelingende Zukunft deutlich, in der Künstliche Intelligenz einen Beitrag leisten kann und die menschliche Intelligenz nicht verkleinert, sondern dorthin führt, wo es nicht um Grösse und Performance geht, sondern um das, was Menschen schon immer gut konnten: irritierende Lösungen, für die es keine Vorbilder gibt.
Wer mehr und umfassender zu diesem Thema lesen möchte, hier bitte:
Shortcuts zu einzelnen Unterthemen bzw. zentralen Stichworten in diesem Text:
Freiräume ||| Perikles ||| Prämisse ||| Evocatio ||| Sam Altman ||| Komplementärstrategie ||| Singularität ||| 30. November ||| Metaanalyse ||| Andy Lippmann ||| Sechs Regeln ||| Suchmaschinen ||| Semantic Web ||| Large Language Model ||| Skill Skipping ||| Stolz ||| Gehirn ||| Invokation ||| J-Kurve ||| Collingridge-Dilemma ||| Doppelbindung ||| Emotion recognition ||| Digitaler Zwilling ||| Lernerfolge ||| Schubumkehr ||| Brainrot ||| Doomscrolling ||| Hikikomories ||| Informationsverwertung ||| Gemeine-Welt-Syndrom ||| E. M. Forster ||| Konstruktiv? ||| Artificial General Intelligence ||| Gesunder Menschenverstand
Ihr könnt die Shortcuts nutzen, um den Text konzentriert und thematisch zu lesen. Das funktioniert, da ich in meinen Texten immer im Umfeld eines zentralen Anliegens verschiedene Perspektiven beleuchte.
Darüber hinaus habe ich diesen Text in fünf Bereiche und Titel unterteilt. Ich nenne diese Ankertitel [ein Klick führt Euch dorthin]:
01 Evocatio – die Frage nach der Auslagerung in eine Form des Heilsversprechens, damit die partielle Aufgabe menschlicher Leistungsoptionen bzw. dem subjektiven Erreichen der Grenzen des menschlichen Potenzials [2].
Dieser Teil beginnt direkt nach der Kurzvorstellung der drei Bereiche [Lesezeit ca. 10 Minuten].
02 Digitaler Zwilling – Es scheint, als würden wir unsere Kompetenz, unser Können und Wissen am liebsten irgendwie auslagern und nach Bedarf abrufen. Am liebsten wäre es uns vielleicht, dass es automatisch zu uns käme, wenn wir es brauchen [Lesezeit ca.11 Minuten].
03 E. M. Foster – Das Problem ist, alles Leben kann sich nur mit der Zeit und in die Zukunft gerichtet verändern (und die Vergangenheit interpretieren). Das Problem ist aber auch, die menschlichen Kapazitäten sind begrenzt. Vielleicht hilft ja der gesunde Menschenverstand [Lesezeit ca. 12 Minuten].
01 Evocatio

Was soll das sein, ein natürlicher Ablauf? Was und warum bezeichnen wir etwas als natürlich? Menschen tendieren zu der etwas bequemen Überzeugung, das Gewohnte als das wahrzunehmen – und im Zweifel zu verteidigen – was so sein müsse, da wir es so gelernt haben.
Irgendwann entkoppeln wir diese Gewohnheit von der Zeit. Wir glauben dann, es wäre schon immer so gewesen. Eine gewisse Form der Autosuggestion. Und so normal.
Vielleicht eine Frage des Alters, vielleicht einfach von einer gewissen Trägheit [2].
Vermutlich ist es kein grosser Schritt von dem, was wir als natürlich bezeichnen, zu dem, was wir dann als normal erleben und mit dem wir schliesslich unseren Frieden gemacht haben.
Alles andere ist uns zu anstrengend.
Freiräume
Dieser subtile Prozess scheint über die Zeit in tiefere Ebenen unserer Existenz vorzudringen, vergleichbar mit einer Flüssigkeit, die sich immer einen Weg sucht, die nie aufgibt und alle Lücken und Freiräume füllt, die füllbar sind.
Wobei: Diese Freiräume sind eher Zeiträume. Sie suchen einen [Lebens-] Sinn und dieser soll bitte möglichst angenehm sein. Wenigstens solange wir freiwillig darüber entscheiden können.
Wenn diese Freiheit fehlt, dann begnügen wir uns zur Not mit dem Schein, eine Wahl [gehabt] zu haben.
Es ist kompliziert.
Ich gebe zu, das klingt gleich zu Beginn kritisch und wenig hoffnungsvoll.
Doch das ist nicht meine Absicht. Meine Absicht ist, einen klaren und unverblümten Einstieg zu finden, um die Aussicht auf die Frage, wie Lernen mit Künstlicher Intelligenz zu mehr werden kann als nur die diffuse Sorge um den Verlust eigener Autonomie, im Zaum zu halten.
Denn es darf nicht sein, dass wir die Kontrolle verlieren.
Denn das ist das Problem. Es soll beherrscht werden, es geht darum, die Kontrolle zu verteidigen. Alles andere käme uns einer Niederlage gleich.
Aber wäre eine Niederlage wirklich so schlimm?
Zurück zu den Shortcuts ganz oben oder einfach hier weiter.
Perikles
Dem griechischen Staatsmann Perikles, 490 v. Chr. – 429 v. Chr., wird ein Zitat zugeordnet, das gut zu meiner Intention für diesen Text passt:
Nur weil du dich nicht für Politik interessierst, bedeutet das nicht, dass sich die Politik nicht für dich interessiert.
Wie soll man das Wetter kontrollieren, eine Krankheit abschalten, den Ausgang eines Gesprächs vorab festlegen, das Gefühl von Liebe ignorieren, wenn es alles Denken wie eine Explosion dominiert?
Was hat das mit KI im Kontext Lernen zu tun?
In einem anderen Text zum Thema der Künstlichen Intelligenz spekuliere ich etwas provokativ, es könnte die letzte grosse Idee der Menschheit [2] gewesen sein, da alle darauf aufbauenden Maschinen nur noch unter exponentiell marginaler Beteiligung derselben entstehen werden.
Natürlich wird es nicht so dramatisch werden.
Aber sicher scheint: Künstliche Intelligenz ist kein Trend, dem man sich anschliessen kann oder auch nicht, so wie man einer bestimmten Mode folgt, eine Technologie in seine Tasche steckt und nutzt oder eine bestimmte Partei unterstützt und diese in zeitlichen Abständen wählt.
Da ist nichts wählbar, nichts, dem man aus dem Weg gehen könnte.
Woran liegt das?
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Prämisse
Wir müssten ca. 250 der vergangenen Jahre ungeschehen machen und eine komplett neue Welt erfinden, diese gestalten und mit anderen Prämissen ausstatten. Wenn ich hier den Begriff Prämisse verwende, dann spreche ich von einer normierten [2] Art des Denkens. Wir könnten auch von Glaubenssätzen [2] sprechen.
Wohlgemerkt im Vergleich zu heute. Aber wie soll das gehen?
Die letzten 250 Jahre sind ein prägender Zeitraum im Kleid der Vergangenheit und damit ein Status quo, auf dem unsere Gegenwart, vor allem unsere Zukunft, ihre Gestalt findet.
Die Entwicklung [menschlicher] hyperkomplexer Narrative, all das, was systemisch von Generation zu Generation weitergetragen wird [2], das ist schon lange fest- und angelegt und vergleichbar mit der DNA in unserem Körper, die wir auch nicht austauschen können (auch wenn die Wissenschaft in Teilen daran schon arbeitet [2] [3]).
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Evocatio
Der israelisch-kanadische Informatiker Ilya Sutskever, * 1986, spricht von dem evokativen Potenzial genereller und aktueller KI-Entwicklungen.
Der Begriff der Evokation meint eine [suggestive] Erweckung von Vorstellungen oder Erlebnissen (z. B. durch ein Kunstwerk, seine Formen und Inhalte) [Google Search].
Der Begriff Evocatio (lat.) macht es noch ein wenig dramatischer. In diesem religiösen Zusammenhang geht es tatsächlich um das Herbeirufen einer Gottheit, um in einer ausweglosen Situation Hilfe zu erhalten.
Es geht aber noch extremer. Eine Beschwörung verliert sich in den unterschiedlichen Ausprägungen im Okkultismus bzw. der Metaphysik. Warum auch nicht. Ist das nicht eine sehr menschliche Tugend?
Vor allem dann, wenn man die etymologische Begriffsdeutung als erstrebenswerte Charaktereigenschaft bzw. den Aspekt der Vorzüglichkeit betrachtet und einen Moment darüber nachdenkt.
Darauf kommen wir noch zurück.
Wie schon spekulativ als Hypothese auf die Bühne dieses Textes gelegt: Wenn wir über Künstliche Intelligenz im Kontext von Lernen sprechen, dann muss man die Unausweichlichkeit und damit Konsequenz der Entwicklung verstehen und akzeptieren.
Auch wenn die Dramatik der vorstellbaren Entwicklungen und die eruptiven Veränderungen, die heute schon absehbar sind, manche mit Panik reagieren lassen, es ist eine folgerichtige Entwicklung, deren Wurzeln tief in der globalen Industrie- und Produktivkultur der letzten zwei, drei Jahrhunderte vergraben sind.
Die Soziologie hat vieles davon seit Jahren analysiert. Die Menschheit hätte sich über das nahezu vollkommene Anvertrauen an die Naturwissenschaft und den Glauben an stetiges Wachstum, verbunden mit einer nachgerade atemberaubenden Besoffenheit an immer kleinteiligere und feinstofflichere Perfektion [2], der Fantasie hingegeben, dies wäre ein grenzenloser Prozess permanenter Optimierung.
Und es ist ja auch richtig. Die Potenziale scheinen tatsächlich wie eine Erweckung, gerade so, als könnte man eine Gottheit herbeirufen (Evocatio), die es irgendwie richten würde.
Das ist nicht neu, denken wir an die Deus ex machina in der griechischen Tragödie.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Sam Altman
Sam Altman, * 1985, einer der Gründer [2] [3] von OpenAI und heute der vielleicht strahlendste Vertreter (sollten wir von einem Propheten sprechen?) einer KI-Szene, die keinen Bereich menschlichen Lebens auslässt, vertritt in seinen Vorträgen die These, die aktuelle Version ChatGPT wäre mächtiger als jeder Mensch.
Mit einem Blick auf das Jahr 2030 verkündet er in seinem Blogbeitrag, es gäbe dann unendlich viel Energie und unendlich viel Intelligenz [2].
Das klingt verlockend und bedient natürlich die menschliche Hoffnung nach einer Lösung von aussen. Eher sollten wir von Erlösung sprechen. Eine Entlastung all dessen, was belastet, und hier sind wir bei einem fragilen Aspekt der [sichtbaren] Veränderungen.
Die Physik verliert zunehmend die Bedeutung für eine Zukunft, in der alles möglich scheint.
Und dort, wo Physik einen positiven Effekt für eine Problemlösung haben könnte, da wird sie sich in Zukunft der Kontrolle von KI-Systemen unterordnen müssen.
So die Überzeugung derer, die an der Neuerfindung der Zukunft aktuell arbeiten [2] [3].
Wenn hier ein ironischer Unterton mitschwingt, dann liegt dies einfach an langjähriger Beobachtung. Diese Entwicklung [2] war zwangsläufig, unumkehrbar und ohne eine Möglichkeit, noch etwas entscheiden zu können. Warum also sich Sorgen machen?
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Komplementärstrategie
Ich habe in diversen Papieren, Vorträgen und Präsentationen Ende der 1990er Jahre unter dem Begriff Komplementärstrategie darüber spekuliert, wie in der Zukunft eine Art transformativer Service [2] bei einer typischen Aufgabe im Alltag alles (und mehr) abnimmt, was zur Lösung damit in Zusammenhang steht.
Mehr dazu unter dem Link Komplementärstrategie in diesem Absatz.
Ich ging dabei davon aus, es gäbe in Zukunft (heute bzw. bald?) ein digitales Pendant zu jedem Menschen (wenn man dafür bezahlen kann) als hybrides Zwitterwesen.
Ein digitales Abbild der kompletten Persönlichkeit kombiniert mit einer hyperaktiven Assistenz, die nicht nur proaktiv Aufgaben übernimmt, sondern prädiktional [2] [3] [4].
Alle provisionalen Zwischenergebnisse emulgieren mit dem finalen Ergebnis.
Kurz gesagt: Bevor einem ein Problem als solches klar wird, ist die Lösung schon da.
Das Problem löst sich in einer neuen Form der Nichtexistenz auf.
Oder mit anderen Worten: Die Trägheit unserer Wahrnehmung ist zu langsam, um die reale Existenz des Problems wahrnehmen zu können.
Wir sehen ja auch eine flüssige Bewegung bei einem Film und nicht 25 Einzelbilder in einer Sekunde.
Die Welt ist schon heute, vor allem aber in der Zukunft voll mit Problemen, die in einem Land ohne Namen aus dem Weg geschafft werden, damit Menschen damit keine Probleme bekommen.
Wie gesagt, wenn man dafür bezahlen kann. Womit auch immer.
All das ist heute im Kleinen schon da. Sicherheitssysteme in Fahrzeugen, hintergründige Lösungen in der Logistik, smarte Lösungen für nahezu alles, um den Alltag in der eigenen Wohnung so angenehm wie möglich zu gestalten. Soweit, so normal. Manche würden sagen, so natürlich.
In Zukunft wird vielleicht eine artifizielle auratische Sphäre dem menschlichen Leben assistierend und im Sinne des Wortes umfassend alles abnehmen, was beschwerlich erscheint. Wohlgemerkt: erscheint.
Vielleicht bis zu dem Augenblick, an dem wir unter der Gravitation unseres Körpers zu leiden scheinen, doch auch dafür, bevor wir zu leiden beginnen, wird eine angenehme Lösung als Entlastung gefunden.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Singularität
Das ist dann vielleicht der Punkt in der evolutionären Entwicklung der Menschheit, an dem diese in eine erste Phase der Singularität [2] eintritt.
Jener Punkt, an dem alle bestimmbaren Regeln aufhören zu existieren, eine komplett davon losgelöste Phase der weiteren Entwicklung stattfindet und die Menschheit fortan die Kontrolle über die eigene Zukunft verliert.
Das sind natürlich nur provokative Lockerungsübungen zum Nachdenken, besser zum Nachfühlen. Vieles ließe sich spektral, also in alle Richtungen, ausbreiten. In diesem Text geht es mir jedoch um Lernen und die Frage, wie sich dieses durch Künstliche Intelligenz heute schon verändert hat und im Weiteren verändern wird.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
30. November
Am 30. November 2022 wurde ChatGPT der Welt vorgestellt. Es eröffnete sich eine neue Dimension dessen, was in dem Kosmos Internet alles erkundet werden kann. Einfach, indem man dem System eine Frage stellt.
Am 30. November 1609 hat Galileo Galilei, 1564 – 1642, mit einem selbstgebauten Teleskop den Mond beobachtet und damit begonnen, mit der Vorlage dessen, was er dort gesehen hat, Zeichnungen von Gebirgen, Kratern und Ozeanen anzufertigen.
Seine Beobachtungen und Forschungen waren Zeit seines Lebens nicht oder nur wenig akzeptiert. Erst 383 Jahre später wurde sein Werk von der Katholischen Kirche akzeptiert. Er wurde rehabilitiert.
Soviel Zeit bleibt der Menschheit beim Umgang mit künstlicher Intelligenz vermutlich nicht.
Fatalisten gehen davon aus, das Rennen wäre – vergleichbar mit der Klimakatastrophe – sowieso schon verloren.
Wir wollen trotzdem einen nüchternen und gerne auch einen positiven Blick wagen.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Metaanalyse
Eine Metaanalyse, die 51 Studien mit mehr als 10.000 Teilnehmer:innen ausgewertet hat, kam durchaus zu einem positiven Ergebnis (veröffentlicht am 26. Mai 2026 in nature.com).
Basierend auf den traditionellen Prüfmethoden schneiden Studierende mit dem Einsatz von ChatGPT bzw. KI-Tools signifikant besser ab als die untersuchten Gruppen, die ohne diese Tools gearbeitet haben.
Auch die Fähigkeiten zur Problemlösung, Reflexionsfähigkeit und Kreativität (was damit auch immer genau gemeint war) waren verbessert.
Dies wird etwas sibyllinisch als höheres Denken bezeichnet.
Nun denn, das klingt gut. Was aber soll das (höheres Denken) sein bzw. was hat das mit Künstlicher Intelligenz zu tun?
Wichtig und – aus meiner Perspektive – ein zentraler und wertvoller Aspekt war eher die Verbindung des [positiven] Lerneffekts mit möglichst praxisnahen Themenstellungen bzw. mit komplexen Projektanforderungen.
Hier konnte ChatGBT nicht nur flott Fakten liefern, sondern auch beim Strukturieren, Sortieren, Erläutern und damit auch Reflektieren durch die Studierenden helfen.
Interessant in der Studie ist die Komponente Zeit. Wenn ChatGBT nur kurz zum Einsatz kam, dann war der Lerneffekt relativ gering. Wenn das KI-Tool zu einer Dauerlösung wurde, ergab sich eine Abnutzung des positiven Wirkungsgrades auf die Lernergebnisse. Ein Zeitfenster von ca. vier bis acht Wochen pro Projektvorhaben zeigte die besten komplementären Ergebnisse für die Probant:innen.
Spannend (vermutlich auch für die beiden Forscher Jin Wang und Wenxiang Fan) war die Erkenntnis, dass die positive Wirkung des Einsatzes von ChatGBT in keiner Abhängigkeit zum akademischen Bildungsstand oder der Fachrichtung stand.
Besonders auffällig war der Effekt immer dort, wo es um die Förderung von kreativem oder argumentativem Denken ging.
Die Forscher betonen, dass der Einsatz des KI-Tools als eine Art Sparringpartner nicht losgelöst von einem systematischen und didaktischen Konzept sein sollte, da sonst die Lerneffekte schnell verpuffen. Anders gesagt wird empfohlen, dass (hier) ChatGBT als bewusstes und zielgerichtetes Werkzeug seine Wirkmacht entfaltet.
Wir versuchen ja auch nicht, mit einem Hammer eine Schraube in die Wand zu drehen.
Es muss natürlich die Frage gestellt werden, was passiert, wenn das KI-Tool zu einem intrinsischen Standard wird. Reguliert sich dann der Lerneffekt mit zunehmender Normalität, also Gewohnheit, nach unten? Einfach darum, weil nur noch wenig Besonderes in Form von etwas Neuem erfahren wird?
Wie bei allen neuen Werkzeugen wird in der Metastudie darauf verwiesen, dass die Nutzung bzw. die Bereitschaft dazu vor allem dann erfolgt, wenn das Tool einfach und damit ohne viele Lernhürden zügig Ergebnisse liefert und idealerweise mehr, als man erwartet hat.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Andy Lippmann
Ich verweise hier gerne noch einmal würdigend auf die fünf von Andy Lippmann [2] aufgestellten Grundregeln für die Interaktion mit digitalen Systemen.
Ziemlich schau für die Zeit in den 1970er Jahren.
Ich ergänze die thematischen Gedanken bzw. Ausführungen von Andy Lippmann zum Thema gerne an dieser Stelle mit einem Leitsatz aus meiner Textserie unter der verbindenden Überschrift INNOVATION:
Jede Neuerung bedeutet Veränderung zum Gewohnten und damit dem, was Menschen gelernt und akzeptiert haben.
Die Akzeptanz zur Veränderung bedeutet Lernen und damit die Bereitschaft, einen Aufwand zu leisten.
Der Aufwand muss für Menschen als geringer wahrgenommen werden, als das Ergebnis, das durch diese Leistung erbracht wird.
Das Ergebnis muss immer positiv sein (positives Delta).
Zurück zum Thema. Auffälliges Forschungsergebnis in der Metastudie war, dass eine kritische Tiefe bzw. eine besonders originelle Perspektive auf das jeweilige Lernfeld kaum feststellbar war.
Dazu komme ich gleich noch einmal zurück.
Gerne zitiere ich aber die sechs zentralen Empfehlungen der beiden Forscher Jin Wang und Wenxiang Fan aus der Metastudie im Wortlaut:
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Sechs Regeln
Erstens sollten Lehrende ChatGPT gezielt in problemorientierte Lernformate integrieren, statt es nur als Recherchehilfe zu nutzen.
Zweitens ist eine didaktische Einbettung nötig – etwa durch Bezug auf Blooms Taxonomie oder andere pädagogische Modelle.
Drittens empfiehlt sich eine Nutzung über mehrere Wochen, idealerweise vier bis acht, ergänzt durch Anleitung zur Promptgestaltung.
Viertens sollte ChatGPT als vielseitiges Instrument eingesetzt werden – mal als Tutor, mal als Partner, mal als Recherchehilfe –, je nach Bedarf des Lernkontexts.
Fünftens muss Übernutzung vermieden werden. Lehrende sollten auf Überforderung oder Bequemlichkeit achten und gegebenenfalls andere didaktische Modelle wie Flipped Classroom ergänzend einbauen.
Sechstens sollten die emotionalen Bedürfnisse der Lernenden berücksichtigt werden, um technologische Entfremdung zu vermeiden.
Soweit ist das alles schlüssig und nachvollziehbar. Allerdings sollte man solche Analysen immer im Verbund der sozialen Rahmenbedingungen verstehen (social frameworks). Dabei müssen vermutlich auch kulturelle, soziale und intergenerative Erwartungen und Leistungsmuster für die Interpretation berücksichtigt werden.
Lassen wir das mal so stehen.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
02 Digitaler Zwilling

Suchmaschinen
Künstliche Intelligenz wird nicht nur über die auch hier prominent thematisierte Version als ChatGBT zum Teil der öffentlichen Diskussion, auf die manche mit einer latenten Hysterie reagieren, etwas zu verpassen.
Es wirkt ein wenig so wie zu Beginn der Entwicklung von Suchmaschinen [2] [3] [4] ab Mitte der 1990er Jahre. Es gab für nahezu jeden Bedarf, jedes Fachgebiet und jedes Interesse ein eigenes Angebot.
Am Ende machte mehr oder weniger eine Suchmaschine das Rennen (Google). Der Rest ist Geschichte.
Wobei jede Suchmaschine das gleiche Grundkonzept verfolgte. Je nach der Finesse des Algorithmus [2] und Metadaten zu den Inhalten (Websites) wurde in knapp einer Sekunde eine Liste angezeigt, für deren Sichtung man den Rest des eigenen Lebens hätte verwenden müssen.
Kleiner Sidekick: Hat schon jemand einmal geprüft, ob es die oft zwei Millionen gefundenen Einträge zu einem Suchbegriff überhaupt gibt? Wenn ich den Begriff Wahrheit bei Google eingebe, dann braucht die Suchmaschine 0,25 Sekunden und findet 81.200.000 Ergebnisse (30. Juni 2025). Verrückt.
Die gefundenen Angebote könnte man auch so beschreiben, als würden aus einer globalen Bibliothek aller Bücher in allen Sprachen, Zeiten und Ausgaben in knapp einer Sekunde mehrere Container zusammengestellt und eine klare Anweisung erhalten, mit welchem Container man in welcher Reihenfolge mit dem Lesen beginnen solle.
Mühselig, aber nun fast 30 Jahre erfolgreich.
Es ist heute nicht leicht, sich eine Welt nach Google-Search vorzustellen. Was soll da noch kommen?
In einem Forschungsprojekt Ende der 1990er Jahre [2] habe ich mit meinen damaligen Kolleginnen und Kollegen darüber spekuliert, wie man die Idee einer Suchmaschine weiterdenken könnte.
Im Prinzip ist es nicht so schwierig. Unsere Kernidee bestand darin, nicht nur einen Suchbegriff einzugeben, sondern mehrere (das war nicht neu) und diese mit einer bestimmten Notation in Bezug auf die Relevanz zum avisierten Ergebnis der Frage zu versehen.
Das Neue war die visuelle Repräsentation der gefundenen Einträge.
Die Anzeige war keine Liste, sondern eine kontextuelle Darstellung in Form eines Mapping.
Die Suchbegriffe – im Zusammenspiel eine einfache Form der Fragestellung – würden wie Magnete auf einer digitalen Fläche die gefundenen Einträge (Webseiten) in unterschiedlicher Distanz zum Suchbegriff anzeigen (oder abstossen) und damit die Kombinationen visuell verdeutlichen.
In der Studie gingen wir davon aus, dass man mit der Methode des [von uns und zu der Zeit auch von anderen] sogenannten Decluttering (später wurde dies zum ersten Mal bei Google Maps verwendet) tiefer in den gefundenen Content-Kosmos eindringen konnte und je nach der Tiefe des Vordringens die Inhalte präziser oder gröber angezeigt würden (Decluttering bedeutet Entrümpeln, es würden also nur jene Inhalte angezeigt, die relevant wären).

Das war nur eine Studie und knapp 25 Jahre vor ChatGPT. Sie zeigt jedoch im Prinzip den Ansatz, der die sogenannten LLM-Systeme (Large Language Models) heute so wirkmächtig werden ließ.
Dazu gab es manche Vordenker.
Zum Beispiel und immer wieder gerne genannt: Alan Kay, 1940, der zusammen mit Adele Goldberg, 1945, die objektorientierte Programmiersprache Smalltalk ab dem Jahr 1969 [2] entwickelte und die erste Version im Jahr 1972 vorstellte.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Semantic Web
Der in Bezug auf unser Thema jedoch vielleicht wichtigste ist Sir Tim Berners-Lee, * 1955, Kopf eines Teams am Kernforschungszentrum in Cern [2] [3], das 1992 die Grundlagen für das World Wide Web gelegt hat.
Schon im Jahr 1989 tauchte der Begriff Semantic Web in seinen Notizen auf. Der Begriff selbst wurde schliesslich 1999 öffentlich vorgestellt und sollte ein Konzept zum Ausdruck bringen, bei dem einzelne Begriffe innerhalb der Syntax eines Satzes mit Metadaten verbunden sind und damit die semantische Interpretation sowie die Zuordnung zu anderen Begriffen (das Wesen einer Fragestellung und der damit verbundenen Antwort) ermöglicht werden sollten.
Kleiner und unbescheidener Sidekick: Ich arbeitete 1989 in einem Forschungsprojekt an der Universität der Künste [2] – natürlich auf einem sehr viel einfacheren Level – an einem ähnlichen Ansatz, als wir darüber spekulierten, wie man mit natürlicher Sprache einem digitalen System Fragen stellen bzw. mit diesem umfassend interagieren würde.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Large Language Model
Dieser kleine historische Diskurs war wichtig, um die Logik der Entwicklung von LLM-Systemen besser nachvollziehen zu können. Ein Large Language Model basiert auf Deep Learning sowie auf extrem grossen Datenmengen (Inhalten), die auf komplexe Weise trainiert werden müssen.
Sonst kommt nichts Vernünftiges dabei heraus.
Als Vorbild wird gerne die neuronale Struktur des menschlichen Gehirns genannt.
Ich bin nicht sicher, ob das damals oder heute sehr hilfreich war bzw. ist.
Richtig ist, es handelt sich um ein neuronales System, das aus einem Encoder und einem Decoder [2] [3] besteht, welches – um ein einfaches Beispiel zu verwenden – wie bei Ping Pong das Spiel im Austausch beobachtet.
Je nach der Fragestellung reagiert dann das System mit einem entsprechenden Ergebnis (Antworten).
Wichtig ist die hyperkomplexe Vernetzung aller damit in Kontakt kommenden Daten. Mit anderen Worten: Da das System eine für menschliches Denken extreme Performance aufweist und nie schläft, entwickelt sich über die Zeit eine Qualität des Outputs, welche heute die Welt in Staunen versetzt und in Atem hält.
Wir sollten vielleicht einen Moment bei dem Begriff Qualität bleiben und die einfache Frage stellen, was das überhaupt ist.
Aus einer typisch menschlichen Perspektive würden wir sagen, die Antwort war gut, wenn sie perfekt zu meiner situativen Erwartung passte. Nun kann es natürlich sein, dass sowohl die Situation als auch die Erwartung allzu banal sind und damit die Antwort weit unterhalb dessen bleibt, was noch möglich gewesen wäre.
Wir würden vermutlich alle übereinstimmen, dass die wirklich bedeutenden Erkenntnisse, die besonderen Einsichten und ein tiefes Verständnis gerade nicht das widerspiegeln, was man sowieso erwartet hatte oder einfach zu einer bestimmten Situation passte.
Nein. Es war dann wirklich bedeutend, wenn eine komplett neue Türe aufgemacht wurde, eine unerwartete Wendung bzw. eine neue Sicht plötzlich klar und eindeutig vor einem stand, die so anders war, dass man in dem Moment noch nicht wusste, wie man damit umgehen sollte.
Menschen kennen das, wenn sie von ihren Vorbildern sprechen und damit von einer Instanz, die gerne für eine Überraschung gut ist, besser: der man Überraschungen erlaubt.
Diese besonderen Personen erkennen Zusammenhänge, sie können diese herstellen und vermitteln. Solche Beziehungen führen zu der Erfahrung, wie sich der eigene Horizont weitet, man plötzlich das Gefühl hat, ein wenig in die Höhe zu steigen und mühelos über die üblichen Hügel (die sonst im Wege stehen) hinwegblicken zu können.
Ich vermute, diese Momente der höheren Einsicht sind nicht wirklich ein Zufall. Auch wenn wir dies so wahrnehmen oder so wahrnehmen wollen, da der Zufall weniger irritierend klingt.
Möglicherweise sind es logische, systemische Ergebnisse dessen, was sich davor als Grundlage angesammelt hat.
Sonst würde die explosive Besonderheit der neuen Erkenntnis kaum zu dem beschriebenen Höhenflug ansetzen können.
Leben ist vielleicht ein endloses kausales Band aller Erlebnisse und Erfahrungen, die vergessen wurden, doch nicht verschwunden sind und wie ein Flimmern im Hintergrund den Schwung unserer Gegenwart in die Zukunft mitgestalten.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Skill Skipping
Es gibt beim Lernen mit Hilfe von KI den Begriff des Skill Skipping. Damit wird beschrieben, wenn Menschen ein KI-Tool für ein Problem verwenden, welches sie selbst nicht [leicht] lösen könnten, da ihnen die [grundsätzliche] Kompetenz [2] bzw. das Talent [2] oder die [freiwillige] Übung dafür fehlt.
Wenn KI (als Chatbot oder Simulationstool) eine Lösung anbietet, die anschliessend als scheinbare Kompetenz (von den Lernenden) präsentiert werden kann, dann entsteht eine Lücke, die nicht mit eigenem Können bzw. Kompetenz gefüllt, sondern übersprungen wurde.
Die Lernenden geben sich der kurzfristigen Zufriedenheit bzw. der Illusion hin, sie hätten etwas verstanden (kleine Einschränkung: natürlich bleibt immer etwas hängen).
Damit berühren wir einen aus dem Dickicht der Frage nach der Bedeutung von Künstlicher Intelligenz in Lernumgebungen herausragenden Punkt: Warum sollte ich überhaupt noch etwas selbst erarbeiten, wenn es so mühelos über die Magie der KI-Tools abrufbar ist und am Ende auch noch so aufbereitet wird, dass es perfekt zu meinem Profil passt?
Und so scheint es, als hätte ich wirklich alleine alles gemacht.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Stolz
Wir legen hier die Frage nach dem Wert von Inhalten, Copyright und Rechtsfragen zur Seite.
Es geht mir um den Wert des Tuns, des individuellen und persönlichen Aufwands, der uns in den letzten ca. 2,4 Millionen Jahren der Menschheitsgeschichte zu einem wichtigen Gefühl führte: den Stolz, etwas Eigenes geleistet [2] [3] zu haben.
Vielleicht ist dies heute ein wachsendes Problem, eine [noch] ungelöste Herausforderung.
Wie soll man Menschen den Wert der eigenen Leistung erklären, die in einer Zeit erwachsen werden (was auch immer erwachsen bedeutet) und keinen Ort, keine Zeit und keine Situation ohne digitale Medien kennen?
Um nicht missverstanden zu werden. Es geht mir nicht um die Negation bzw. den Ausschluss digitaler Medien oder den Einsatz Künstlicher Intelligenz. Es geht mir um die Selbstwahrnehmung [2], die Selbstwirksamkeit [2] [3] und damit den Selbstwert von Menschen, die eine eigene Position [2] und eine eigene Haltung [2] im Leben entwickeln. Egal in welchem Alter.
Ich werde hier die psycho-soziologischen Fragen nicht weiter beleuchten.
Wichtig ist mir die Frage: Was macht es mit Menschen, die mit den Systemen nicht mehr mithalten können? Zumindest in der Wahrnehmung dessen, was mit KI alles möglich scheint.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Gehirn
Letztlich lebt das menschliche Gehirn [2] von permanenter Beschäftigung. Vergleichbar mit einem Muskel, der erschlafft, sich also zurückentwickelt, ist der neuronale Cortex als Aussenstelle aller damit verbundenen Gehirnfunktionen davon abhängig, möglichst komplett genutzt zu werden.
Das menschliche Gehirn hat ca. 100 Milliarden Nervenzellen, die über ca. 100 Billionen Synapsen miteinander verbunden sind. Jede Nervenzelle kann mit ca. 10.000 anderen Nervenzellen verbunden sein. Wohlgemerkt kann.
Wenn nichts, wenig oder immer weniger passiert, dann werden diese Verbindungen wieder aufgelöst. Warum sollte sich das Gehirn auch unnötig Arbeit machen?
Mit einem Fachterminus nennt man diesen Abbau kognitiver Leistungen auch Deskilling [2] [3] [4].
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Invokation
Wir sprachen weiter oben von der Beschwörung bzw. der menschlichen Tugend, im Zusammenhang mit dem Begriff Evocatio.
Es gibt auch den [spirituellen] Begriff der Invokation. Dieser beschreibt einen metaphysischen Prozess der Hineinrufung.
Die Person ruft in sich hinein und erlebt auf diesem Wege die simulierende Vorstellung, wirklich selbst zu dieser herausragenden [2] [göttlichen] Person zu werden.
Ich habe bei dem letzten Forschungsprojekt an meiner Hochschule (UdK in Berlin), das den Titel KIT – Kinetic Interface Tool trägt (mehr dazu bald hier auf dem BASICBOOK), von einem Personnel Kingdom gesprochen.
Damit meinte ich die verklärende [2] [3] [4] und abgehobene Vorstellung, mit digitalen Tools (heute nah am Körper getragen, morgen vielleicht als permanentes Device [2] im Ohr) tatsächlich zu dem fähig zu sein, was diese Werkzeuge in gewisser Weise vortäuschen.
Nun ist dies nichts, was uns überraschen sollte. Jedes Hilfsmittel[2], also ein Mittel zur Hilfe, ist ein externalisiertes Ding, welches die Potenziale des Menschen erweitern soll.
Menschen steuern heute das Licht und die Heizung ihrer Wohnung, wenn sie nicht zuhause sind, sie fahren mit eingeschränkter Aufmerksamkeit, doch mit hoher Geschwindigkeit über Strassen, sie überlassen die Analyse körperrelevanter Gesundheitsdiagnosen digitalen, vornehmlich Systemen mit einem mehr oder weniger ausgefeilten KI-Ansatz und werden trotzdem psychisch nicht besonders auffällig.
Was ist also das Problem?
Das Problem ist, wir dringen mit dem Blick auf den Einsatz der Künstlichen Intelligenz zunehmend in Sphären vor, die zu einer gewissen Selbstbesoffenheit führen und bei denen die Wahrnehmung der eigenen Leistung mit dem simulierten Output kaum noch etwas zu tun hat.
Nochmal: Das muss im Grunde kein Problem sein, solange man sich dieses Effekts bzw. des Unterschieds bewusst ist.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
J-Kurve
In der Industrie bzw. der Betriebs- und vor allem der Volkswirtschaft [2] kennt man die Effekte der sogenannten Produktivitäts-J-Kurve [2]. Damit wird beschrieben, wie zum Beispiel die Abwertung der eigenen, nationalen Währung erst mit deutlicher Verspätung zu den gewünschten Effekten wirtschaftlicher Belebung führt.
Das ist komplex, eigentlich geht es mir um etwas anderes.
In disruptiven Märkten, vor allem bei neuen Technologien, verwendet man die These einer J-Kurve mit der Spekulation, wie und in welchen Zeiträumen sich eine Veränderung in Relation zur gesellschaftlichen Akzeptanz [2] [3] entwickelt und sich dann schlagartig (disruptiv) durchsetzt (ein liegendes J, das irgendwann zu einer exponentiell wachsenden Kurve führt).
Oder eben nicht.
Paul Krugman, * 1953, beschreibt die J-Kurve klassisch hoffnungsgeladen, wenn er sagt: The J-curve is a basic concept in economics. It describes the phenomenon where things have to get worse before they get better.
Nun ja. Es muss halt immer besser werden.
Es gibt eine weitere Theorie, die im deutschsprachigen Bereich unter dem etwas sperrigen Titel Technikfolgenabschätzung bekannt ist. Diese eher lineare Sicht auf eine noch nicht bestimmbare Zukunft will frühzeitig erkennen, wie sich eine technologische Veränderung entwickelt und welche Maßnahmen in der Rückprojektion eingeleitet werden sollten, damit sich eine negative Entwicklung vermeiden lässt.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Collingridge-Dilemma
Das sogenannte Collingridge-Dilemma, benannt nach David Collingridge, 1945 – 2005, nimmt der rationalen Perspektive der Technikfolgenabschätzung ein wenig den Anspruch der Kontrollierbarkeit und packt das eigentliche Problem an der Wurzel.
Kurz gesagt sagt das Collingridge-Dilemma, dass eine Technologie in ihrer Wirkung erst dann eingeschätzt werden kann, wenn eine Rückabwicklung nicht mehr möglich ist.
Das ist ein wenig so, als würde man eine Krankheit erst dann erkennen, wenn man nur noch den baldigen Tod attestieren kann. Mindestens aber keine Genesung.
Diese Unausweichlichkeit einer Entwicklung kennt auch die Doppelbindungstheorie. Diese beschreibt eine Situation und damit auch das Dilemma, eine Situation vorzufinden, die attraktiv klingt und verführerisch sein kann, doch mit der kompletten Aufgabe jeder Kontrolle über den Ausgang verbunden ist.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Doppelbindung
Das Thema wird in der Psychologie gerne dann angeführt, wenn eine Ausweglosigkeit betrachtet wird, die für Proband:innen mit der Aufgabe ihrer Selbstermächtigung verbunden ist.
Eine typische Doppelbindung findet man zum Beispiel in Eltern/Kind-Beziehungen oder unter dem etablierten Begriff einer toxischen Beziehung.
Ein leicht nachfühlbares Beispiel für eine Doppelbindung wird in einer typischen Elternaussage deutlich, die irgendwie gut klingt, doch das Kind in eine ausweglose Situation bringt. Das Beispiel:
Eltern verabschieden ihr Kind auf dem Weg zum Spielplatz. Es regnete, daher ist der Boden feucht und teilweise matschig. Beim Abschied sagen sie: Hab viel Spass, tob dich aus, aber schau, dass du nicht dreckig wirst.
Dieser Exkurs war mir an dieser Stelle wichtig, da ich vermeiden möchte, mich dem Thema Lernen im Umfeld aufkommender Künstlicher Intelligenz nur mit einer technischen bzw. funktionalen Perspektive zu nähern.
Es wäre sicher falsch, würde man die emotionalen und psychischen Faktoren der intrinsischen Veränderungen menschlicher Handlungsnormen nur von aussen betrachten wollen.
Der Eingangssatz zu diesem Text lautet:
Künstliche Intelligenz scheint alles zu ändern. Auch die Art und Weise, wie wir lernen. Die Frage ist nur, warum sich die KI nicht uns anpassen kann.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Emotion recognition
Dass die KI aber genau dies tun würde, das sind die Heilsversprechen der KI-Pioniere weltweit.
Nahezu jedes [KI-] Unternehmen, welches in den vergangenen Jahren die öffentliche Aufmerksamkeit auf sich gezogen hat, arbeitet an sogenannter Emotion recognition.
Das klingt erstmal unauffällig bzw. gefällig. Dahinter verbirgt sich jedoch ein Ansatz, der möglichst exakt die vielfältigen emotionalen und mentalen Triggerpunkte bei Menschen erkennen, analysieren und schliesslich aktivieren will.
Wie genau diese Aktivierung funktioniert, ist schwer zu sagen. Dass es funktioniert, zeigt sich in vielfältiger Weise.
Man könnte von digitalen Spiegelneuronen sprechen, die über die permanente Abtastung der aktiven Handlungsoberfläche eines Menschen die komplette Persönlichkeit kartografieren und schliesslich eine Dopplung der Person simulieren würde.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Digitaler Zwilling
Provokativ formuliert: der Untergrund des menschlichen Bewusstseins, alles, was uns physikalischen Säugetieren verborgen bleibt, wurde von dem digitalen Zwilling eines Menschen so offen gelegt, dass es kaum noch Überraschungen gibt.
Im Prinzip ist das sehr menschlich. Auch Leonardo da Vinci, 1452 – 1519, war dann nicht mehr erstaunt, als er verstanden hatte, wie eine menschliche Herzklappe funktioniert.
Leonardo da Vinci war allerdings kein Chatbot [2], sondern eine neugierige Person, die permanent der Lust auf Entdeckung und Erkenntnis folgte.
Damit verbindet sich die irritierende Perspektive auf eine Gesellschaft, die scheinbar davon ausgeht, als müsse man in einem Zeitalter, das sich aufgemacht hat, die Welt in ein alles umfassendes KI-Bad zu tauchen, nichts mehr wissen müssen.
Aber wie soll das gehen?
Ein Taschenrechner konnte zwar die Dynamik des Rechnens beschleunigen, doch ohne das Wissen über die Grundrechenarten (ganz zu schweigen von darüber hinausgehenden Kompetenzen) war das Ding so wirksam wie ein Stück Holz (wobei vermutlich in einem Stück Holz noch mehr Potenzial steckt).
Mit einem Kunstbegriff könnten wir von einer De-Physikalisierung sprechen.
Wenn der Wert der anfassbaren Welt zugunsten der vorstellbaren bzw. der wünschbaren Welt immer geringer wird, dann entwickeln sich neue Blickwinkel auf das, was jeder Mensch jeden Tag überwinden und ertragen muss: die Gravitation.
Dazu ein Leitsatz:
Die physikalische Welt verliert zunehmend ihren Wert in der Gravitation der Dinge.
Die digitale Welt transmittiert und simuliert ein imaginäres Potenzial als eine Art Gravitation der Wünsche.
Weiter oben haben wir schon über diverse Vorteile gesprochen, die der Einsatz von KI auf Lernen generell haben könnte. Diverse Studien bestätigen das Folgende:
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
03 E. M. Foster

Lernerfolge
Lernerfolge bzw. ein Tiefenverständnis zum Gegenstand des Lernens werden dann grösser, wenn das KI-Tool ein integratives und auf das avisierte Lernziel abgestimmtes Hilfsmittel ist.
Idealerweise werden getestete Prompts [2] sowie passende Materialien im Zusammenspiel des KI-Tools (Chatbot) als Übung vorab bereitgestellt.
Ein grosser Vorteil ist die gleichzeitige und umfängliche Begleitung der Lernsituation für alle Lernenden, egal welchen Kompetenzstand die einzelne Person mitbringt.
Das Potenzial des Profiling, also die personenbezogene Reflexion und Begleitung durch ein KI-Tool, kann eine Chance und gleichzeitig ein Problem sein.
Die Chance liegt auch darin, dass eine Lehrperson nicht in der Lage wäre, sich gleichzeitig und so intensiv um einzelne Lernende zu kümmern bzw. deren Lernbedarf bedienen zu können.
Das Problem liegt in der Vereinzelung der Personen, die mit KI-Tools arbeiten bzw. akzeptieren müssen, dass der KI-Assistent (Chatbot) zunehmend den Lernstand der lernenden Person übernimmt und nur innerhalb dieses Kompetenz- und Anforderungsspektrums agiert.
Kleine Einschränkung: Das kann, muss aber nicht so sein und unterscheidet die KI-Angebote als Lernunterstützung.
Sogenannte intelligente tutorielle Systeme (ITS), schon 1973 von Derek H. Sleeman und J. R. Hartley vorgestellt und eingeführt, versprechen die Vorteile des adaptiven Lernens (1970 konzeptionell entwickelt).
Gleichzeitig sollte man bei aller Begeisterung trotzdem nüchtern die möglichen negativen Implikationen im Blick haben. Schliesslich sprechen wir heute von KI-Tools, die nicht mehr mit der Zeit um die 1970er Jahre vergleichbar sind.
Ein iPhone 6 aus dem Jahr 2015 könnte mit der integrierten Rechenleistung 120 Millionen Apollo-Mondlandungen steuern. Heutige Smartphones liegen ungefähr bei einer Milliarde Mondlandungen, die mit diesem Alltagsgegenstand in unserer Tasche digital geregelt werden könnten.
Der zentrale Gedanke ist nicht die Rechenleistung. Das wäre banal bzw. zweitrangig.
Die politischen und kulturellen Vermittlungsanstrengungen eines Staates gegenüber der eigenen Bevölkerung sind hier eher zu betrachten.
Die Frage, was eine Nation als lernrelevant (Lernziele) erachtet und wie die Lerninhalte zu den strategischen Zielen der machthabenden Strukturen passen, muss immer neu gestellt und mit einem kritischen Blick beantwortet werden.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Schubumkehr
Lernende und Lehrende werden, betrachten wir den Einsatz von KI-Tools in Zukunft, möglicherweise von einer Art Schubumkehr der Kompetenz betroffen sein.
Es ist ja klar: Jüngere Menschen haben einen deutlich unbefangeneren Zugang zu neuen digitalen Werkzeugen als Lehrende, die 20 oder 30 Jahre älter sind.
Sollten sich hier die klassischen Hierarchien [2] nicht neu definieren, dann kann ein kraftvolles und gemeinsames Ergebnis nur sehr schwach oder sogar kontraproduktiv ausfallen.
Ohne eine substanzielle Hinterfragung der Distanz zwischen Lernenden und Lehrenden und damit die Zuwendung zu einem entspannten und eher gleichrangigen Diskurs in gemeinsamen Lernsituationen mit KI-Tools wird es schwierig. Einfach darum, da sich die Kompetenzen umkehren.
Lehrende sollten eher Kontextkompetenz anbieten und zu Erzählerinnen und Erzählern werden!
Ich sprach an verschiedenen Stellen über den Wert der Inhalte und damit auch über den Glauben, welcher nötig ist, damit sich eine Türe bei den Rezipienten öffnet.
Wenn ich nichts oder nur wenig glaube, dann verkümmert ein tief im Menschen angelegtes Bedürfnis: die Hoffnung auf einen generellen Sinn des Lebens, besonders des eigenen!
Umgekehrt und provokativ könnte man postulieren [2]:
Wer nichts weiss, muss alles glauben.
An diesem Punkt treffen sich drei Aspekte an einem schmerzhaften Punkt:
Erstens: Weiter oben sprachen wir von der Invokation als einer gewissen Hybris und Selbstbesoffenheit durch die Illusion, alle Antworten auf alle Fragen in der Tasche zu haben.
Zweitens können wir eine beklemmende und gefährliche Entwicklung beobachten: die transformatorische Qualität dessen, was Künstliche Intelligenz als Output produziert, wirkt zunehmend so echt, so wirklich, dass man natürlich irgendwann den Glauben an das verliert, was man sieht, liest oder hört.
Drittens verbringen Menschen heute den grössten Teil ihres Tages in der Blickachse auf ein digitales Device, irgendeinen Bildschirm (in Zukunft – so meine Überzeugung – durch einen permanenten Knopf im Ohr) und müssen das, was sie alles wahrnehmen, mental und parallel zum Strudel der Bilder mit dem Bestand der schon gesehenen Bilder vergleichen und harmonieren. Das Problem:
Die Inflation der neuen Bilder bröckelt aus einem gelernten Wertekanon, da keine Zeit mehr für eine moralische und ethische Einordnung bleibt.
Dafür ist die Wahrnehmung des Menschen einfach zu langsam.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Brainrot
Die Wissenschaft hat dafür auch schon einen griffigen Begriff gefunden und nennt dieses Phänomen Brainrot (Oxford-Wort des Jahres 2024), was auf Deutsch Hirnfäule bedeutet und noch unappetitlicher klingt.
Die Hirnforschung [2] [3] [3] folgte dem Begriff mit eigenen Untersuchungen und stellte fest, dass tatsächlich der Effekt eintritt bzw. eintreten kann, wenn ein übermäßiger Konsum digitaler Inhalte zu einer Vernebelung der Wahrnehmung und damit zu einer Betäubung führt, die man auch unter Alkohol oder anderen Drogen feststellen und erleben kann.
Die sogenannte Graue Substanz im Gehirn des Menschen, welche zentrale Funktionen im Zentralnervensystem übernimmt, kann so weit beeinträchtigt werden, dass die Aufmerksamkeitsspanne und damit, als reziproker Paralleleffekt, die Leistung des Gedächtnisses nachlässt.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Doomscrolling
Das Schöne der Sprache ist, dass es für nahezu alles sofort markante Begriffe gibt. Das Doomscrolling führt, nach einer Metaanalyse der Macquarie University in Sydney und geleitet von Michoel Moshel, zu einem negativen Weltbild. Warum?
Es ist einfach zu viel!
Der Fokus menschlicher Aufmerksamkeit wird überfordert. Die seit Jahrhunderttausenden etablierten Funktionen in unserem Gehirn brauchen mehr Zeit.
Eintretende Impulse, Eindrücke und Nachrichten werden von den Frontalhirnlappen (vorderer Cortex) an eines der ältesten Areale des Gehirns geschickt, die Basalganglien. Diese wiederum senden das Wahrgenommene zum limbischen System (grob gesagt), dem Belohnungssystem [2] und an die Amygdala, dem Warnsystem.
Das menschliche Gehirn ist unglaublich schnell und trödelt nicht herum. Aber was soll es machen, wenn im Teilsekundentakt und dies über einen grossen Teil des Tages permanent Neues in den Wahrnehmungskanal prasselt?
Es gibt einfach auf, zieht sich zurück, das Netz wird gröber, die Empathiefähigkeit leidet.
Das Ergebnis ist eine Art des existenziellen Rückzugs, was in Japan seit vielen Jahren die dortige Gesellschaft beschäftigt.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Hikikomories
Sogenannte Hikikomories sind vornehmlich junge Erwachsene, die sich vollkommen aus der Gesellschaft zurückziehen. Sie blicken mit Sorge und Unsicherheit auf eine Welt, die ihnen durch den zeitlichen Abstand immer fremder erscheint.
Die Rückkehr in ein soziales und kooperatives Miteinander, Diskurs- und Kompromissfähigkeit reduzieren sich, vor allem leidet die Bündnis- und Liebesfähigkeit in deren Welt freiwilliger Isolation. Wobei der Begriff freiwillig genauer betrachtet werden sollte.
Wir sprachen von Doomscrolling und damit davon, wie Soziale Medien [2] [3] konsumiert werden. Das ist nicht identisch mit Künstlicher Intelligenz, doch die Verschmelzung der Technologien führt zu einer Potenzierung möglicher Probleme und Herausforderungen.
Evolutionär war und ist die Bereitschaft des menschlichen Gehirns bzw. der damit verbundenen Instinkte, nach Neuem zu suchen, ein elementarer Vorgang, um überleben zu können.
Ebenso relevant war und ist der [anthropologische] Reflex, bei Überforderung den Rückzug anzutreten, um das eigene Leben zu schützen.
Heute geht es nicht mehr zwingend um das eigene Leben, doch der Reflex kann das nicht gut genug unterscheiden.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Informationsverwertung
Der Aspekt der Unterscheidbarkeit ist interessant, um die Fähigkeit zum Verwerten von Informationen im menschlichen Gehirn zu verstehen.
Das Gehirn arbeitet mit ca. 10 Bit pro Sekunde, wenn man davon ausgeht, dass Menschen ungefähr 120 Wörter pro Minute in eine Tastatur tippen und im Mittel 160 Wörter pro Minute sprechen.
Mit einem Bit pro Sekunde ist eine Informationseinheit gemeint (was auch immer das genau ist).
Das klingt extrem langsam. Verrückterweise sammelt das Gehirn in der gleichen Sekunde über die Komplexität der Sinne 100 Millionen Mal mehr Informationseinheiten und verarbeitet diese irgendwie (unbewusst).
Ein einzelner Rezeptor in unserem Auge kann 270 Bit/s erfassen, das ganze Auge ungefähr 1,6 Milliarden. In jedem Augenblick unseres Lebens nehmen wir also nur 10 Bit von den Billionen Informationseinheiten auf, die unsere Sinne tatsächlich für uns unbewusst wahrnehmen.
Trotzdem treffen wir Entscheidungen und gehen davon aus, wir würden diese autark, also im Vollbesitz unserer kognitiven Fähigkeiten, treffen [können].
Wenn wir von den weiter oben genannten 100 Milliarden Nervenzellen ausgehen, dann können wir schon die Frage stellen, warum das Gehirn nicht mehr davon für die bewusste Reflexion der Welt nutzt.
Denken ist ein linearer Prozess. Wir ordnen das Gedachte in unserem Gehirn nacheinander und nicht zeitgleich. Der Rest unseres Körpers kann alles zeitgleich!
Sehen, Riechen, Schmecken, Tasten und Hören sind hyperkomplexe und intrinsische Vorgänge. Grob gesagt vereinigen sie sich im Fühlen.
Unser Gehirn kann das nicht.
Stellen wir uns ein einfaches Brettspiel wie Backgammon vor. Menschen können sich die Spielzüge nur sequenziell, also nacheinander, vorstellen.
Wir denken nicht [zeitgleich] parallel!
Zumindest soweit wir wissen.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Gemeine-Welt-Syndrom
Für die ersten ca. 2,4 Millionen Jahre der Menschwerdung [2] machte das auch Sinn, da nahezu jede Handlung [2] auf Lebenserhaltung und potenzielle Verteidigung des eigenen Lebens oder der Leben in der Sippe ausgerichtet war.
Doch ähnlich wie der Schluckauf [2] ist dies heute nicht oder kaum mehr nötig.
Gleichzeitig ist diese Form der Weltwahrnehmung im Zusammenspiel mit hyperdynamischen Medien ein Problem und führt zu den beschriebenen Reflexen des Rückzugs.
Wir könnten auch von digitalen Schützengräben sprechen, in die sich manche zurückziehen, um sich keiner Gefahr, wie auch immer, auszusetzen.
Irreal und trotzdem realer Alltag vieler Menschen in unserer heutigen Medienkultur.
Der Kommunikationswissenschaftler George Gerbner, 1919 – 2005, hat im Jahr 1990 den Begriff des Gemeine-Welt-Syndrom der Fachwelt vorgestellt.
Kurz gesagt spekuliert der Begriff darüber, wie ein langer und täglicher Konsum negativer Botschaften [2] die menschliche Wahrnehmung und damit den Wertekanon des Menschen beeinflusst und ein Bild produziert, die Welt wäre im Prinzip schlecht und daher eher abzulehnen.
Wie immer sind Prognosen auch Spekulationen [2] [3]. Es muss nicht alles so kommen und den vermuteten Wirkgrad erreichen (positiv oder negativ) wie er möglich erscheint.
Da lohnt ein Blick zurück in Zeiten, die weit weg waren von heutigen Herausforderungen.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
E. M. Forster
Einer jener Vertreter, die in ihrer Zeit den Mut hatten, weit in die Zukunft zu blicken, war Archibald Low, 1888 – 1956.
Er hat das Radio bzw. den Podcast, Fernsehen bzw. Streaming im Grundsatz beschrieben, er sinnierte über automatische Telefone, die jedes Mal die richtige Nummer wählen, er sprach von schwebenden Fußwegen und von Überwachungskameras, die von der Polizei eingesetzt werden würden.
Ein anderer und – aus meiner Sicht – noch erstaunlicherer Visionär [2] [3] war E. M. Forster, 1879 – 1970.
In seinem schmalen Büchlein Die Maschine steht still aus dem Jahr 1909 beschrieb er in irritierend konkreter Weise unsere heutige Kultur im Umgang mit digitalen Medien (insbesondere. Social Media, Sales-Plattformen, Search Engines) und expandierte diese Vision sogar über die aktuellen Anwendungsrealitäten hinaus.
Vor allem aber beschreibt er eindringlich die psychologischen Auswirkungen auf Menschen.
Der Inhalt in Kurzform: Das Leben einer Frau, die wie alle Menschen isoliert in einer Art Untergrund lebt und eingebunden ist in ein System kommunikativer Mittel, welche einen einzigen Lebenszweck für sie definieren: Sie muss permanent neue Ideen produzieren und diese der Allgemeinheit zur Verfügung stellen. In der Abkapselung dieser Aktivität gerät der Sinn dieser Tätigkeit in einen auf seltsame Weise akzeptierten Hintergrund. Fast scheint es nachvollziehbar und richtig so.
Alle für ihren Körper lebenserhaltenden Mittel und Versorgungen werden ihr über ein verzweigtes System anonym zur Verfügung gestellt. Ihr Körper selbst ist nicht mehr in der Lage, sich selbst zu bewegen. Sie wird mit einer Art Rollstuhl automatisch bewegt, bis sie den Plan fasst, ihren Sohn zu finden…
Ein paar wenige Textauszüge, die vielleicht Lust zum Lesen machen:
Die Knöpfe und Schalter waren überall. Mit ihnen ließ sich Nahrung, Musik und Kleidung anfordern. Es gab einen Knopf für Warmbäder, (…) einen Knopf für Kaltbäder.
Es gab einen Knopf für Literatur. Und natürlich gab es jene Knöpfe, die es ihr ermöglichten,
mit ihren Freunden zu kommunizieren.
Als Nächstes betätigte sie wieder den Isolationsknopf, und die Anfragen der letzten drei
Minuten stürzten auf sie ein. Der Raum war vom Lärm der Klingeln und Kommunikationsröhren erfüllt.
Den meisten Fragen begegnete sie mit einer gewissen Gereiztheit, ein Wesenszug, der in
jenem beschleunigten Zeitalter um sich griff.
In jenen Tagen reiste man nur selten, denn aufgrund des Fortschritts sah die Erde überall
gleich aus.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Konstruktiv?
Mit einem Blick auf die Zielgerade dieses Textes will ich betonen: Es ist leicht, Veränderungen mit einer Portion Kritik zu begegnen. Auch wenn ich Kritiker und Kritisches beleuchtet habe, so ist mir eine förderliche, eine konstruktive Betrachtung der Potenziale mit neuen Technologien wesentlich näher.
Wichtig war mir die heute noch relativ unterbeleuchtete Betrachtung der psychologischen und sozialen Implikationen, die mit der Nutzung neuer digitaler Technologien bzw. der Künstlichen Intelligenz verbunden sind.
Diese Fragen prallen oft an den Matrixuntersuchungen vieler Studien bzw. der empirischen [2] Untersuchungen ab, da diese vorwiegend auf einer Auswertung grosser Mengen (quantitative Untersuchung) basieren und weniger auf der persönlichen Konfrontation, dem nahbaren Gespräch und damit einem qualitativen Ansatz [2].
Viele echte oder selbsternannte Vordenker der Künstlichen Intelligenz haben sich in unserer Gegenwart (2025) in einen Wettbewerb dystopischer Aussagen verstrickt und tatsächlich führen sie Argumente an, die nicht so einfach ignoriert werden können.
Das ist ein wissenschaftlich akzeptierter Vorgang.
Karl Popper, 1902 – 1994, hat in seinen Arbeiten unter dem Sammeltitel des Falsifikationismus dargelegt, dass eine Aussage [induktiv] nie abschliessend bewiesen, doch ggfs. wiederlegt werden kann.
Es wäre demnach nicht möglich, aus einer empirischen Beobachtung auf ein allgemeines Gesetz zu schliessen.
Die Beobachtung, dass im Frühjahr die Bäume grün werden, ist zwar in dem darauf folgenden Jahr höchst wahrscheinlich, absolute Sicherheit gibt es aber ebenso wenig wie die Hoffnung darauf, dass jeden Tag die Sonne aufgeht.
Vor und mit diesem Hintergrund sind Warnungen und Behauptungen ein zu akzeptierendes Mittel öffentlicher Äusserungen. Ob und wie diese dann tatsächlich eintreten… wer weiß?
Es liegt daher an der Wissenschaft bzw. den damit betrauten kompetenten Stellen, eine bestimmte Entwicklung zu beweisen und mit Fakten zu unterlegen.
Skeptiker haben es leichter. Deren Aussagen müssen nicht belegbar sein.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Artificial General Intelligence
Die Stanford Professorin Fei-Fei Li, * 1976, bleibt da gelassen, wenn sie als ausgewiesene Expertin für GenAI (Generative AI) in einem Interview sagt: I frankly do not know what AGI is … and I don’t spend much time thinking about these words because I think there are so much more important things to do.
(Ehrlich gesagt weiß ich nicht, was AGI (Artificial General Intelligence) ist … und ich verbringe nicht viel Zeit damit, über diese Worte nachzudenken, weil ich denke, dass es so viel wichtigere Dinge zu tun gibt).
Wenn sie das sagt, dann meint sie ein ganzheitliches und themenübergreifendes Weltwissen. Besser sollten wir von Welterfahrung sprechen. Vermutlich meint sie auch die menschliche und (irrationale) Empathiefähigkeit [2] sowie ein Bewusstsein [2], das zu so etwas Verrücktem wie Liebe oder Humor fähig ist.
Wenn wir alleine darüber nachdenken, wie viel Energie aktuelle KI-Systeme (ChatGBT, Gemini, Grog, Apple Intelligence und all die anderen) verbrauchen in Relation zu der Energie, mit welcher ein menschliches Gehirn sich vorstellen kann, wie es sich anfühlt, in ein paar Wochen am Strand zu liegen, über die vergangenen Jahre nachzudenken und sich ein Bild von der Zukunft in den kommenden Jahren zu machen, dann ist die Leistungsfähigkeit der Künstlichen Intelligenz geradezu dürftig.
Vor allem dann, wenn man sich erinnert und über so manche Episode des eigenen Lebens lachen kann.
Fei-Fei Li plädiert dafür, die Potenziale der Künstlichen Intelligenz stets im Verbund mit den grossen gesellschaftlichen und globalen Herausforderungen zu betrachten und entsprechende Entscheidungen zu treffen.
Weiter spricht sie sich dafür aus, das Thema Bildung [2] als zentrale Autorität zu verstehen, um den potenziell durchaus gefährlichen Aspekten der KI in unserer Zukunft begegnen zu können.
Zurück zu den Shortcuts ganz oben oder einfach hier weiter…
Gesunder Menschenverstand
Eine Bildung, die von Interdisziplinarität [2], von Empathiefähigkeit und einem gesunden Menschenverstand gekennzeichnet ist.
Ich würde zum Schluss aber noch lieber von einer transdisziplinären [2] Idee der Bildung und des Lernens sprechen und damit von einem Ansatz, bei dem jede und jeder willkommen ist, die oder der sich für ein Thema und für die Lösung eines Problems begeistern kann.
Vor allem dann, wenn die Lösung nicht von einem KI-Chatbot ausgespuckt werden kann.
Einfach darum, da man dafür den eigenen Blick in alle Richtungen lenken muss.
Ich halte es hier immer gerne mit Albert Einstein, 1879 – 1955 und einem seiner berühmtesten Zitate:
Eine wirklich gute Idee erkennt man daran, dass ihre Verwirklichung von vornherein ausgeschlossen erscheint.
Schön gesagt und irgendwie verrückt.
Für alle die gerne den ersten Teil lesen wollen: LERNEN_1 [basics]
Für alle, die gerne den zweiten Teil lesen wollen: LERNEN_2 [verwertung]
Für alle, die gerne den dritten Teil lesen wollen: LERNEN_3 [hände]
Für alle, die gerne den vierten Teil lesen wollen: LERNEN_4 [geschichte/n]
Für alle die gerne den fünften Teil lesen wollen: LERNEN_5 [prozesse]
Für alle, die gerne den sechsten Teil lesen wollen: LERNEN_6 [methoden?]
Für alle, die gerne den siebten Teil lesen wollen: LERNEN_7 [haltung!]
Für alle, die gerne den neunten Teil lesen wollen: LERNEN_9 [vision]
Für alle, die gerne den zehnten Teil lesen wollen: LERNEN_10 [post-vision] > folgt
Wer doch lieber auf Papier lesen möchte, findet hier das PDF. > folgt
Dieser Text entstand im Rahmen meines Forschungsprojektes mit dem Titel EDUCATION FUTURES im Sommersemester 2025. Hier die Erläuterungen zur Intention der Arbeit:
EDUCATION FUTURES
Transformation der Bildung und Anforderungen an neue Methoden.
Bildung gilt als die Währung der Zukunft und als zentraler Aspekt der verantwortlichen Gestaltung einer Welt von Morgen, deren Aufgaben exponentiell komplexer und zunehmend dynamischer werden.
Bildung generell und damit auch der Anspruch in Hochschulen orientiert sich an dem Ansatz vertikaler und inkrementeller Strukturen und der damit verbundenen Organisationen, während die Einflussfaktoren der Digitalität im Kern einer systemisch vernetzten und iterativen Logik folgen.
Wenn die gewohnten Aufgaben und Tätigkeitsfelder mit digitalen und automatisierten Routinen sowohl effizienter als auch variabler sowie die kommunikativen Anforderungen direkter erstellt werden können, dann drängt sich die Frage auf, was diese Entwicklung für das Zukunftsbild des Berufsfeldes Design und Kommunikation langfristig bedeutet.
Möglicherweise bedeutet dies, die Enge einer auf ein Fachgebiet konzentrierten Disziplinarität generell neu zu denken und Szenarien zu formulieren, in denen unterschiedliche Disziplinen agil und dynamisch ein gemeinsames Ziel zur Lösung eines Problems verfolgen.
Marvin Minski, einer der Gründerväter der Künstlichen Intelligenz, hat diesen Gedanken unter dem Begriff der Heterarchie zum Ausdruck gebracht. Ein Begriff, der auf einer Metaebene jede Struktur so variabel nutzt, damit ein iterativer Prozess eine hohe Qualität des Ergebnisses ermöglicht und das avisierte Ziel effizient erreicht.
Damit Bildung zu unserer Zukunft passt, brauchen wir neue Methoden, neue, auch radikale Ansätze sowie den Mut zur Spekulation und Improvisation, um den Aufgaben in unperfekten Welten gerecht zu werden.
Dies bedeutet vielleicht auch die Aufgabe grundlegender Überzeugungen, wie Wissen entsteht, wie Menschen ihr Potenzial entwickeln und wie eine inklusiv denkende Gemeinschaft zu einem kreativen Wettbewerb der besten Ideen zusammenkommt und sich von einem Maschinendenken löst, welches kreative und verantwortliche Lösungen nur mit dem Anspruch an Verdrängung und den kurzfristigen ökonomischen Erfolg verbindet.
Der zweite Teil der Forschungsarbeit bestand in der Ausarbeitung verschiedener Glossare mit dem Ziel, Methoden für die konkrete Anwendung in der Bildung nachvollziehbar zu beschreiben.
Methodenglossar_1 [kommunikation + design]
Methodenglossar_2 [innovation + workshop]
Methodenglossar_3 [debatte + diskurs]
© Carl Frech, 2025
Die Nutzung dieses Textes ist wie folgt möglich:
01 Bei Textauszügen in Ausschnitten, zum Beispiel als Zitate (unter einem Zitat verstehe ich einen Satz oder ein, maximal zwei Abschnitte), bitte immer als Quelle meinen Namen nennen. Dafür ist keine Anfrage bei mir notwendig.
02 Wenn ein Text komplett und ohne jede Form einer kommerziellen Nutzung verwendet wird, bitte immer bei mir per Mail anfragen. In der Regel antworte ich innerhalb von maximal 48 Stunden.
03 Wenn ein Text in Ausschnitten oder komplett für eine kommerzielle Nutzung verwendet werden soll, bitte in jedem Fall mit mir Kontakt (per Mail) aufnehmen. Ob in diesem Fall ein Honorar bezahlt werden muss, kann dann besprochen und geklärt werden.
Ich setze in jedem Fall auf Eure / Ihre Aufrichtigkeit.