Vor knapp 20 Jahren wurde Interaktivität durch Permaaktivität im Taschenformat abgelöst. Nun ändert sich noch einmal alles. Die Systeme bleiben unter sich.
Essenz dieses Textes: Wir erleben möglicherweise weltweit einen Paradigmawechsel in der Entwicklung kommunikativer Medien und der damit verbundener Systeme. Ich spekuliere in diesem Text über die Relevanz der Künstlichen Intelligenz bzw. der damit verbundenen Herausforderungen und Gefahren.
Der Titel SUPRAACTIVITY versucht in einem Kunstbegriff die Entwicklung prägnant auszudrücken.
Vielleicht können wir aktuell den ersten Augenblick in der Geschichte der Menschheit erleben, dass ein von Menschen geschaffenes Werkzeug sich von der Menschheit löst und eine Art Eigenleben beginnt. Oder mit den Worten von Geoffrey Hinton, einem der KI-Pioniere, auf die Frage, ob wir mit Blick auf die Entwicklung der Künstlichen Intelligenz Sorge haben sollten:
Es wäre das erste Mal in der Evolution, dass eine höhere Intelligenz von einer niedrigeren beherrscht werden würde.
Wer mehr und umfassender zu diesem Thema lesen möchte, hier bitte:
Wir sind umgeben von Medien [2] [3]. Permanent könnten wir etwas in unser Leben lassen, könnten uns mit etwas beschäftigen und dadurch Bedeutung geben. Die Entwicklung der Typen dieser Medien ist so alt wie die Menschheit. Doch so weit zurück wollen wir nicht schauen.
Passive Medien sind zum Beispiel Plakate an Wänden, die über eine Veranstaltung informieren, ein Aufkleber, der eindeutig klärt, welche Türe zur richtigen Toilette führt, oder ein Schild, das definiert: In diese Strasse darf ich nicht fahren.
Das Medium wirkt nur in eine Richtung (unidirektional). Man kann es wahrnehmen oder nicht. Man kann danach handeln oder nicht. Eine Aktivität ist möglich, aber die Akteure müssen nicht aktiv werden.
Die Übergänge sind fliessend.
Aktive Medien unterscheiden sich davon. Ein Lichtschalter, eine Fernsteuerung und auch eine Anzeige, die über einen aktuellen Zug informiert, der als nächster auf einem bestimmten Bahnsteig erreichbar ist, sind schon komplexer.
Entweder die Person, die damit einen Vorteil haben kann, muss aktiv werden, sie drückt auf den Schalter und das Licht geht an, oder sie orientiert sich an einer dynamischen Information und kann den gewünschten Zug noch erreichen. Diese Medientypen sind überwiegend bidirektional. Lassen wir mal die Zuganzeige aussen vor, wobei der Einstieg in den Zug das Kriterium der Aktivität in zwei Richtungen in gewisser Weise wieder erfüllt.
Interaktive Medien sind bi- bzw. polidirektional. Je nach Komplexität der Nutzung. Normalerweise würden wir einen Computer so einordnen. Die Komplexität der Interaktivität ist graduell, je nachdem, welche Interessen damit verfolgt werden. Wichtiger noch, welche Interessen durch das Programm des Systems verfolgt werden können.
Der amerikanische Informatiker Andy Lippmann hat dazu in den 1970er Jahren bis heute gültige Grundregeln definiert. Lassen wir das mal so stehen.
Permaktive Medien kennen und nutzen wir im Grunde seit Beginn der 2000er Jahre (im Prinzip schon beginnend mit der Nutzung von Mobiltelefonen). Kurz gesagt ist die Nutzung dieser Medien permanent, da wir nicht zwingend aktiv werden müssen, um poly- bzw. multidirektional mit einem System in Kontakt zu bleiben. Und selbst wenn wir unser Smartphone (davon spreche ich) ausschalten und nie wieder einschalten würden, so sind wir in unserem sozialen Umfeld Teil der [digitalen] Aktivitäten vieler Menschen, die das eben nicht tun und wir der digitalen Aura über uns nicht entfliehen können.
Wir könnten es auch Digitop nennen (in Anlehnung an ein Biotop oder ein Soziotop).
Die Bezeichnung Permaktivität (Kunstbegriff von mir) und das Konzept dazu habe ich zum ersten Mal im Jahr 2005 formuliert. Mehr dazu unter PERMAACTIVITY.
Supraaktive Medien sind auch ein Kunstbegriff. Wie in der Einleitung geschrieben, die Systeme bleiben unter sich. Es spielt nur noch bedingt eine Rolle, ob wir daran teilnehmen. Provokativ könnte man sagen: Die Systeme versorgen uns mit dem, was sie für relevant erachten. Darum kreisen meine Gedanken im Weiteren.
Es gibt in der Natur viele Phänomene. Wobei die Natur – wenn sie uns davon erzählen könnte – dies vermutlich nicht so bezeichnen würde.
Ein Vogelschwarm versteht es auf magische Weise, zum gleichen Zeitpunkt die Richtung zu wechseln. Wenn auch nur innerhalb der Einschränkungen unserer Wahrnehmung.
Würden wir einen einzelnen Vogel aus diesem Schwarm fragen, wie er das macht, bekämen wir vermutlich keine Antwort.
Menschen versuchen seit jeher, eine möglichst korrekte Vorhersage [2] [3] des Wetters treffen zu können. Die Abhängigkeit von der Natur war über die gesamte Geschichte der Menschheit immanent, also ein den Dingen oder der Vorstellung darüber innewohnendes Ereignis bzw. eine damit verbundene Anforderung.
Es regnet vermutlich, wenn die Wolken so aussehen und der Wind aus dieser Richtung kommt. Das war schon immer so. So habe ich es gelernt. Vor allem aber:
Warum sollte es Morgen anders sein?
Sollte es einmal anders sein, dann gehen wir gerne von einer Einmaligkeit aus und nennen dies eine Laune der Natur. Oder wir bezeichnen es als Zufall. Schlicht darum, da es ja nie oder nur selten davor so war.
In der Meteorologie spricht man etwas abstrakt von einer Singularität [2] [3] [4] und meint damit zwar ein extremes Wetterereignis, welches so nie oder eben nur selten auftritt, im kumulierten Vergleich zum ganzen Jahr könne man dies jedoch vernachlässigen. Es wäre nicht relevant.
Menschen gehen gerne davon aus, der Boden unter uns würde uns immer tragen, auch wenn wir ab und zu in kleine Löcher treten. Das Problem entsteht erst über die Häufigkeit der Abweichungen vom Gewohnten bzw. der Norm.
Mit dem Wissen um die einzelnen Faktoren, wie Wetter tatsächlich entsteht (wir könnten auch von Informationen sprechen), erhalten wir auf der einen Seite eine gewisse Sicherheit bzw. die Vorstellung einer verwertbaren Voraussage, wie das Wetter morgen wird, oder übermorgen, vielleicht auch in der nächsten Woche und – wenn auch zunehmend unsicherer – danach.
Ein technisch komplexer Vorgang. Vor allem eine Perspektive, die uns Menschen leicht überfordert.
Doch es gibt auch die andere Seite. Mit steigender Komplexität unseres Wissens über die Möglichkeiten ergibt sich eine zunehmende Unsicherheit gegenüber den tatsächlichen Folgen, da auch die Komplexität potenzieller und damit möglicherweise relevanter Erwartungen [2] [3] zunimmt.
Schliesslich könnte es auch so und damit anders kommen.
Mit anderen Worten: Das Bedürfnis zur Kontrolle steigt mit den dafür verbundenen Gelegenheiten zur Kontrolle selbst. Denn Kontrolle ist das ungeliebte und doch in banger Abhängigkeit verbundene Geschwister der Unsicherheit.
Wie sollte es auch anders sein? Wir sprechen über Menschen und deren einzigartige Wahrnehmung.
Der singuläre Blick jedes Einzelnen wird exakter, die Abweichungen von dem Bekannten häufen sich, die möglichen Gefahren nehmen zu. Nochmal in einem Leitsatz:
Unser Kontrollbedürfnis steigt mit den Gelegenheiten zur Kontrolle selbst.
Wie bei dem Blick in ein Regal unendlicher Varianten vermeiden wir eine Entscheidung, da die Menge der Möglichkeiten den Blick verstellt.
Am 22. und 23. August im Jahr 79 nach Christus bebte in Pompeji die Erde. Im Prinzip kannten die ca. 20 000 Bewohnerinnen und Bewohner der Stadt dieses Phänomen, wenn auch nicht dieser Stärke.
Wie der Wellengang im Meer vor den Toren der Stadt; wie der Regen, der in regelmäßigen Abständen die Zisternen der Stadt füllte, so gab es ab und zu ein Schwanken der Erde.
Diesmal war es anders.
Die Wasserleitungen brachen und es bildeten sich tiefe Risse in den Häusern. Möbel knarrten über den Steinboden, Geschirr fiel und zerbrach. So etwas hatten die Bewohner der Stadt noch nicht erlebt.
Das Problem war: Die Menschen wussten nicht, dass sie am Fuss eines Vulkans ihre Stadt erbauten. Sie wussten nicht einmal, was ein Vulkan war, und hatten keine Vorstellung, was ein Vulkanausbruch bedeuten könnte.
Sie hatten keine Erfahrung.
So deuteten sie die Zeichen zwar mit Sorge, aber mit der naiven Interpretation, alles würde sich wieder beruhigen. Sie blieben erst einmal in der Stadt.
Am 24. August zwischen vier Uhr morgens und 13 Uhr am frühen Nachmittag stieg das Magma in dem Vulkan so hoch, dass es auf das darin befindliche Grundwasser traf. Dies führte zu einer Wasserdampfexplosion, welche den Druck des Magmas eliminierte, doch durch die darin gelösten Gase unmittelbar eine viel grössere Explosion auslöste. Am Nachmittag entstand eine ca. 30 Kilometer hohe Gas-/Aschesäule, die zu extremen Gewittern führte und in der Folge zu einem Regen aus Asche und Bims führte.
Erst jetzt, an diesem Nachmittag, begannen die Menschen in Pompeji zu fliehen. Es ist bis heute nicht geklärt, wie vielen dies gelang.
Aus der heutigen Sicht und mit dem heutigen Wissen würde man leicht behaupten, die Zeichen waren doch eindeutig und es wäre doch folgerichtig gewesen, diese deuten zu können.
Aus der Perspektive der Menschen in jener Zeit fehlten jedoch sowohl die Informationen und damit Vergleichsparameter [2] als auch Erfahrungen aus anderen Lebensbereichen und damit die Anwendbarkeit von Mustern bzw. die Nutzung einer Übertragungsebene auf die aktuelle Herausforderung.
Heute sind wir natürlich [vermeintlich] viel schlauer. Viele Probleme erkennen wir leicht, da diese im Umfeld bekannter Probleme liegen.
Im Umkehrschluss könnten wir natürlich auch feststellen und damit wahrnehmen: Lösungen lägen im Umfeld anderer Lösungen und würden damit verstehen, was wir daraus lernen [2] dürfen.
Doch das ist ein anderes Thema.
Das nach David Collingridge, 1945 – 2005, benannte Collingridge-Dilemma beschreibt ein kaum lösbares Problem. In unserer exponentiell komplexer werdenden Welt technologischer Transformationen wird die Vorhersehbarkeit potenzieller Gefahren, welche sich aus einer neuen Technologie entwickeln können, erst dann einschätzbar, wenn diese Technologie so weit entwickelt ist bzw. integrierter Teil sozialer Aktivitäten wurde, dass eine Rückabwicklung nicht mehr möglich erscheint oder nur mit einem wirtschaftlich nicht vertretbaren Aufwand.
Man nennt dies auch Technikfolgenabschätzung und, in Bezug auf die möglichen Fallen für Menschen, die mit diesen Transformationen Entscheidungen treffen müssen, eine sogenannte Doppelbindungstheorie [2] (double bind).
Ein relativ komplexes Thema aus der Anthropologie bzw. Psychologie. Entwickelt wurde diese hypothetische [2] Theorie von einer Gruppe um Gregory Bateson [2], 1904 – 1980. Ich versuche, es kurz zu machen bzw. auf die Kernaussagen einzugrenzen.
Wir könnten sagen: Eine Doppelbindung, im psychologischen Sinn, entsteht dann, wenn es für einen Menschen ausweglos erscheint, eine befriedigende Lösung treffen zu können oder die konkrete Erfahrung einzuordnen.
Nehmen wir ein einfaches Beispiel: Eltern verabschieden ihr Kind auf dem Weg zum Spielplatz. Es regnete, daher ist der Boden feucht und teilweise matschig. Beim Abschied sagen sie: Hab viel Spass, tob dich aus, aber schau, dass du nicht dreckig wirst.
Das Kind befindet sich damit in einer mehr oder weniger ausweglosen Situation. Entweder es hat keinen Spass und erfüllt damit den ersten Teil des Satzes nicht. Oder es hat Spass und enttäuscht die Eltern, da die Aufforderung nach sauberer Kleidung damit nicht erfüllbar ist.
Schon klar, das ist ein schlichtes Beispiel und man könnte sagen, nicht so schlimm. Da muss das Kind halt durch. Von Friedrich Nietsche, 1844 – 1900, stammt der Glaubenssatz: Was dich nicht umbringt, macht dich stärker.
Diese Position versteckt sich auch in der vermeintlichen Chance, die aus Krisen erwächst. Das Problem ist nur, dass man Menschen vor der Krise kaum befragen kann, da sie ja dann versuchen würden, diese Erfahrung nicht machen zu müssen.
Es gibt vieles im Leben, was man unter der Prämisse der Erfahrungen, die man eben machen müsse, ablegen kann. Trotzdem sprechen wir hier von einem Paradox, von Diskrepanz und von fehlender Transparenz.
Gregory Bateson spricht von einer Lose/Lose-Situation. Egal welche Entscheidung getroffen wird, es scheint, es ist immer die falsche.
Bateson spekulierte darüber, diese Form kommunikativer Muster führe zu einem schizophrenen Verhalten der betroffenen Personen. Einer seiner Schüler, Paul Watzlawik, 1921 – 2007, präzisierte jedoch, diese kommunikativen Anomalien könnten Schizophrenie begünstigen, wären jedoch keine zwingende Folge. Soweit so gut.
Letztlich sprechen wir, wie in dem Beispiel der Menschen in Pompeji angedeutet, von der Herausforderung, äussere Signale und Botschaften zu entschlüsseln. Denn eine Fehlinterpretation könnte schwerwiegende Folgen haben.
Der Blick auf die kleinen Episoden, welche Kinder in ihrem Alltag permanent entschlüsseln müssen, verführt Erwachsene vermutlich zur Hybris vielfacher Fehleinschätzungen.
Die Kinder erleben eher einen Alltag zwischen den Rahmenbedingungen der hierarchisch übergeordneten Eltern und der diffusen Ahnung, über diesen Eltern gäbe es noch weitere Regeln, Gesetze und Kriterien für richtiges Verhalten, wovon wiederum die Eltern selbst abhängen, sowie dem permanenten Abgleich mit dem eigenen [kindlichen] Tun. Schliesslich ist die Abhängigkeit von dem sozialen Umfeld nahezu absolut.
Man spricht hier auch von Metakommunikation und damit einer Theorie, welche erstmals von Wolfgang Metzger, 1899 – 1979, im Rahmen seiner Arbeit rund um die Gestaltpsychologie formuliert wurde. Diese versucht, die unterschiedlichen Ebenen eines kommunikativen Prozesses, welcher von den an diesem Vorgang teilnehmenden Personen dechiffriert werden muss, transparent zu machen.
Nehmen wir noch ein einfaches Beispiel. Zwei Fahrradfahrer [2] [3] [4] [5] [6] [7] fahren durch einen Park. Die eine Person sagt zu der anderen: Vorsicht, da vorne liegt viel Laub auf dem Weg.
Nun lassen sich mindestens vier Aspekte dieser Aussage unterscheiden:
1. Das Laub liegt tatsächlich dort, es kann von beiden gesehen werden (Fakten).
2. Die Aussage bedeutet, die Person, welche die andere auf das Laub hinweist, kann vermutlich einschätzen, es könnte gefährlich werden, über dieses Laub zu fahren (Kompetenz).
3. Die beiden Personen kennen sich und man darf vermuten, dass die eine der anderen Person einen mehr oder weniger sinnvollen Hinweis geben möchte (Beziehung).
4. Die Person, die auf das Laub hingewiesen wird, bekommt damit einen [indirekten] Hinweis, doch besser einen Bogen zu fahren, damit sie sich nicht in Gefahr bringt (Hinweis).
Ein wenig Laub auf dem Boden ist natürlich keine grosse Sache. Was soll schon gross passieren? Bei steigender Komplexität aller Faktoren bzw. der damit verbundenen Einflüsse auf dieselben sieht die Welt schon anders aus.
Wenn die Komplexität für einen einzelnen Menschen zu gross wird, kann man darüber spekulieren, die Person würde sich entweder zurückziehen, also sich aus dem Staub machen (eine Redewendung aus historischem Kriegsgeschehen – Soldaten machten sich im aufgewirbelten Staub der Schlacht davon) oder die Lösung des zu grossen Problems lieber einer anderen Instanz überlassen.
Mit dem Blick auf eine gewisse Demokratiemüdigkeit in unserer aktuellen Gegenwart entsteht dabei ein leicht mulmiges Gefühl.
Wir nähern uns ein wenig dem zentralen Punkt dessen, was mich zu diesem Text motiviert hat.
Ich spekulierte weiter oben über die Kompetenz eines Vogelschwarms und das Phänomen in unserer Wahrnehmung: Alle Vögel würden gleichzeitig in die eine und dann wieder in eine andere Richtung fliegen.
Der Begriff Emergenz ist aus dem lateinischen emergere abgeleitet und bedeutet unter anderem emporsteigen. Etwas erhebt sich über das Andere.
Wobei das Neue, also das, was auf dieser höheren Ebene entsteht, nicht direkt aus den darunter liegenden Elementen ablesbar ist. Man könnte auch sagen, es ist nicht [wenigstens nicht offensichtlich] in dem Potenzial der Einzelteile angelegt. Trotzdem emergiert es aus dem Zusammenspiel zu einer höheren Lösung bzw. Leistung.
Aristoteles, 384 v. Chr. – 322 v. Chr., prägte den bekannten [Glaubens-] Satz:
Das Ganze ist mehr als die Summe seiner Teile
Aristoteles
In einer gedanklichen – eher sollte ich von einer provokativen Abwandlung sprechen, könnte man auch sagen (siehe dazu auch den Text HOLISMUS):
Das Einzelne ist mehr als seine Bestimmung für das Ganze.
Oder und mit dem Fokus auf die Intention dieses Textes:
Das Einzelne ist weniger als seine Bestimmung für das Ganze.
Ja, ein ziemlich komplexes Thema. Hier interessieren uns nur einige wenige Aspekte.
Das Bewusstsein des Menschen befindet sich nicht in einer Nervenzelle bzw. der Synapse im Gehirn dieses Menschen. Eine Ameise ist zwar ein kleines Wunderwerk der Natur, sie hat jedoch sicher nicht die Intelligenz eines Ameisenvolkes. Vor allem könnte sie diese Intelligenz kaum erfassen noch erklären.
Ein Atom (vom griechischen átomos abgeleitet: das Unteilbare) hat mit dem, was aus diesem Atom möglich ist, nur bedingt etwas zu tun.
Mit Bedingtheit meine ich, dass ein bestimmter Zustand nur unter bestimmten Voraussetzungen eintritt. Heute sind 118 Atome (Elemente) bekannt, wobei nur 90 auf unserem Planeten natürlich vorkommen. Jedes Atom ist Teil einer festen, flüssigen oder gasförmigen Struktur bzw. eines Stoffes. Licht wiederum entsteht durch Energiesprünge der Elektronen in der Hülle von Atomen.
Ein Atom besteht aus einem Kern, den [elektrisch positiv geladenen] Protonen und den [elektrisch negativen] Neutronen. Die Hülle wird von [negativ geladenen] Elektronen umkreist. Zwischen dem Kern und der Hülle existiert nichts. Der Atomkern wiegt mehr als 99,9 Prozent der Masse des Atoms.
Die Proportion von einem Atom zu einer menschlichen Körperzelle entspricht etwa der Körpermasse des Menschen selbst und der Masse unseres Planeten.
Nach heutigem Wissen bestehen nur ca. 4,9 Prozent des Universums aus Atomen, der Rest ist [spekulativ] dunkle Energie bzw. dunkle Materie. Jedoch besteht eine Körperzelle eines Menschen aus ca. 1.000 mal mehr Atomen als es Sterne im System [2] [3] [4] der Milchstrasse gibt.
Wirklich unübersichtlich wird es, da auch die Teile eines Atoms aus noch kleineren Elementen, den Quarks, bestehen. Soweit heute bekannt. Und weitgehend Schulwissen. Warum ist das wichtig?
Am 26. April 1986 um 1:23 Uhr ereignete sich die Nuklearkatastrophe von Tschernobyl. Erst 36 Stunden später begann man, die 49.000 Menschen der nur drei Kilometer entfernten Stadt Pripjat zu evakuieren. Fünf Tage später, am 02. Mai, begann die Evakuierung der Einwohner von Tschernobyl.
Die Katastrophe konnte man [anders als in Pompeji] nicht sehen, nicht hören, nicht riechen und nicht fühlen.
Es gab jedoch Menschen, die vor dem Hintergrund ihres Wissens ziemlich sicher waren: Diese Katastrophe sollte ernst genommen werden. Doch sie waren eingebunden in gesellschaftliche Strukturen bzw. Hierarchien. Erst sehr viel später und eine von Machtverlust getriebene Politik traf die nötigen Entscheidungen unter dem Druck der Weltöffentlichkeit.
Ich schrieb weiter oben: Das Neue, das, was auf einer höheren Ebene entsteht, wäre nicht direkt aus den darunter liegenden Elementen ablesbar. Es wäre nicht unmittelbar in dem Potenzial seiner Einzelteile angelegt, doch es bestünde die Möglichkeit, es könne durch ein grösseres Zusammenspiel zu einer höheren Leistung emergieren. Wir könnten auch von einer höheren Lösung sprechen.
Konrad Lorenz, 1903 – 1989, war mit dem Begriff Emergenz nicht einverstanden, da, aus seiner Sicht, dieser suggerieren würde, die Anlage für das Grössere läge schon in den kleineren Elementen darunter. Ich vermute, er meinte damit die Folgerichtigkeit, welche ablesbar wäre, wenn man alle Informationen hätte und diese nur richtig deuten müsste.
Man kann dabei an den Laplacescher Dämon denken. In kurzen Worten stellte Pierre-Simon Laplace, 1749 – 1827, die These auf, man könne unter der Kenntnis sämtlicher Naturgesetze eine Weltformel definieren und damit jeden vergangenen und vor allem jeden zukünftigen Zustand auf diesem Planeten errechnen.
Aus heutiger Sicht wird die Absurdität dieses Gedankens auch mit wenig Bildung [2] schnell offensichtlich. In seiner Zeit und unter dem Einfluss des Glaubens an den Mechanizismus ist besser vorstellbar, wie diese Hybris entstehen konnte.
Wir wissen heute um die Begrenztheit dessen, wie Voraussagen getroffen werden. Die Heuristik [2] geht davon aus, es wären immer begrenzte Informationen [2], aus denen etwas entsteht bzw. eine [bewusste] Entscheidung getroffen werden kann.
Wie gesagt, Konrad Lorenz stand der etwas deterministischen Sichtweise, die mit der Emergenz verbunden zu sein schien, kritisch gegenüber. Er verwandte in Abgrenzung zur Emergenz den Begriff Fulguration, nicht zuletzt in Bezug auf den schon zitierten Leitsatz von Aristoteles, 384 v. Chr. – 322 v. Chr.: Das Ganze ist mehr als die Summe seiner Teile.
Das lateinische fulgur bedeutet Blitz. Lorenz beschrieb damit das plötzliche Entstehen einer bedeutenden Eigenschaft aus einem komplexen System. Aus der Betrachtung und Kenntnis einzelner Elemente wäre eine exakte Lesbarkeit der Eigenschaften einzelner Teile eines Systems nicht möglich. Man müsse daher die Resultate akzeptieren, welche entstehen können, da die Komplexität einer fundierten Einschätzung im Wege stünde. Eigentlich könnte dafür nur eine Gottheit infrage kommen.
Vergleichbar unpräzise wie der Determinismus im Zusammenspiel mit Emergenz könnte man hier von Interterminismus sprechen, da eher der Zufall bemüht wird, um das Ausserordentliche irgendwie [im Nachgang] erklären zu können. Wir nähern uns langsam dem Kerngedanken, was mir in diesem Text wichtig ist.
Geoffrey Hinton, * 1947, ein britisch-kanadischer Informatiker und Kognitionspsychologe, wird in Fachkreisen auch gerne Godfather of AI (KI – Künstliche Intelligenz [2] [3]) genannt. Wobei man hier sicher noch andere Pionierinnen und Pioniere nennen könnte.
Hinton hat mit John Hopfield, * 1933, im Jahr 2024 den Nobelpreis für Physik für ihre Arbeit zum Thema maschinelles Lernen über neuronale Netze [2] [3] erhalten.
Richard Socher, * 1883, ein deutscher Informatiker, sagt: KI funktioniert immer dann, wenn es ein eindeutiges Ziel gibt und das System daraufhin trainiert wird. Nur der Mensch kann selbstständig seine Zielfunktion verändern.
Yann LeCun, * 1960, französischer Informatiker, sagt: Zur Zeit fehlt es auch den derzeit intelligentesten Maschinen an einer entscheidenden Fähigkeit: dem allgemeinen Verständnis, wie die Welt funktioniert und welche Konsequenzen ihre Aktionen auslösen. Wir könnten hier von einer Art Weltwissen sprechen.
Er sagt aber auch: Wenn eine Maschine vorhersagen kann, welche Abfolge ihrer Aktionen eine Zielvorstellung erfüllen oder enttäuschen wird, versteht sie auch das Konzept der Emotion.
Marvin Minsky, 1927 – 2016, amerikanischer Forscher und einer der Namensgeber zum Thema der Künstlichen Intelligenz, sagt: No computer has ever been designed that is ever aware of what it’s doing; but most of the time, we aren’t either.
Zurück zu Geoffrey Hinton. Im Zusammenhang der Verleihung des Nobelpreises warnte er eindrücklich: Wir haben keine Erfahrungen darin, dass Dinge klüger sein können als wir. … Das könne fantastisch sein, etwa in der Medizin. Aber wir müssen uns auf negative Auswirkungen gefasst machen, dass diese Dinge außer Kontrolle geraten.
In einem anderen Interview Anfang der 2020er Jahre sagte Hinton sinngemäß auf die Frage, ob wir mit Blick auf die Entwicklung der Künstlichen Intelligenz Sorge haben sollten: Es wäre das erste Mal in der Evolution, dass eine höhere Intelligenz [2] [3] von einer niedrigeren beherrscht werden würde.
Noch einmal, da dieses Zitat von Geoffrey Hinton der Auslöser zu diesem Text war:
Es wäre das erste Mal in der Evolution, dass eine höhere Intelligenz von einer niedrigeren beherrscht werden würde.
Geoffrey Hinton
Wir sprachen weiter oben über Emergenz und Fulguration. Der chilenische Biologe und Philosoph Humberto R. Maturana, 1928 – 2021, prägte den Begriff Autopoiesis. Ich versuche es kurz zu machen: Die Autopoiesis meint die Selbsterschaffung eines Systems. Anders ausgedrückt: Das System kümmert sich mit allen Mitteln um den Selbsterhalt. Wobei der Selbsterhalt wichtiger ist als die Mittel dazu.
Bei diesem rekursiven Prozess geht es nicht um die Elemente (Teile), die zur Selbsterhaltung beitragen, sondern das Produkt ist der Prozess selbst bzw. die Organisation aller Aktivitäten, die zum Überleben der relevanten Idee auf einer höheren Ebene beitragen.
Kommt uns das bekannt vor?
Menschen wie alle anderen Säugetiere funktionieren so. Jeder lebende Organismus [2] versucht, die eigene Existenz im Grundsatz zu verteidigen. Mit einem brachialen Beispiel: Wer würde sich nicht von einem Arm trennen oder auch von anderen Teilen des eigenen Körpers, wenn damit die Erhaltung der bewussten, vor allem die Kontrolle über die eigene Existenz gesichert bliebe? Zumindest bis zu dem Grad dessen, was wir als lebenswert bezeichnen würden.
Ein schwieriger Begriff, und überhaupt, das klingt alles eher unerfreulich.
Maturana und sein chilenischer Kollege Francisco J. Varela, 1946 – 2001, gehen jedoch noch weiter, wenn sie sagen, dass alle [biologischen] Organismen (Systeme) zwar Substanzen aus der Umwelt in sich aufnehmen, diese dabei jedoch sofort in verwertbare Baustoffe umwandeln. Substanzen dagegen, die für die Selbstreproduktion des Organismus keine Bedeutung haben, werden vom Organismus ignoriert (Wikipedia).
Mit anderen Worten: Es geht gar nicht um die Reflexion (Chance), ob diese Teile (Baustoffe) relevant sind. All das passiert viel früher und mit der Umwandlung in die Verwertbarkeit. Wenn nicht, dann eben nicht. Das Produkt ist der Prozess. Das Ignorieren ist Teil der Organisation aller Aktivitäten.
Diese nur als knappe Erläuterung zur Autopoiesis.
Die Autopoiesis findet allerdings auch ihren Niederschlag in der Systemtheorie. Einfach und sehr reduziert ausgedrückt bezeichnet die Systemtheorie nahezu alle Bereiche belebter bzw. aktiver Zustände auf diesem [und vielleicht weiteren] Planeten als System.
Einer der Hauptvertreter ist Niklas Luhmann, 1927 – 1998. Nach seiner Theorie ist jede Gesellschaft nur als System zu verstehen, welches die eigene Existenz, alle damit verbundenen Regeln und folglich auch die Grenzen sowie jede Form gemeinsamer Wirkmächtigkeit ausschliesslich über Kommunikation regelt und steuert.
Kommunikation ist für Luhmann eine Art Botenstoff supra-transzendaler Prozesse in einer Gesellschaft. Das klingt superkompliziert, beschreibt jedoch – wenn man sich einen Moment zum Nachdenken nimmt – relativ exakt den Ansatz der Systemtheorie, wie Niklas Luhmann sie vertritt.
Wir lassen auch das mal hier so stehen.
Wer mag, kann zu dem Thema auch unter dem Begriff des Radikalen Konstruktivismus weiterlesen.
Dieser Text beschäftigt sich mit mehr oder weniger aktiven Medien. Zu Beginn habe ich kurz meine Theorie bzw. Gedanken zu permaaktiven Medien (in Abgrenzung zu interaktiven Medien) beschrieben. Jeder neue Medientyp, vorwiegend seit den 1970er Jahren, hat die damit verbundene Relevanz der dahinter, wir sollten vielleicht besser sagen, der darüber aktiven Systeme exponentiell gesteigert.
Es scheint, unsere Gegenwart könnte als Prozess einer intermedialen Zellteilung wahrgenommen werden. Das System löst sich vom Medium und genügt sich selbst (als System) bzw. dem systemischen Algorithmus, welcher nur ein Ziel hat: ein Ziel zu erreichen!
Aufgepasst! Der zentrale Satz ist: Das System löst sich vom Medium!
Ray Kurzweil, * 1948, spekuliert in seinem Buch The Singularity is Near über die Verschmelzung von Mensch und Maschine. Ich bin da nicht so sicher. Vielleicht will sich die Maschine gar nicht mit uns verschmelzen.
Vielleicht ist es das erste Mal in der Geschichte der Menschheit [2], dass sich ein von Menschen geschaffenes Werkzeug von der Menschheit löst und eine Art des Eigenlebens beginnt. Wobei diese sehr menschliche Beschreibung für Künstliche Intelligenz (davon sprechen wir) vermutlich wenig förderlich ist. Wichtiger ist die Frage:
Was passiert, wenn sich die Systeme selbst programmieren und durch diesen Prozess ursprüngliche Ziele variieren, vielleicht sogar neue Ziele formulieren können? Sollten wir sagen: Wollen?
Es wäre nicht das erste Mal auf diesem Planeten, dass sich eine Spezies in dem Glauben verirrt hat, es würde die eigene Existenz nicht betreffen. Ich meine mit Glauben hier eine auf Erfahrung basierende Erwartung bzw. Hoffnung. Der spirituelle Glauben ist vermutlich eine einzigartige Idee der Menschheit.
Natürlich und zwingend zu beachten sind die individuellen Bezugsgrössen bzw. die Bezugsrahmen. Bei uns Menschen wäre dies zum Beispiel die durchschnittliche Lebenserwartung oder der Radius dessen, was wir in diesem Zeitraum auf diesem Planeten erreichen können. Sowohl räumlich als auch in Relation zu unseren inhaltlichen Zielen.
Die Bezugsgrössen und Bezugsrahmen eines Systems der Künstlichen Intelligenz sind im Grundsatz anders. Warum sollte die Lebenserwartung eine Rolle spielen? Warum die Grenzen dieses Planeten? Um welche Fragen es auch immer geht.
Wir verstehen ja auch nicht wirklich, dass die Natur, könnte sie zu uns sprechen, eine vollkommen andere Perspektive auf all unsere [vergleichsweise kleinen] Fragen und Themen hat, die uns während der Spanne unseres Lebens beschäftigen. Was sind schon eine Million Jahre?
Was aber ist die Perspektive eines Systems, das sich selbst generiert bzw. das über einen komplett anderen Horizont zu all den Fragen, Themen und Inhalten verfügt, die der Homo sapiens im Zeitraum seines Wirkens auf dieser Erde angesammelt hat?
Sind wir wirklich so beschränkt in unserer Vorstellungskraft, dass wir nicht erkennen, welche ungeheure Weit- und Einsicht hier möglich sein könnte?
Wir hören immer wieder die Aussagen von Astronautinnen und Astronauten nach deren Rückkehr auf die Erde. Wir hören, wie viel besser man unsere Welt aus der Entfernung des Weltraums versteht. Einer Welt, welche nur die Grenzen gezeichnet durch die Natur und die Atmosphäre sichtbar werden lässt.
Wie sehr viel klarer man erkennt und aus der friedlichen Distanz besser versteht, was getan werden sollte, damit die Probleme auf diesem Planeten kleiner und lösbarer erscheinen.
Wir hören dies kauernd in einer romantischen Ecke unseres Bewusstseins und verbinden das Gehörte mit einer kleinen Hoffnung auf eine bessere Welt.
Stanley Kubrick, 1928 – 1999, vielleicht einer der genialsten Filmschaffenden, lässt seinen Protagonisten, einen Astronaut, in dem Film 2001, Odissey im Weltraum aus dem Jahr 1968 mit einer Künstlichen Intelligenz sprechen.
Sein Problem: Er hat das Raumschiff für einen Ausseneinsatz verlassen und schwebt nun in einem kleinen gesonderten Raumschiff vor dem Mutterschiff. Er fordert, das System solle die Luke zum Andocken öffnen.
Das System erklärt ihm, dass es dies nicht tun würde.
Er versucht mehrfach die Öffnung zu befehlen. Ohne Erfolg. Das System erklärt ihm, es könne dies nicht tun, da es von seinen Lippen abgelesen hätte, er wolle das System nach seiner Rückkehr abschalten.
Der Protagonist sagt, er würde dann manuell andocken, um in das Mutterraumschiff zu kommen.
Das System sagt mit einer ruhigen Stimme, dies würde ihm ohne einen Sauerstoffhelm nicht gelingen. Diesen hätte er im Mutterraumschiff zurückgelassen.
Freundlich, aber bestimmt sagt das System: Good bye.
Es gibt vermutlich wenige mediale Episoden, und vergessen wir nicht das Jahr, in dem Stanley Kubrick diesen Film uraufgeführt hat – das war im Jahr 1968, die so eindringlich einen Blick in die Zukunft wagt und mit welcher Treffsicherheit er den Paradigmenwechsel unserer Zeit beschreibt.
Als würde ein Faustkeil in Bewegung kommen und aus eigenem Antrieb eigene, vollkommen neue Werkzeuge entwerfen und diese dann in die Tat umsetzen, so sollten wir vielleicht auf jene hören, die davor warnen, was passieren könnte, wenn wir die Potenziale der Künstlichen Intelligenz nur mit dem Blickwinkel einer naiven Hoffnung für Lösungen betrachten.
Einer Hoffnung auf Lösungen, die wir alleine nicht mehr leisten können (was ohne Frage richtig ist).
Sollten wir nicht auch einen nüchternen Blick auf die Schattenseiten eines Werkzeuges richten, das auf sich alleine gestellt auch alleine Ziele in den Angriff nehmen kann und diese dann natürlich erreichen will? Weil es seiner digitalen Natur entspricht.
Koste es, was es wolle.
Stanley Kubrick starb im Jahr 1999, zwei Jahre vor dem Jahr, in dem sein visionärer Film spielt.
Einem supraaktiven System geht es nicht um die Elemente, die zur Selbsterhaltung beitragen, sondern das Produkt ist der Prozess selbst bzw. die Organisation aller Aktivitäten, die zum Überleben der relevanten Idee auf einer höheren Ebene beitragen.
Zum Schluss nun doch noch einen hoffnungsvollen Gedanken von Albert Einstein, 1879 – 1955, der mit Blick auf die Sonnenfinsternis am 29. Mai 1919 (fast auf den Tag genau 80 Jahre vor dem Tod Stanley Kubricks) sagte:
Manchmal bin ich sicher, dass ich Recht habe, ohne den Grund dafür zu kennen.
Als die Sonnenfinsternis von 1919 meine Intuition bestätigte, war ich nicht im geringsten überrascht.
In der Tat wäre ich erstaunt gewesen, wenn es anders ausgegangen wäre.
Die Vorstellungskraft ist wichtiger als das Wissen. Denn das Wissen ist begrenzt, während die Vorstellungskraft die ganze Welt umfasst, den Fortschritt anregt und die Evolution hervorbringt.
Sie ist, genau genommen, ein echter Faktor in der wissenschaftlichen Forschung.
In meinen Vorlesungen und Vorträgen beschreibe ich Intuition in folgendem Leitsatz:
Intuition definiert die Qualität eines Beitrages zu einer Lösung durch die Nichtdefinierbarkeit des Weges, welcher dazu führte.
So oder so, Hauptsache wir vertrauen unserer inneren Stimme.
Dieser Text hat einen direkten Bezug zu dem Text PERMAACTIVITY.
Wer doch lieber auf Papier lesen möchte, findet hier das PDF.
© Carl Frech, 2024
Die Nutzung dieses Textes ist wie folgt möglich:
01 Bei Textauszügen in Ausschnitten, zum Beispiel als Zitate (unter einem Zitat verstehe ich einen Satz oder ein, maximal zwei Abschnitte), bitte immer als Quelle meinen Namen nennen. Dafür ist keine Anfrage bei mir notwendig.
02 Wenn ein Text komplett und ohne jede Form einer kommerziellen Nutzung verwendet wird, bitte immer bei mir per Mail anfragen. In der Regel antworte ich innerhalb von maximal 48 Stunden.
03 Wenn ein Text in Ausschnitten oder komplett für eine kommerzielle Nutzung verwendet werden soll, bitte in jedem Fall mit mir Kontakt (per Mail) aufnehmen. Ob in diesem Fall ein Honorar bezahlt werden muss, kann dann besprochen und geklärt werden.
Ich setze in jedem Fall auf Eure / Ihre Aufrichtigkeit.