KÜNSTLICHE INTELLIGENZ_2 [maschine]

23 min read

Kommentar zum Start: Wer hier auf direktem Weg eine Reflexion zum Thema der Künstlichen Intelligenz erwartet, den enttäusche ich besser hier. Es geht mir in diesem zweiten von weiteren Texten zum Thema darum, die kulturellen Grundlagen zu beschreiben, die in der Folge bzw. in unserer Gegenwart zu einer transformatorischen Dynamik bzw. Umwälzung durch Künstliche Intelligenz führt.

Eine Maschine hat einen herausragenden Vorteil. Und zwar aus einem sehr banalen Grund: Sie hat kein Verständnis von dem Konzept der Angst.

Eine Maschine macht ihr Ding. Im Sinne des Wortes. Wenn wir Kinder fragen, wie eine Maschine funktioniert, dann würden sie vielleicht sagen: Man gibt in eine Maschine etwas hinein, dann kommt etwas Verarbeitetes heraus. Etwas, was immer gleich aussieht und das Gleiche kann. Das macht eine Maschine möglichst schnell und ohne grossen Aufwand derer, die von der Maschine profitieren.
Sonst macht eine Maschine keinen oder nur einen sehr eingeschränkten Sinn.

Vielleicht ist das Konzept der Künstlichen Intelligenz die letzte Idee einer Maschine der Menschheit, da alle darauf aufbauenden Maschinen nur noch unter exponentiell marginaler Beteiligung derselben entstehen werden. Oder ganz ohne sie.
Doch es kann auch anders sein. Es kann sich anders entwickeln.

George Bernhard Shaw, 1856 – 1950, hat einen Aspekt dessen, was mich bei diesem Text mit dem Titel Künstliche Intelligenz unter der Betrachtung einer Maschine interessiert, in einem kraftvollen Zitat zum Ausdruck gebracht:

Der Nachteil der Intelligenz besteht darin, dass man ununterbrochen gezwungen ist, dazuzulernen.

George Bernhard Shaw

Was aber ist Lernen? Wir haben uns an den Gedanken gewöhnt, Lernen mit der Anhäufung von Wissen zu verwechseln. Gerade so, als müsste man einen Berg aufschütten, um in die Ferne blicken zu können. Und in gewisser Weise ist das ja auch so.
Um bei der Metapher Berg zu bleiben: Niemand schüttet Berge auf, mehr als kleine Hügel schaffen Menschen aus eigener Kraft nicht.

Doch Menschen steigen auf Berge. Auch auf die höchsten. Dazu benötigen sie entweder die dafür antreibende Not, dies zu tun, vielleicht ein damit verbundenes Ziel, oder die schiere Bereitschaft. Vielleicht auch eine Mischung aus unterschiedlichen Beweggründen.
Wichtig und im Sinne dieses Textes: Lernen ist ohne die Bereitschaft wenig substanziell. Es fehlt die Substanz und damit das Grundlegende, auf dem man in der Folge aufbauen kann. Wenn man will.

In unserer beharrlichen Gegenwart verbinden wir Wissen mit der Vorstellung, zu Beginn viel wissen zu müssen, um dies irgendwann zu einem vorsichtigen ersten Können zu formen (das Wissen anzuwenden). Erst danach sollen wir uns darüber Gedanken machen (dürfen), warum wir das überhaupt tun, ob wir das wirklich wollen und welche Ziele wir damit verfolgen.
Natürlich sind die Übergänge fliessend. Die Differenzierung [2] fällt uns oft nicht auf.

Allerdings hat sich dieses gedankliche Konzept erst in den vergangenen wenigen Jahrhunderten der Mechanisierung sowie geschichtlich über das sogenannte Mechanistische Weltbild bzw. das Maschinenparadigma so entwickeln können. Die Wurzeln dieser Denkschule liegen tiefer. Schon im Verlauf der Zeit um ca. 400 nach Christus entstand die Vorstellung einer Machina Mundi, der Weltmaschine.

Eine frühe Version dieser Idee von unserer Welt entstand im sogenannten Timaios, einem Spätwerk des griechischen Philosophen Platon. In Kurzform wird dort mit dem Mittel eines fiktiven Gesprächs [2] die Vorstellung beschrieben, der gesamte damals bekannte Kosmos wäre durch die aufeinander bezogenen Aspekte der Vernunft und der Notwendigkeit geprägt.

Man ahnt es schon: Die Vernunft wollte das bestmögliche Ergebnis für die Welt. Die Notwendigkeit stand im Weg. Sie dachte kurzfristiger und in kleineren Zusammenhängen. Vielleicht ist dies mit einem – sehr früh formulierten – Attest vergleichbar, alles auf dieser Welt benötige auf dem Weg zu einer Entscheidung den Kompromiss.

Dieser Blickwinkel auf eine Welt als Ort, auf dem man Ordnung schaffen müsse, gab einen frühen Blick auf das langsam beginnende Mittelalter, das mit dem reformatorischen Schwung des Buchdrucks [2] im Jahr 1440 langsam die Vorstellung dessen bereitete, was wir heute als die Moderne bezeichnen.

Lassen wir mal die detailreichen Zwischenschritte beiseite. Wir sprachen vom Lernen sowie der – mehr oder minder freiwilligen – Bereitschaft dazu. Damit verbindet sich die generelle Offenheit für Veränderung mit dem Bewusstsein, dies wäre für das eigene Leben eine Möglichkeit, möglicherweise auch vorgesehen [2], auf jeden Fall jedoch erreichbar.

Das Problem: Aktive Veränderung ist ohne [kritische] Reflexion gegenüber dem, was sicher scheint, schwer oder gar nicht möglich. Warum sollte man die Anstrengung sonst unternehmen?

Wenn wir also davon ausgehen, [substanzielles] Lernen benötigt immer Bereitschaft, Offenheit und Reflexion, dann sollten wir im Blick behalten, welche Wirkmächtigkeit die Entwicklung der vielfältigen Produktionsmittel während der vergangenen zwei, drei Jahrhunderte auf die Idee des Lernens entfaltete.

Jedes Mittel zur Produktion – im weitesten Sinn spreche ich von einer Maschine – sequenziert einen Prozess (Ablauf), folgt einer inkrementellen Syntax (Logik der notwendigen Regeln), nutzt eine Art der Metacodierung seiner Elemente (den zu verarbeitenden Teilen) und hat das Ziel permanenter Optimierung von Vorlagen (den Mustern).
Idealerweise bei gleichbleibender, besser von höherer Qualität, und natürlich so schnell es geht.
Geschwindigkeit ist meistens der zentrale Grund für eine Maschine.

Ein Produktionsmittel hat einen [notwendigen] Zweck: Die Produkte (hier im weitesten Sinn gemeint). Idealerweise mittelbar. Das Mittel ist die Maschine. Der Prozess zum Ergebnis ist möglichst direkt und damit effizient. Und immer verbunden mit dem proportionalen Verfall des einzelnen Wertes in Relation zur produzierten Menge. Natürlich nur für jene, denen die Mittel zur Produktion gehören.

Dass dieses Prinzip nur in der Physik der Dinge Bestand haben kann und in der Emulsion digitaler Produkte diametral neu gedacht werden muss, wird etwas später deutlicher.

Jedes Produkt ist ein Substitut. Es ersetzt das Original und damit das Einzelstück. Da das Produkt einer Maschine nur in einer Serie (gleichbleibender Qualität) Sinn macht, verbunden mit einer bestimmten Menge, die nach der Produktion gelagert werden muss (und sei es auch nur eine kurze Zeit bzw. den Zeitraum bis zur Lieferung), ist das einzelne Produkt immer die Rekapitulation eines spekulativen Bedarfs.

Im Sinne der Begriffe meint Rekapitulation im Zusammenspiel mit Spekulation die Zusammenfassung sowie die wiederholende Betrachtung aller bekannten Aspekte, für wen und für welche Bedürfnisse das einzelne Produkt passen könnte.
Des Weiteren ist damit die Rückschau – besser noch eine Form der Rückrechnung – verbunden, welche einen möglichst exakten Rückschluss darauf erlaubt, was in der Zukunft voraussichtlich [2] ein Bedarf werden könnte.

Natürlich immer in der Hoffnung, nicht falsch spekuliert zu haben.
Man könnte dies Planung nennen. Oder auch Schätzung. Vermutlich vermengt mit einem Schuss Intuition und der Erwartung, das Richtige getan zu haben.
Da wir Produktionsmittel ohne die moderne Idee von Wirtschaft in unserer Gegenwart nicht ernsthaft betrachten können, hier ein Leitsatz als ein Versuch, die Intention von Ökonomie möglichst präzise zu beschreiben:

Wir sprachen weiter oben vom sogenannten mechanistischen Weltbild bzw. vom Mechanizismus. Einer der Vordenker und wirkmächtigen Vertreter in seiner Zeit war René Descartes [2], 15961650, der im 17. Jahrhundert [2] den menschlichen Körper im Verbund mit den Körpern von Tieren als mechanische Konstruktion beschrieb. Er schrieb allerdings nur der menschlichen Spezies eine unsterbliche Seele zu.

Mit einer, wenn auch nur rudimentären Kenntnis seiner Texte, ist das verwunderlich. Unter der Radikalität seiner Gedanken zur Selbstbestimmung des Menschen (Cogito ergo sum – ich denke, also bin ich) hatte er vermutlich nicht den Mut, in der Konsequenz und Logik seiner Philosophie die Existenz eines Gottes infrage zu stellen. Das interessiert uns jedoch hier nicht weiter.

Sein mechanischer Blick auf biologische Körper passte jedoch gut zur beginnenden Entwicklung komplexer Ansätze maschineller Prozesse. Besonders durch Räderwerke, Pumpsysteme und technische Entwicklungen, die den späteren [disruptiven] [2] Durchbruch der Dampfmaschine im 18. Jahrhundert vorbereiteten.

Alles getrieben durch die dynamische Entwicklung neuer Metalle, also Werkstoffe. Eine Grundlage, die in einer zunehmend nicht physikalischen Welt unserer Gegenwart parallel an Wert verliert. Konsequenterweise sollte man sagen: verlieren muss.
Dazu ein Leitsatz aus einem Text mit dem Titel SINGULARITÄT DER BELIEBIGKEIT_1 [objekt], der dies auf eine Formel bringen will:

Die Vision von René Descartes und anderen in seiner Zeit, der menschliche Körper würde logischen Abläufen unterliegen und könne daher in Form einer Maschine gedacht werden, war eingebettet in die gesellschaftlichen Veränderungen der Aufklärung und der Reformation.
Dies war verbunden mit der Erosion kirchlicher Machtstrukturen in jener Zeit der Renaissance, also im 15. und 16. Jahrhundert in Europa.

Der europäische Kontinent, getrieben von den neuen Möglichkeiten zur Verbreitung von Wissen, wurde ein Ort dynamischer Entwicklungen.
Bildung wurde zum Samen einer frühen Ahnung von Demokratie bzw. der Idee einer Republik.
Ein Ansatz zur Dissemination von Inhalten in Form kleiner und stetig wachsender [sozialer] Zellen zum Austausch von Wissen und dem Potenzial zur gezielten Streuung von Informationen.

Ein radikaler Vordenker der Pädagogik [2] mit einem für die Zeit sehr inklusiven Ansatz war Johann Amos Comenius, 15921670.
In seiner zwischen 1627 – 1638 verfassten Didactica Magna beschrieb er im Kern die heute noch moderne Vorstellung von Bildung, formuliert in dem Anspruch:
Alle alles ganz zu lehren bzw.: Alle alles in Rücksicht auf das Ganze zu lehren (omnes omnia omnino excoli).

Comenius war Vertreter des im 16. Jahrhundert aufkommenden Menschenbildes der Anthropologie. Er war der Überzeugung, jeder Mensch wäre bildungsfähig und würde erst durch Bildung zu einem Menschen, erst dadurch zu einem kultivierten Wesen.

Hervorzuheben ist seine Formulierung auf das Ganze. Damit verbunden war der Anspruch an ein Wissen von der Welt als Ganzes. Die philosophische Idee, es gäbe eine allgemeine und für alle gültige Wirklichkeit (Universalismus) erhielt damit eine erste Ahnung davon, die Welt könne unterschiedlich wahrgenommen werden.

Comenius war für seine Zeit relativ radikal. Er dachte die Pädagogik vom Kind aus und öffnete der Vorstellung das Tor, die Wahrnehmung der Welt müsse aus dieser [individuellen] Perspektive (des Kindes) logischerweise unterschiedlich sein.

Spätere Theorien wie der Kontextualismus oder im 20. Jahrhundert der Konstruktivismus [2] grenzten sich von einer umfassenden, im Sinne einer den Menschen generell unterwerfenden Position des Universalismus ab.
Sie rückten den Menschen als interaktives und einer Gemeinschaft verbundenes Wesen in den Mittelpunkt. Dieser [Mittelpunkt] beschrieb den Ort persönlicher Weltwahrnehmung. Er war individuell und basierte auf der Schnittmenge des biologischen Wesens (Mensch) mit der Umwelt und war daher einer stetigen situativen Veränderbarkeit unterworfen.

Aus heutiger Sicht erscheint dies selbstverständlich und fast trivial. Allerdings nicht im 16. und 17. Jahrhundert. Die Perspektive einer Welt als individuelles Konstrukt veränderte das Denken in dieser Epoche.
Noch wichtiger: Der Austausch von Wissen und damit das Potenzial eines Mehrwertes durch ein interaktives und weitgehend gleichrangiges Miteinander war das eigentliche Neue.

In anderen Worten: Der produktive Mehrwert durch die Vernetzung von Wissen und Kompetenzen als Ergebnis des sozialen Austausches wurde zu einer frühen Ahnung dessen, was wir heute als Wissensgesellschaft bezeichnen würden.

Wissen braucht Speicher für die Ablage und entsprechende Transmitter für die Vernetzung des Gespeicherten. Heute weiss man deutlich mehr um die Dynamik bzw. Variabilität dieser Prozesse als zu Beginn der Renaissance. Wir sprechen heute von neuronaler Plastizität, von Hirnphysiologie, verbinden dieses Wissen mit der Neuroinformatik und meinen damit ein neuronales Netz.

Der gedankliche Humus dazu begann jedoch früher. Die Vorstellung eines Mehrwertes [2] [3] von Wissen als Tauschmittel durch austauschbare mediale Träger nahm zum Ende des sogenannten Mittelalters seinen Lauf.

Mehr noch: Die Multiplikationseffekte beim Austausch von Inhalten und Ideen (heute würden wir von Open Source [2] [3] sprechen) waren geboren. Wissen verlor zunehmend den Status der Unerreichbarkeit und wurde zu einer sehr frühen Form der Transdisziplinarität.
Wir könnten auch sagen: Wissen entwickelte sich in Abhängigkeit und reziprok (wechselseitig) zum Zweck, zur praktischen Anwendung und musste zunehmend vor der Welt bestehen.

Es war die Epoche, in der sich die Naturwissenschaft zu einem gewaltigen Erfolg als empirische Methode der Weltbetrachtung entwickelte und in der Folge in Konkurrenz zur Geisteswissenschaft trat.
Ein Prozess – auch ein Problem – der bis heute Fragen aufwirft, sowie die öffentliche Diskussion bis heute befeuert, was richtiges Tun sei.
Die Naturwissenschaft suchte Belege für das Sichtbare und damit für die Machbarkeit. Der Glauben alleine genügte nicht mehr. Er verlor schon zu der Zeit an Gewicht und damit an Macht.

Dieser Ansatz zur Machbarkeit als praktischer Beleg des Denkens wurde bereits knapp zwei Tausend Jahre zuvor von Aristoteles, 384 v. Chr. – 322 v. Chr., beschrieben, als er sagte:

Was man lernen muss, um es zu tun, das lernt man, indem man es tut.

Aristoteles, griechischer Philosoph und Begründer der abendländischen Philosophie

Ein wenig früher sagte Konfuzius, 551 – 479 v. Chr., (eines meiner Lieblingszitate):

Ich höre und vergesse.
Ich lese und erinnere.
Ich mache und verstehe.

Konfuzius

Vor dem Hintergrund der Entwicklungsgeschichte unterschiedlicher Zivilisationen während der vergangenen Jahrtausende wäre es vermessen, den Aspekt der Machbarkeit im ausgehenden Mittelalter und dem noch zarten Ausblick auf die Moderne mit einem besonderen bzw. einem in der Weltgeschichte herausragenden Status zu versehen.
Das Besondere war – neben der zeitlichen Nähe zu unserer Gegenwart – das Potenzial der Erreichbarkeit über neue Mittel der Information [2] und Kommunikation.

In der Renaissance entwickelte sich zunehmend das Bedürfnis zur Referenz in eigener Sache. Menschen begannen mit einem neuen Ich-Bewusstsein Ideen davon zu entwickeln, wie sie ihr Leben eigenständig gestalten könnten. Der Begriff (eigenständig) erzählt die Geschichte: Die Statik des Standes durch Geburt bekam erste Bruchstellen. Mehr wurde vorstellbar. Natürlich noch lange (und bis heute) im Rahmen gewisser sozialer Begrenzungen und der gegebenen Einordnungen.

Eine Referenz nimmt generell auf etwas Gegebenes Bezug. Aus heutiger Sicht, technisch bzw. allgemein formuliert, bedeutet Referenz auch Zeiger oder Verweis und wird dadurch zu einem Hinweis auf eine Differenz.

Der Unterschied (Differenz) von dem Einen zu etwas anderem wird deutlich. Das bessere Argument bezieht sich auf eine Sache und damit auf den schon angesprochenen Zweck (Nutzen). Man könnte auch sagen: Die Welt öffnete sich langsam für eine [zielorientierte] Kompetenz [2] [3] zur Problemlösung.
Egal, auf welchen Wegen diese erreichbar wurde.

Eine Referenz kann auch mit dem, auf das man sich bezieht, gleichgesetzt werden. Sie wird damit zur Extension, also zur Ausdehnung bzw. Ausbreitung, und schliesslich zur Verbreitung dessen.
Wir erinnern uns an den Begriff der Dissemination? Menschen begannen in dieser Zeit, in ersten Tagebüchern ihr Leben zu reflektieren. Seien es auch nur notierte Alltäglichkeiten. Sie suchten Antworten in sich selbst.

In der Zeit lebte auch Michel de Montaigne, 1533 – 1592. Er war Jurist, Philosoph, Humanist und Skeptiker. Vor allem jedoch war er Begründer der Essayistik und damit des Begriffes Essay. Montaigne begann sich mit den [scheinbar] einfachen Fragen des Lebens zu beschäftigen. Er stellte neue Fragen und hatte den Mut zu einem für die Zeit radikalen Blick auf Hierarchien, zum Beispiel wenn er schrieb:

Auf dem höchsten Thron der Welt sitzen wir doch nur auf unserem Hintern.

Michel de Montaigne

Menschen begannen, sich im Kontext der sie umgebenden Welt wahrzunehmen.
Sie wussten um ihre generelle Zugehörigkeit zur Gattung der Menschheit und zu einer Gesamtheit vergleichbarer Subjekte (Extension), als Wesen der Natur.
Sie wussten aber auch um ihre [spezielle] Unvergleichbarkeit, den [definierten] Unterschieden, denen sie kaum entkommen konnten.

Mit dem [kritischen] Bewusstsein um die eigene Begrenzung und befeuert durch den Schwung der Aufklärung in jener Zeit, entwickelte sich – fast möchte man sagen: zwingenderweise – ein [individuelles] Bedürfnis nach Differenzierung.

Der Unterschied wurde zur, wenn auch noch sachten Gewissheit um die individuellen Besonderheiten bzw. den damit verbundenen Potenzialen für die eigene Lebensgestaltung.

Damit verbunden entstand der – noch unscharfe – Aspekt der Intension: Die Vorstellung einer Möglichkeit zur Einordnung persönlicher Einzelmerkmale in Relation zum sozialen Umfeld.
Eine statische Klasse (Stand) wurde durch die Vorstellung einer variablen [sozialen] Kategorie ergänzt.

Wenn wir diesen Gedanken in eine funktionale, fast technische Taxonomie bringen, dann könnte man sagen:
Es gab zum einen Klarheit über die generelle Klasse, zu der man gehörte. Wir könnten auch von einer Konstanten sprechen (Banales wie: Menschen hatten keine Federn, sie konnten nicht fliegen, sie sind [überwiegend] vernunftbegabt).

Zum anderen war jedoch auch klar: Eine individuelle, eine eigene Variante (durch variable Merkmale) war ohne diese Basis (Konstante) nicht möglich.
Es entstand die Idee des Menschen als soziale Variable, als bewusstes Angebot für die Gemeinschaft und einer bewertbaren Einordnung in ein grösseres kooperatives Gefüge.
Der singuläre Beitrag in einer Gemeinschaft wurde differenzierbarer. Das Leben wurde strukturierter. Vielleicht auch komplizierter.

Menschen wurden sich ihrer Bedingungen bewusster und damit jenen Einflussfaktoren, welche ihr Leben dominierten. Das ist heute nicht anders.
Innerhalb der eigenen Klasse mussten bestimmte Kriterien erfüllt werden. Wir könnten auch von logischen Eigenschaften sprechen (vergleichbar mit der Mengenlehre, einem Teilbereich der Mathematik – ich gebe zu, das ist ein ziemlich abstrakter Vergleich).

In der öffentlichen Wahrnehmung wurden Kriterien, mit denen Menschen kategorisiert werden konnten bzw. sich selbst einordneten, feiner (also differenzierter). Eine aufgeklärtere Öffentlichkeit führte zu einer breiteren Kenntnis über die Welt als Ganzes.
Gleichzeitig wurden leider auch die eigenen Grenzen klarer: Je mehr das einzelne Individuum wusste, desto mehr wurde deutlich, was es nicht wusste. Dies ist wohl der auf Rastlosigkeit ausgerichtete Nebeneffekt steigenden Wissens.

Bildung wurde auch zu einem Brandbeschleuniger der Neugier und führte dazu, Menschen zunehmend als produktive Teile eines gesellschaftlichen Ganzen zu betrachten. Mit dem wachsenden Wissen um die Komplexität der Welt wuchs das Bewusstsein um seine Teile.
Aristoteles, 384 v. Chr. – 322 v. Chr., prägte den bekannten [Glaubens-] Satz:

Das Ganze ist mehr als die Summe seiner Teile

Aristoteles

In einer textlichen Abwandlung (wie schon in einem anderen Text zum Thema HOLISMUS vorgeschlagen) könnte man auch sagen:

Der weiter oben genannte Johann Amos Comenius sah in der Bildung die Möglichkeit, den Menschen schon als Kind zu einem kultivierten Wesen zu formen. Das in seiner Zeit gebräuchliche lateinische Wort eruditus bedeutet etymologisch ent-roht. Der einzelne Mensch würde verfeinert und als wertschöpfendes Subjekt in der Gemeinschaft differenzierter wahrgenommen. Und damit auch produktiver.

Mit der Suche nach einer Antwort auf die Frage was die Welt zusammenhält, formulierte Comenius in seiner Schrift Janua Linguarum Reserata im Jahr 1631:

Den Unterschied der Dinge kennen und jedes mit seinem Namen bezeichnen können.

Johann Amos Comenius,

Wir sprachen weiter oben von der Position René Descartes, der den menschlichen Körper im Verbund mit den Körpern von Tieren im Grunde als mechanische Konstruktion beschrieb.
Er reduzierte den damals bekannten Organismus des Menschen auf seine mechanischen Funktionen, also auf die Mechanik [2] selbst, und schuf damit das gedankliche Modell eines Apparates bzw. einer Maschine.
Man könnte auch die frühe Vision eines Computers [2] erkennen. Wir bleiben aber noch kurz bei Descartes.

Mit diesem Ansatz eines mechanistischen Denkens in Relation biologischer Körper passierte etwas Bemerkenswertes: die [gedankliche] Fragmentierung und Partikulierung des Körpers selbst.
Die Gestalt, besser: das System als Ganzes, wurde in immer kleinere [System-] Teile zerlegt, damit kognitiv, also rational erklärbar, und folgte auf diesem Weg zunehmend der cartesianischen Idee vom Dualismus und damit der Trennung von Leib bzw. Körper und Seele bzw. Geist.
Alleine dieser Gedanke war ein Problem für die Macht der [katholischen] Kirche zu der Zeit.

Wenn die Welt in unendlichen Einzelteilen wahrgenommen wird, dann wird das Einzelne (Objekt) zum potenziell austauschbaren Element (in einem System – welches in der Logik des Gedankens selbst nur noch ein Teilsystem sein kann).
Vielleicht war dies ein Zeitalter, in dem die eigene Isolation in abhängiger Verbundenheit von dem Umfeld anderer Isolierter zum ersten Mal zu einem kollektiven Bewusstsein werden konnte. Das Alleinsein bekam ein neues soziales Antlitz.

Wenn wir diesen Gedanken weiter wirken lassen: Es entstand nicht nur die Vorstellung sowie das Erkennen eines Potenzials der Austauschbarkeit durch [permanente] Produktion. Es entwickelte sich eine frühe Ahnung der Externalisierung [2] [3] und damit die Vorstellung, auch den menschlichen Körper selbst zu einem produktiveren Wesen umzuformen.
Kommen wir zum Punkt:

Mir ist vollkommen klar, ich habe mir einen langen und in Teilen redundanten [2] Anlauf erlaubt. Allerdings bewusst, da mir die sozio-systemischen und kulturellen Hintergründe wichtig sind für ein tieferes Verständnis des Themas.

Wenn wir nun all die Gedanken in unsere heutige Zeit projizieren und uns noch einmal den Begriff Klasse vor Augen führen, dann findet sich dieser auch in der Beschreibung von Objekten (Objekttyp) in der sogenannten objektorientierten Programmierung [2].
Jedes Objekt (als Vertreter einer Klasse) definiert sich über Attribute (Eigenschaften) und über Methoden (Verhaltensweisen). Damit lässt sich im Prinzip die ganze Welt abstrakt in seinen Teilen beschreiben. Es benötigt nur die Referenz und damit den Zeiger, der darauf verweist.

Alan Key, * 1940, Erfinder der Programmiersprache SmallTalk, erläuterte 1993 in seiner Schrift The early history of smalltalk die Logik der objektorientierten Programmierung wie folgt:

1. Alles ist ein Objekt.
2. Objekte kommunizieren durch das Senden und Empfangen von Nachrichten (welche aus Objekten bestehen).
3. Objekte haben ihren eigenen Speicher (strukturiert als Objekte).
4. Jedes Objekt ist die Instanz einer Klasse (welche ein Objekt sein muss).
5. Die Klasse beinhaltet das Verhalten aller ihrer Instanzen (in der Form von Objekten in einer Programmliste).
6. Um eine Programmliste auszuführen, wird die Ausführungskontrolle dem ersten Objekt gegeben und das Verbleibende als dessen Nachricht behandelt.

Alan Key hat sich später kritisch gegenüber seiner eigenen Definition gezeigt, da diese einen starken Fokus auf das Objekt legen würde bzw. diese Beschreibung statisch wirken könnte.
Tatsächlich geht es eher um den Prozess des Zusammenwirkens der Objekte selbst. Ähnlich einem polydirektionalen Netz, so wie man sich die neuronalen Prozesse im menschlichen Gehirn vorstellen kann, ginge es auch bei der objektorientierten Programmierung um die Message [2] [3] [4] zwischen einzelnen Objekten, also den Nachrichten, die ausgetauscht werden.

Im Jahr 1956 fand am Dartmouth College [2] die Dartmouth Conference [2] [3] statt. Die veranstaltenden Akteure waren Marvin Minsky [2], John McCarthy, Nathaniel Rochester und Claude Shannon. Der Begriff der Künstlichen Intelligenz wurde auf dieser Konferenz zum ersten Mal der Öffentlichkeit vorgestellt. Alle zentralen Formulierungen zum Begriff selbst sind bis heute mit dieser Veranstaltung verbunden.

Marvin Minsky hat in seinem Buch The Society of Mind, erschienen im Jahr 1986, die These aufgestellt bzw. formuliert, dass Intelligenz [2] [3] im Prinzip aus einem verwobenen Netz von unintelligenten Agenten bestehe. Erst durch die Zusammenarbeit von relativ einfachen Agenten entstehe Intelligenz.

Minsky versuchte den Leser von der üblichen Vorstellung abzubringen, das menschliche Gehirn wäre ein einzelnes, großes, monolithisches Ding, das an etwas denkt. Oder eben nichts denkt.
Stattdessen skizzierte er ein Modell, bei dem das Gehirn aus unzähligen, verschiedenartigen, vor allem relativ einfachen Agenten besteht. Und gerade die Einfachheit des Einzelnen ist das Geheimnis für die Komplexität des Ganzen. Heute würden wir vielleicht von Kollektiver Intelligenz oder von Schwarmintelligenz sprechen.

Diese Agenten hätten einfache Aufgaben und damit verbundene Ziele. Erst durch die Kommunikation miteinander und ein Ausverhandeln dieser Tasks [Aufgaben] untereinander könne Denken und in der Folge Handeln entstehen.

Einzelne Agenten könnten aus noch kleineren Agenten bestehen, die wieder miteinander kommunizieren und verhandeln. Diese kleineren Agenten wären weiter spezialisiert auf bestimmte Aufgaben. Jeder Task muss klar definiert sein, denn Konflikte innerhalb eines Agenten – ausgelöst durch die abhängigen und kleineren Agenten – führen zur Schwächung des [grösseren] Agenten selbst. Damit würden andere Agenten dominanter. Das gesamte System gefährdet sich dann selbst.

Diesen Gedanken zur Logik eines menschlichen Gehirns könnte man im Prinzip und auf einer holistischen Ebene auf die Struktur unserer globalen Realität übertragen.
Und vielleicht darüber hinaus.

Lernen besteht in dem Modell von Marvin Minsky darin, die Kommunikation zwischen den Agenten zu verbessern. Jede persönliche, jede individuelle Eigenheit von Menschen resultiert in seiner Theorie aus unterschiedlichen Gewichtungen der Agenten. Gewichtungen könnte man auch mit Speicherung und damit die Basis für Erinnerung beschreiben.

Die Speicherung von Erinnerungen wird durch die Erzeugung von K-Lines ermöglicht. Diese K-Lines sind eine Art Liste, die alle Agenten enthält, welche bei einer Aktivität beteiligt waren bzw. sein könnten.
Ab hier wollen wir Minskys Gedanken nicht weiter verfolgen.

Wir sprachen weiter oben von einer Tendenz zur Externalisierung dessen, was menschliche Existenz in der Evolution bis dahin für das eigene Überleben definierte. Das einzelne Individuum ist zur Kooperation gezwungen. Das Leben selbst ist jedoch biologisch begrenzt durch den Körper bzw. die Fähigkeiten, die der Geist in diesem Körper innerhalb der Lebenszeit ermöglicht.

Nun schien ein neues Zeitalter anzubrechen. Eine konkrete und nicht nur spirituelle Vorstellung darüber, wie sich die begrenzte Realität des Einzelnen erweitern könnte.

Hilary Putnam, 19262016, versuchte, ein Gedankenexperiment mit dem etwas sperrigen Titel Gehirn im Tank zu widerlegen. Eine fiktive Theorie, die vornehmlich Gilbert Harman, 1938 – 2021, zugeschrieben wird.
Der Versuch der Widerlegung ist jedoch weniger interessant als die Tatsache, dass und warum so eine fiktive Metapher überhaupt existiert bzw. welche Konsequenzen damit verbunden. Worum geht es?

Ein menschliches Gehirn würde vom Körper in irgendeiner Weise vorgeburtlich herausgelöst und isoliert. Es wäre stattdessen mit einem Computer verbunden und erhielte nur von dort alle Impulse, die in einem normalen Leben normal wären.

Diese Impulse wären komplett identisch mit jenen, die ein realer Körper in einer realen Welt generieren (intrinsisch) bzw. erfahren würde (extrinsisch).
An dieser Stelle lohnt es sich, noch einmal den Bogen zu René Descartes zu schlagen.

In seiner Schrift Meditationes de prima philosophia hat Descartes den Zweifel formuliert, er könne alleine nicht sicher sein, dass er als ein Subjekt mit eigener Erkenntnis existiert. Folglich könne er auch nicht sicher sein, seine Existenz wäre nicht von einer externen Existenz gesteuert. Er würde demnach vielleicht gar nicht eigenständig existieren bzw. nur als Simulation oder Illusion. Im Grund formulierte Descartes damit auch die Frage nach dem freien Willen.

Descartes Hauptaussage zur Sicherung der eigenen Existenz bzw. der daraus abzuleitenden Erkenntnis durch den Satz Cogito ergo sum (Ich denke, also bin ich) wurde indirekt wieder infrage gestellt.
Zurück zu der Theorie Gehirn im Tank:

Das Gedankenexperiment basiert in gewisser Weise auf dem Skeptizismus und damit der Annahme, es könne keine absolute Form von Wissen, ergo kein geschlossenes Weltbild, geben. Es geht von einer Proposition aus.
Sowohl in der Linguistik [2] als auch in der Psychologie ist eine Proposition die kleinste Einheit von Wissen in einer Aussage, die je nach Kontext wahr oder falsch sein kann.
Die Interpretation der Realität wechselt daher mit dem Zusammenhang (Kontext), was in bzw. wie die Welt betrachtet wird.
Wer mag, kann dazu gerne in dem Text mit dem Titel KONSTRUKTIVISMUS weiterlesen.

In einem Paradoxon ausgedrückt besteht das Problem eines Anspruchs an absolute Wahrnehmung darin, dass das Gehirn vielleicht in dem Tank liegt und daher nicht über die [unabhängige] Perspektive verfügt, dass es in dem Tank sicher liegt (es nur so sein kann).
Denn es liegt ja [vielleicht] darin (ist damit abhängig von dem Tank). Es könnte im Umkehrschluss jedoch auch nicht so sein.
Schon klar, das ist ein ziemlich schräger Gedanke (Filmtipp dazu hier).

Anders gesagt: Für unsere Sicht auf die Welt spielt es im Prinzip keine Rolle, ob unser Körper und damit unsere Organe für eine sinnliche Wahrnehmung existieren. Die Wahrnehmung selbst existiert schliesslich nur in unserem Gehirn (nach aktueller Erkenntnis). Es würde demnach genügen, wir wären nur dieses Gehirn. Wie gesagt, ein etwas verrückter Gedanke.
Für die Intention dieses Textes zum Thema Künstliche Intelligenz ist allerdings Folgendes wichtig:

Die Frage ist zu Beginn, ob das isolierte Gehirn diese Impulse als echt oder als simulierte Realität wahrnehmen würde bzw. was der faktische Unterschied wäre.
Noch bedeutender ist, ob das isolierte Gehirn diesen Unterschied überhaupt als relevant, also bedeutend einschätzen würde.

Wenn wir dieses Gedankenspiel weitertreiben, dann muss man irgendwann die Frage stellen, ob der Unterschied nicht nur nicht relevant wäre, sondern dass die simulierte Realität (des isolierten Gehirns) als relevanter und damit wertvoller (bzw. sinnvoller?) wahrgenommen werden würde?

Provokativ könnte man spekulieren, es spiele für das Gehirn keine bedeutende Rolle, mit welcher Form der Realität es konfrontiert wird. Der Unterschied wäre nicht nur nicht bedeutend, die Hauptsache wäre, unsere grundlegenden Bedürfnisse würden befriedigt.
Zum Beispiel unsere Sehnsucht nach Glück, nach Geborgenheit und Liebe.

Damit haben wir endlich den Schwung für die Schlussstrecke dieses Textes erreicht. Vielleicht wird der einen bzw. dem anderen klarer, warum ich diesen langen Anlauf genommen, um mich dem Thema der Künstlichen Intelligenz systematisch zu nähern.

Für die Schlussstrecke beginne ich gerne mit einem Leitsatz aus dem Text SINGULARITÄT DER BELIEBIGKEIT_3 [position]:

Die physikalische Welt verliert zunehmend ihren Wert in der Gravitaion der Dinge.

Die digitale Welt transmittiert und simuliert ein imaginäres Potenzial als eine Art Gravitation der Wünsche.

Aus der in vielen Bereichen medial externalisierten Perspektive unserer Gegenwart könnte man in einem weiteren Leitsatz sagen:

Es scheint, als würden sich die Verhältnisse zu drehen beginnen. Das Innen wird zum Außen, das Außen emulgiert mit dem Inneren. Das, was wir zu sehen glauben, wird zur Lichtquelle. Wir als Zuschauer werden zur Leinwand. Seltsam.
Der Drehimpuls dazu begann – die Hypothese dieses Textes – mit dem Ende des sogenannten Mittelalters und dem Beginn der Renaissance.

Daher erwähne ich nun zum dritten Mal Descartes Gedanken, ein Tier sollte innerhalb der Lebewesen nur als ein mechanistisches Konstrukt eingeordnet werden.
Nur deshalb, da er diese Position auch für Menschen vertrat, diesen jedoch eine Seele zusprach sowie ein Bewusstsein über die eigene Existenz.
Und dies jenseits seiner zentralen These der Trennung von Geistigem und Materiellem (res cogitans und res extensa) in einer dualistischen Welt.
Allerdings, und auch dies ist seltsam: Descartes blieb Zeit seines Lebens ein gläubiger Mensch.

Ich hoffe, es ist allen klar, dieses wiederholte Beispiel des mechanistischen und unbelebten Prinzips auf Lebewesen mit der relevanten Unterscheidung auf Tiere ist eine Metapher für einen grösseren Wandel: Es verfestigte sich schleichend eine kollektive Sicht auf die globale Ordnung und eine erhabene Position der menschlichen Spezies auf dem bis dahin bekannten Planeten.

Vor allem darum, da der Planet zu der Zeit zum ersten Mal als gemeinsamer Ort, als topologischer Raum, als ein Gefüge, welches komplett vermessen werden kann, in das Bewusstsein der zunehmend informierten Menschheit rückte.
Es entwickelte sich eine Ahnung darüber, Menschen könnten auf diesem Planeten jeden geografischen Punkt erreichen. Es wuchs die Überzeugung, überhaupt alles erreichen zu können.

Menschen wandelten sich über die Kenntnis der Welt und der Dinge von einem Naturwesen zu einem Kulturwesen. War bis dahin Natur die Instanz, mit der sich Menschen arrangieren mussten, deren Grenzen zu akzeptieren waren, dessen Systemik und Rhythmus das Leben dominierten und eine unverbrüchliche Realität darstellten, so entstand nun eine gewisse übereinstimmende Hybris im Denken, dies könne mithilfe eines auf die Mechanisierung ausgerichteten Denkens zu einer neuen Ordnung der Dinge führen.

Die Naturwissenschaft begann, die jahrtausendealte Geisteswissenschaft vor sich herzutreiben.

Menschen waren immer weniger in der Vorstellung gefangen, ihren Körper nur innerhalb natürlicher Grenzen zu betrachten, da fortan die Vorstellung einer neuen Kraft mit Apparaten und Maschinen das Bild einer besseren Zukunft bestimmte.

Vergleichbar mit den Möglichkeiten der Digitalität in unserer Gegenwart entwickelte sich der Anspruch an eine ausserordentliche Leistung, ein Zauber, der nur durch diese Form der Externalisierung in ein anderes Ding möglich werden könnte.

Ausserordentlich, da das Leben zunehmend und kontrollierbar ausserhalb der natürlichen Ordnung denkbar wurde.

In der Antike findet sich der Begriff Deus ex Machina. Eine Art Maschine, welche innerhalb einer Bühnenaufführung durch eine übernatürliche Gestalt aus dem Hintergrund eine bedeutsame Illusion erzeugte. Zum Beispiel mittels einer Gottheit, die von oben auf die Bühne des Theaters zu schweben begann und dem Spiel eine unerwartete Wendung gab.

Das Besondere war: Die Zuschauer konnten sich als die Bedürftigen (verkörpert durch die Spielenden auf der Bühne), aber auch als die Ermächtigenden wahrnehmen (es war ja der menschliche Geist, der diese Maschine geschaffen hatte).

Dieses Gefühl der Erhabenheit durch die Illusion einer externen Lösung führte über den Umweg der Wahrnehmung als selbstwirksames und produktives Individuum zur Entfremdung von der Natur und damit – im Umkehrschluss – zum Zweifel an den eigenen Potenzialen.

Wenn jedes eigene Tun durch ein externes Ding besser oder kräftiger werden kann, dann führt dies irgendwann zur Frage nach dem Sinn einer eigenen Handlung.
Und damit auch nach dem Sinn des eigenen Lebens.

Die Metapher der transformativen Übertragung von Descartes‘ Haltung, ein Tier wäre ein seelenloses mechanisches Ding, dessen man sich beliebig ermächtigen könne, führte in der Summe aller Entwicklungen zu einer kulturellen Zäsur in dieser Zeit.

Denn wenn die Balance der eigenen Existenz ins Wanken gerät, dann braucht es einen – wenn auch nur gefühlten – Ersatz durch eine substituierende Ermächtigung.
Und diese Ermächtigung hatte einen Namen: Die Maschine.
Bleiben wir noch einen Moment bei den Tieren:

In den letzten Jahren verdichten sich Ergebnisse in der Forschung, Tiere hätten doch ein Bewusstsein [2] [3] [4]. Ihre Wahrnehmung, ihr spielerisches Verhalten, die Fähigkeiten zur Erinnerung und damit verbunden der Versuch zur Vermeidung von Schmerzen und Enttäuschungen wären nicht weit von dem entfernt, wie Menschen ihre Dominanz auf diesem Planeten argumentativ rechtfertigen würden:
Die Menschheit als einzige Spezies mit der Kraft zur Vision und Selbstreflexion.

Wenn jedoch die Trennlinien der Ordnung zwischen Menschen und der umgebenden Welt nicht mehr eindeutig verteidigt werden können; wenn die inhärenten Abhängigkeiten wie auch die systemischen Zusammenhänge immer deutlicher werden lassen, wie wenig das einzelne Individuum in dieser Welt alleine wirklich kann; wenn die Abhängigkeiten von externen Hilfsmitteln immer klarer zutage treten, dann stellen sich neue Fragen.

Manche werden sich vielleicht gefragt haben, warum dieser Text mit einem Bild von einem Automobil beginnt bzw. damit ein Symbol erhält.

Im Jahr 1886 wurde von Carl Benz, 1844 – 1929, mit einem Patent das Automobil erfunden. Die Auswirkungen führten global zu disruptiven und radikalen Transformationen.

Die grössere Revolution war jedoch die emulgierende Wirkmacht der petrochemischen Industrie. Alles, was bis dahin nur aus einem natürlichen Material vorstellbar war, wurde über neue [künstliche] Materialien neu gedacht und neu gemacht. Plötzlich schien es, alle Dinge auf diesem Planeten könnten aus einem Rohstoff gefertigt werden.
Und so war dann auch.

Im Jahr 1941 hat Konrad Zuse, 19201995, den ersten funktionstüchtigen und programmierbaren Digitalrechner und damit den Nukleus eines Computers der Öffentlichkeit präsentiert.

Die grössere Revolution war jedoch die emulgierende Wirkmacht der Softwareindustrie. Alles, was bis dahin als Ablauf in der physikalischen Welt als zeitbasierter Prozess formuliert war, mit echten Regalen, auf echten Tischen und dem Wissen, ein Fehler bedeutet zwingend die Konsequenz, dieser Fehler wäre tatsächlich passiert, wurde nun über eine neue [künstliche] Beschreibung in eine neue Welt portiert.
Plötzlich schien es, alles auf diesem Planeten könnte als abstraktes Symbol neu beschrieben werden.
Und so war es dann auch.

Es entstand eine Kopie der physikalischen Welt. Diese Kopie schaffte jedoch nicht nur ein Abbild derselben, sondern führte auch zu einer [künstlichen] Veränderung der Realität. Diese Veränderung zerstörte die [physikalische] Realität um den Wert der Veränderung selbst.

Die physikalische Welt der Dinge und Körper ist noch Substanz. Sie folgt den Regeln der Gravitation. Es kann geboren werden, es wird gestorben.
Die Auflösung der Physik in einen digitalen [diskreten] Code ist nur noch Symbol.
Es negiert jede Substanz, jede Materie und diffundiert die Welt in eine permanente Beliebigkeit der Interpretation.

Alles wird zu einem Symbol und damit zur Funktion. Der Computer muss die Welt für die Wahrnehmungs-, Interpretations- und Lesegeschwindigkeit des Menschen übersetzen.
Wäre der Computer alleine, dann wäre dieser Aufwand nicht nötig.

Auch wenn der Begriff Moderne eine lange Geschichte hat, so wurde er erst im 19. Jahrhundert als Abgrenzung zur Vergangenheit verwandt.
Zu dieser Zeit entwickelte sich das Maschinenzeitalter mit einer exponentiellen Dynamik.
Der menschliche Körper wurde umfänglich in kleinen Maschinen und Motoren ausgelagert (externalisiert).

Jede Entwicklung braucht ihre Zeit. Noch im Ersten Weltkrieg verloren mindestens acht Millionen Pferde ihr Leben. Viele Tausend Ochsen und Wasserbüffel starben beim Transport von Material, Geschütz- und Munitionswagen.

Die Funktion dieser Tiere wurde in der Folge [zum Glück] durch Maschinen ersetzt. Die Maschinen werden heute mehr und mehr durch die Simulation dessen ersetzt, was diese Maschinen produzierten. Das Produkt emulgiert zunehmend in abstrakte Symbole und deren [digitalen] Funktionen.
Der Wert dieser Symbole und Funktionen löst sich von der physikalischen Welt und damit auch von der Welt der Körper. Und damit auch unserer Körper.
Wenn wir all dies weiterdenken, dann entstehen viele Bilder.

Eines davon ist jenes von menschlichen Irrlichtern auf der Suche nach einer neuen Bedeutung, da in der Neuen Welt alles ohne uns schneller, präziser, effektiver und – das Verrückte – vielleicht auch menschlicher erledigt wird.
Wir werden sehen. Oder auch nicht.

Die Existenz erfordert Präsenz.

Die Präsenz wird zum Medium.

Das Medium wird zum Symbol.

Das Symbol ersetzt die Existenz.

Der erste Satz in diesem Text lautete: Eine Maschine hat einen herausragenden Vorteil. Und zwar aus einem sehr banalen Grund: Sie hat kein Verständnis von dem Konzept der Angst.

Wie zu Anfang geschrieben: Es kann auch anders sein, es kann sich anders entwickeln.
Wer weiß, vielleicht ist die Fähigkeit zur Angst ein Vorteil der Menschheit gegenüber einer Künstlichen Intelligenz.


Für alle, die gerne den ersten Teil lesen wollen: KÜNSTLICHE INTELLIGENZ_1 [basics]


Wer doch lieber auf Papier lesen möchte, findet hier das PDF.


© Carl Frech, 2024

Die Nutzung dieses Textes ist wie folgt möglich:

01 Bei Textauszügen in Ausschnitten, zum Beispiel als Zitate (unter einem Zitat verstehe ich einen Satz oder ein, maximal zwei Abschnitte), bitte immer als Quelle meinen Namen nennen. Dafür ist keine Anfrage bei mir notwendig.

02 Wenn ein Text komplett und ohne jede Form einer kommerziellen Nutzung verwendet wird, bitte immer bei mir per Mail anfragen. In der Regel antworte ich innerhalb von maximal 48 Stunden.

03 Wenn ein Text in Ausschnitten oder komplett für eine kommerzielle Nutzung verwendet werden soll, bitte in jedem Fall mit mir Kontakt (per Mail) aufnehmen. Ob in diesem Fall ein Honorar bezahlt werden muss, kann dann besprochen und geklärt werden.

Ich setze in jedem Fall auf Eure / Ihre Aufrichtigkeit.

NEONARZISSMUS_2 [hybris]

Carl Frech
14 min read

JOURNALIMITISMUS

Carl Frech
17 min read