INTELLIGENZ_1 [produktivität]

14 min read

Es ist eigentlich verboten über Intelligenz zu schreiben. Aber gibt es nur eine Form derselben? Gibt es eine Formel? Ich zweifle daran.

Es gibt ein schönes Zitat von George Bernard Shaw, 1856 – 1950, zum Thema Intelligenz:

Der Nachteil der Intelligenz besteht darin, dass man ununterbrochen gezwungen ist, dazuzulernen.

George Bernard Shaw

Darin findet sich eine schöne gedankliche Wurzel zu einer kraftvollen Position gegenüber dem äusserst fragilen Thema selbst: Die Bereitschaft zum stetigen Lernen, zur Offenheit für Veränderung und damit zur Reflexion gegenüber allem, was sicher scheint.
Mir ist schon klar, diese Feststellung berührt nur einen sehr allgemeinen und überaus engen Korridor zum thematischen Komplex der Intelligenz. Ich verfolge auch nicht das Ziel, mich hier umfassend und grundsätzlich zu der Überschrift dieses Essays äussern zu können. Mein Ziel ist eher einer Position, einer Haltung vergleichbar, einer Perspektive, die sich durchaus von der üblichen unterscheiden soll.

Warum ist mir dies wichtig? Die Vorstellung und Erwartungen gegenüber kognitiver Leistungen hat sich in den vergangenen zwei bis drei Jahrhunderten vornehmlich an den Veränderungen der Produktionsmittel orientiert. Dabei scheint das Kernattribut dieser produktiven Mittel, die Sequenzierung eines Ablaufes und damit die inkrementelle Syntax eines Prozesses der Ursprung dessen zu sein, was wir heute, man könnte auch mildernd sagen, zwangsläufig mit Intelligenz in Verbindung bringen.

Wie funktioniert eine Maschine? Zuerst ist eine Maschine, enzyklopädisch betrachtet, ein künstliches Hilfsmittel und damit ein Mittel zur Verrichtung von Aufgaben, die einen Vorteil gegenüber den physischen Möglichkeiten eines Menschen bieten. Sonst würden Maschinen keinen wirklichen Sinn machen. Die damit verbundenen Optionen sind in allen Bereichen menschlicher, also natürlicher Tätigkeiten zu finden.
Lapidar könnte man sagen, eine Maschine war in ihrer Grundintention vor allem eine Externalisierung dessen, was Menschen im Prinzip auch leisten können, aber diese Leistung ab einem gewissen Punkt begrenzt war. Oder sie einfach keine Lust mehr darauf hatten.

Was für Grenzen waren dies? In einer ungefähren Reihenfolge der Entwicklungszyklen von Maschinen waren dies zuerst vorwiegend Tätigkeiten, die durch einen höheren Kraftaufwand der eingesetzten Maschine einen höheren Wirkungsgrad erzielte. Damit verbunden war immer auch ein Zeitgewinn, warum der Ansatz der Effizienz schon früh mit kürzeren Intervallen der notwendigen Zeit in Verbindung gebracht wurde.

In der Folge, ohne hier zu sehr in die Industriegeschichte der Entwicklung von Maschinen vordringen zu wollen, ging es um die zunehmende Genauigkeit, die Präzision [2] der mit einer Maschine bearbeiteten Stücke bzw. Produkte (die ersten Maschinen haben ihre Bewährungsprobe in der Produktion von Textilien bewiesen) und damit auch die Möglichkeit, diese Präzision nicht nur an einem Werkstück sondern das gleiche Ergebnis wiederholt und bei gleicher Qualität immer wieder realisieren, also produzieren zu können.

Spätestens ab diesem Punkt war die Maschine Teil eines Prozesses, der sich von allen davor üblichen Prozesses abgekoppelt hatte. Das ist daher wichtig, da damit auch eine andere, eine neue Perspektive der Potenziale einer Gesellschaft greifbar wurden, die bis zu diesem Zeitpunkt noch im Wettbewerb mit der Tradition standen. Aus Handwerk wurde in bestimmten Bereichen das Kunsthandwerk bzw. die Manufaktur. Aus der Erwartung an ein Produkt als Original wurde ein Artikel, der sich durch seinen Preis, seine Qualität und seine formale Ausprägung Käuferinnen und Käufer suchen sollte.

Damit entstand ein Markt der Substitute (der Ersatz für das Original als Einzelstück) und das war neu. Es ging im Verlauf der Entwicklung maschineller Prozesse um das Produkt in Bezug auf sein generelles Potenzial als Ergebnis effizienter Produktion. Das Produkt wurde zu einer Kategorie wirtschaftlicher Interessen, welche durch die Rekapitulation (Wiederholung) des Bedarfs definiert wurde. Der Wert des Einzelnen wurde dem akkumulierten Wert des Austausches dieses Einzelnen geopfert und damit entstand die ökonomische Idee eines sich permanent erneuerbaren Marktes (und aller seiner Produkte) in immer kürzeren Zyklen.

Wenn wir eine Maschine mit Kinderaugen betrachten, dann hat diese einen Zweck. Man gibt etwas hinein bzw. hat etwas, was mit dieser Maschine verarbeitet werden soll und dann kommt (als Ergebnis) etwas Verarbeitetes heraus, was idealerweise immer gleich aussieht bzw. das Gleiche kann. Dies alles möglichst schnell und ohne grossen Aufwand derer, die von der Maschine profitieren.

Man könnte auch sagen, eine Maschine hat eine Aufgabe bekommen und nun soll die Abgabe alle Kriterien der Vergleichbarkeit des Ergebnisses ermöglichen.
Wenn ich diesen Gedanken nun auf den generellen Ansatz unseres Bildungssystems anwende, dann bin ich weit davon entfernt, die Leistung, das Engagement und die Zugewandtheit weiter Teile derer zu kritisieren, die als Lehrerinnen und Lehrer in diesem System wirken.

Der kleine Umweg bei der Betrachtung einer Maschine als eine Art ethnologisches Derivat (Ableitung) als etwas, was aus etwas anderem entstanden ist, will eher zum Ausdruck bringen, wie sich die Denkmuster, aber auch Glaubenssätze parallel, besser synchron zu der Mechanisierung unserer Welt verändert hat.

Die Räume täglichen Handelns wurden im Verlauf des 17. Jahrhunderts [2] und mit gravierender Dynamik im 18. Jahrhundert immer stärker bestimmt von dem Rhythmus und der Frequenz der aufkommenden produktiven Methoden. Je komplexer diese neuen Abläufe wurden, desto kleiner wurden die Zeiträume für einzelne Aktivitäten, wie überhaupt die Uhr und damit die Sequenzierung der Zeit in [idealerweise] produktive Phasen zum neuen Normativ der sich ändernden Gesellschaften wurde. Wie schon in anderen Texten auch hier ein Zitat von Harold Innis, 18941952, der die Logik dieser Veränderungen wie kein zweiter in drei Perspektiven formulierte:

01 Sie verändert die Struktur der Interessen. 
(Die Dinge, über die nachgedacht wird)

02 Den Charakter der Symbole. 
(Die Dinge, mit denen gedacht wird)

03 Das Wesen der Gemeinschaft.
(Die Sphäre, in der sich Gedanken entwickeln)

Harold Innis

In dem Ausmaß, wie das kontinuierliche Signal der Zeit, als Lauf und Schatten der Sonne auf der Oberfläche der Erde, zu einem diskreten Signal, also einem diskontinuierlichen Signal wurde, verschwand auch zunehmend die Qualität der Zeit selbst als ein in sich endloser Augenblick. Die Zeit bekam ihre Eingrenzung durch Zeitpunkte, Zeiträume und Zeitverläufe. Immer verbunden mit einem Ziel, einer Absicht, die durch ihre Überprüfbarkeit des Ergebnisses sinnstiftend wurde.

Es gab Zeiten, in denen die Zeit selbst die Möglichkeiten der Jahreszeit reflektierte. Die Zeit korrelierte mit der Dauer der Sonnenstunden und damit mit den Jahreszeiten. Ging die Sonne früher auf und später am Abend unter, dann wechselte die Jahreszeit in eine wärmere Phase. Die Sonne und das Licht führte zur Aktivierung der Natur und der Menschen selbst. Alles und alle wurden aktiver. Umgekehrt verband man mit einem späteren Sonnenaufgang und einer früheren Dunkelheit an einem Tag die Zeit, in der man sich auf eine gewisse Form des Rückzuges von zu viel Aktivitäten vorbereiten musste. Man lebte, wenn möglich, von Vorräten, suchte Schutz an Orten, die die Kälte abhielten und wartete auf das nächste Jahr und das Licht.

In der japanischen Kultur gibt es ein Wasserspiel, das besteht aus einer dicken Bambusstange, die so auf einer horizontalen Vorrichtung angebracht ist, dass diese sich mit Wasser füllte und, wenn sie voll ist, nach unten kippt und das Wasser dort entleert. Jedes Kippen führt zu einem dumpfen Schlag, ein Klang, der wie ein Takt die Dynamik der jeweiligen Jahreszeit hörbar machte. Wenn viel Wasser in das Bambusrohr lief, dann wurde der Takt schneller, so im Frühjahr. Im Hochsommer floss weniger Wasser, der Takt verlangsamte sich. Es war das Zeichen, dass mit der Hitze auch die Bewegungen der Menschen langsamer werden sollten. Im Herbst kam wieder der Regen, das Wasser floss wieder schneller. Ich denke, es wird klar, das Leben hatte seine Einbindung in die Umfeldfaktoren, in die Bedingungen des Raumes und seiner Gegebenheiten.

Noch einmal zu der Metapher einer Maschine. In der Antike, vornehmlich bei griechischen Tragödien, aber auch später und bis heute gibt es den Begriff der Deus ex machina. Diese technische Vorrichtung sollte bei Theateraufführungen eine Handlung sichtbar machen bzw. vermitteln helfen, die durch eine menschliche Handlung, dem Schauspiel nicht verkörpert, nicht vermittelbar war.

Eine Art Maschine schuf die Illusion, eine übernatürliche Gestalt, zum Beispiel eine Gottheit, würde von oben zu schweben beginnen und dem Spiel eine unerwartete Wendung geben. Die Maschine (Deus ex machina) sollte all das zeigen und können, was die Menschen auf der Bühne nicht können, durch ihr Spiel nicht vermittelt werden kann. Da sie die Mittel dafür nicht haben. Die Aufwertung des einen (der Maschine) war mit der Abwertung des anderen (der Schauspieler) verbunden. Wenn auch nur subtil und indirekt.

Dieses Beispiel ist natürlich nur eine Metapher für die hier angestellte Spekulation darüber, wie die Entwicklung während der vergangenen wenigen Jahrhunderten den Anspruch an menschliche kognitive Leistungen verändert, besser gesagt, geprägt haben könnte.
Wenn man die Idee der Deus ex machina mit etwas mehr Abstand und Ruhe betrachtet, dann kann man diese Maschine auch so beschreiben: Es entstand der Anspruch an eine ausserordentliche Leistung, ein Zauber, der nur durch diese Form der Externalisierung in ein anderes Ding möglich wurde. Dieses Ding hat die menschlichen Potenziale zurückgelassen und produzierte in der Logik dessen, dass Menschsein als Teil der Evolution immer auch den Vergleich braucht, um die eigene Position zu bestimmen, einen langsam, aber sicher zunehmenden Druck.

Der Druck entstand durch das Prinzip jener Exponenten, die mit jedem produktiven Prozess in Verbindung stehen. Armin Nassehi, * 1960, hat in seinem Buch Muster, Theorie der digitalen Gesellschaft aus einer ganz anderen Perspektive dargelegt, wie sich die Bereitschaft für die zunehmende Digitalisierung unserer Welt und damit die Akzeptanz, diese in die eigene Lebenswirklichkeit zu integrieren, mit dem langsamen Prozess der Industrialisierung in den westlichen Gesellschaften entwickelt hat.

Die Kernaussage basierte auf Nassehis Spekulation, wie die Notwendigkeit zur Erstellung von Listen, die Organisation zunehmend komplexer Produktion über Pläne und damit auch die Gewöhnung an immer kürzere bzw. exaktere Zeiteinheiten wie auch das neue Normativ, dass Menschen über Stammdaten erfassbar sein mussten, damit mit ihnen auch geplant werden konnte, über einen langen Zeitraum den Boden für die Bereitschaft zur Digitalität als gesellschaftliche Realität geschaffen hat.

Ich habe schon über die Prinzipien unserer Bildungseinrichtungen kurz gesprochen. Vergleichbar mit den Prinzipien einer reproduzierenden Maschine war der Ansatz einer Lehre und damit Lehrplanung, die auf einen rekapitulierenden Menschen ausgerichtet war, eigentlich zwangsläufig und wenig erstaunlich.

Wobei dieses Lehrprinzip sicher nicht nur mit den sich entwickelten Produktionsmethoden einen Ursprung hat, sondern wesentlich weiter zurückliegende Wurzeln eine Rolle spielen. Die Möglichkeiten durch Standardisierung mittels der Erfindung des Buchdrucks, aber auch Bildungsanforderungen, die im Zusammenhang wachsender Wirtschaftsräume und Handelsnetze notwendig wurden, sollen hier nur am Rande genannt werden.

Fairerweise muss an dieser Stelle einfügen, man findet natürlich heute durchaus sehr positive Beispiele, bei denen die einzelne Person als einzigartige und individuell zu fördernde Persönlichkeit gesehen wird, doch das Grundprinzip von Bildung hat sich im Grundverständnis trotzdem nur wenig geändert.

Der Ansatz von Aufgabe und Abgabe, die Erfüllung und damit das Abarbeiten einer Lehrplanung in bestimmten Zeitabschnitten und nach identischen Kriterien (zum Beispiel Noten) ist immer noch der Kern gesellschaftlicher Überzeugung, wie sich Kompetenz entwickeln soll bzw. welchen Anforderungen Menschen genügen müssen, damit sie in einem sozialen Gefüge funktionieren.

Wie gesagt, die hier hergestellten Verbindungen, Metaphern und Muster sind eher einer Position vergleichbar. Aber sind die Ähnlichkeiten mit der Wirkmächtigkeit einer zunehmend mechanistischen und digitalisierten Welt nicht leicht zu erkennen?

Was aber ist Kompetenz? Üblicherweise würde man sagen, Kompetenz ist die Sammlung all jenes Wissens, das eine Person über einen bestimmten Zeitraum (zum Beispiel während der Schulzeit) und bis zu einem gewissen Zeitpunkt (zum Beispiel einem konkreten Alter) akkumuliert hat. Viele würden vielleicht auch darüber einstimmen, dass ein grosses Wissen in der Folge mit einem grossen Können (der Anwendung von Wissen) verbunden ist bzw. verbunden sein muss. Das Können braucht dann nur noch den Willen [2] (die Anwendung von Können), um in der Bündelung zum Erfolg geführt zu werden. Kompetenz entstünde dann aus der Eskalation vom Wissen zum Können zum Wollen. Aber ist das so? Anders gefragt: Ist das heute noch so?

Ich bin davon überzeugt, dass sich dieses Konzept mindestens während der vergangenen wenigen Jahrzehnte stark gewandelt hat, vielleicht sogar heute nur noch komplett spiegelverkehrt funktioniert. Wenn man das Wissen generell mit dem Zugang zu demselben gleichsetzt, dann ist dieser in unserer digitalen Realität ohne bedeutenden Widerstand erreichbar. Jeder noch so untypische Eintrag in eine Suchmaschine führt im Bruchteil einer Sekunde zu Hunderttausenden oder Millionen potenziell wertvollen Inhalten. Der Zugang zu denselben (auch wenn die Überprüfung der angebotenen Liste den Zeitraum der verfügbaren Lebenszeit überschreiten würde) nivelliert den Wert jedes einzelnen Inhalts proportional zu der Menge aller Inhalte.

Das ist durchaus dramatisch, wenn auch inzwischen so gewohnt wie die Nutzung eines Lichtschalters, um am Abend ohne darüber weiter nachzudenken selbstverständlich das Licht in einem Raum anzumachen.

Wenn aber der Wert der einzelnen Inhalte (als Träger und Mittel bzw. Vermittler von Wissen) immer geringer wird, wird es immer schwerer, die Bedeutung derselben erfassen zu können. Warum soll das eine bedeutender sein als das andere?
Wir wollen uns hier nicht mit der Qualität von SEOAlgorithmen (der Suchmaschinen) beschäftigen und auch nicht mit den Rezensionen und Referenzen sozialer Gruppen auf digitalen Portalen mit einem vergleichbaren Interesse.
Wichtig ist mir die Spekulation, wie die generelle Zugänglichkeit zu nahezu allen Inhalten (Wissen) eines Themas die einzelne Person komplett überfordert und als Nebeneffekt die gedankenlose Übernahme (Copy & Paste) fördert bzw. zu einer Selbstverständlichkeit macht (verkommen lässt).

Mir ist hier jedoch ein anderer Gedanke wichtiger: Die Überforderung des Einzelnen führt folgerichtig (in der Folge der Normalität) zu dem psychologischen Effekt der subtilen Abwertung der eigenen Person und damit dem eigenen Potenzial. Was ist tatsächlich der eigene Gedanke, die eigene Leistung, die eigene Erfahrung und damit auch die eigene Erkenntnis?
Ich bin davon überzeugt, dass sich dieser Prozess als ein fluides Gift in unseren Gesellschaften eingeschlichen und damit auch den Blick auf den Begriff Kompetenz zunehmend normiert, standardisiert und austauschbar gestaltet hat.

Aus dem Grund wäre ein Ansatz, der nicht die Aggregation von Wissen in den Mittelpunkt rückt, sondern das individuelle Interesse, die schlichte Neugier, verbunden mit dem Mut und der Unbekümmertheit, zu diesem Thema einen eigenen ersten Zugang zu finden, möglicherweise der bessere Weg, um Begeisterung und damit das Potenzial einer Person zu wecken.

Die Aggregation von Wissen, die Anwendung dieses Wissen zu einem ersten Können, gefolgt von dem Wollen, aus der Anwendung dieses Können eine eigene Erfahrung zu machen, führt eher zu einer Gleichschaltung der Ergebnisse, da der Prozess auf dem permanenten Vergleich mit dem Bestehenden aufbaut und keinen wagemutigen, vielleicht auch radikalen und provokativen Gedanken erlaubt.

Wäre es nicht besser und passender zu unserer [digitalen] Realität, das ganze Spiel einfach zu drehen? Ist es nicht wichtiger, die Motivation (Motiv) im Blick zu haben, eine erste eigene Erfahrung damit zu machen (Wollen)?
Wenn ich etwas ausprobiere, vielleicht sogar zuerst nur Fehler mache, so verbindet sich dies mit einer grundlegenden Prägung und damit mit dem, was Lernen im Kern bedeutet:
Das habe ich gemacht! Und sei es auch nur ein erstes Scheitern. Dieser persönliche Prozess führt nahezu immer zu einem ersten Können bzw. einer ersten, wenn auch nur schwach ausgeprägten Fertigkeit. Diese Verbindung mit dem eigenen Körper bzw. der eigenen Existenz und damit auch der eigenen Leistungsfähigkeit befähigt in der Folge zu einer fundierteren Einschätzung darüber, was zur Optimierung des eigenen Weges wirklich relevant ist. Einfach, weil es zu den eigenen Fähigkeiten passt.

Machen (wollen) wird zum ersten und eigenen Können.
Damit entsteht Sicherheit, das fehlende Wissen aus dem Tun heraus auszuwählen, zu beurteilen und passgenau mit den eigenen Zielen zu verbinden.

Damit entsteht Kompetenz als ein eigenes Erlebnis, welches von der freiwilligen Hinterfragung und damit der Erneuerung lebt.
Man kann dies auch Neugier nennen.

Dieses Essay beschäftigt sich mit der Frage, was Intelligenz ist, wie diese definiert werden kann, vor allem jedoch geht es mir um die spekulative Frage, ob es diese eine Intelligenz (als abgrenzbares Konstrukt) überhaupt gibt, ob diese überhaupt in der Evolution vorgesehen ist und wirklich Sinn macht.

Als Hypothese und eigene Position würde ich sagen, Intelligenz ist nicht innerhalb einer Definition eingrenzbar, sondern erfordert immer situativ unterschiedliche Formen bzw. Komplexitäten menschlicher Kompetenz. Wenn die Evolution das Prinzip der Intelligenz als relevanten Faktor der Biologie und damit der Überlebensstrategie von Lebewesen vorgesehen hat, dann macht es ja nur Sinn, wenn diese Anlage komplexere Aufgaben zu meistern hat, als nur den engen Korridor der Aufgaben unserer Gegenwart.

Natürlich kann man die Position vertreten, manche Menschen denken einfach schneller als andere. Dass es Menschen gäbe, die eine grössere Komplexität erfassen und kognitiv verarbeiten können. Oder andere, die als Ergebnis ihrer Fähigkeiten, diese Komplexität zügiger erfassen zu können, eben auch schneller Lösungen entwickeln, damit in ihrem sozialen Umfeld überzeugen und eine herausragende Position gegenüber anderen erhalten.

Damit kommen wir zu einem wichtigen Punkt: Was ist der soziale Grund kognitiver Unterschiede, also die Leistungsfähigkeit der Gehirne, wenn wir Intelligenz so knapp beschreiben wollen?

Es gibt eine Vielzahl theoretischer Grundlagen und entsprechend viele Vertreterinnen und Vertreter, die diese, mehr oder weniger wissenschaftlich bzw. empirisch fundiert entwickelt haben. Jede dieser Theorien beschreibt in der Regel ein Modell als Grundlage eines iterativen Prozesses, also den Versuch, über die Anwendung dieses Modells (als Intelligenztest) den Test selbst permanent zu optimieren und damit gegen andere Theorien zu verteidigen.

Ein Modell, mit dem ich in weiten Teilen übereinstimme, ist das sogenannte triarchische Modell (oder Komponentenmodell von Robert Sternberg, * 1949. Wie der Name schon ahnen lässt, besteht das Modell aus drei Komponenten.

Die Kontexttheorie verbindet die individuelle Intelligenz aller Menschen mit der jeweiligen kulturellen und sozialen Realität. Damit verbunden ist die schlichte Lebensfähigkeit in sozialen Strukturen und die Fähigkeit innerhalb des jeweiligen Normativs einer Gesellschaft zu funktionieren.

Die Zwei-Facetten-Theorie geht davon aus, dass es nicht nur wichtig ist, einmalig den Prozess zu einer Lösung zu kennen, sondern auch die Routine [2], also die iterative Erfahrung auf dem Weg zu einer Lösung zu berücksichtigen.

In seiner Komponententheorie will ich nur drei der fünf, sogenannten Kompenenten, kurz vorstellen:

Die Performanzkomponente unterscheidet Kompetenzen je nach Bereich. Die Leistung variiert mit der Aufgabe. Syntaktische bzw. sequenzielle Problemstellungen (zum Beispiel eine komplexe Rechenaufgabe) erfordert andere kognitive Fähigkeiten als die Verarbeitung eines Narrativs, einer Geschichte bzw. einem kommunikativen Muster, wie es auch bei jedem sozialen Miteinander von Menschen zu einer komplexen Aufgabe der Interaktion werden kann.

Die Metakomponente beschreibt eine Form der Kontrolle auf einer höheren Ebene menschlichen Bewusstseins. Man könnte dies auch mit dem Begriff der Intuition oder dem Instinkt in Verbindung bringen. Hier wird entschieden (überwiegend unbewusst), welches Format kognitiver Leistung (der Performanzkomponenten) zum Einsatz kommen soll.

Die Transfer-Komponente ist eine Art kognitiver Transmitter aller Fähigkeiten. Gespeichertes Wissen und die damit erreichten Fähigkeiten, welche in einer bestimmten Situation erfolgreich waren, werden in anderen Situationen angewandt und damit permanent auf ihr darüber hinausgehendes Potenzial untersucht. Man könnte auch sagen, damit werden ständig Muster unterschiedlicher Lösungsstrategien untersucht und verglichen.

Ein weiterer, aus meiner Sicht wichtiger und innovativer Vordenker zum Thema Intelligenz ist Howard Gardner, * 1943. Er ist aus wissenschaftlicher Sicht umstritten, da seine Modelle durch entsprechende Untersuchungen nicht gestützt werden. Aber was heisst das schon?

Ich werde sein Modell bzw. seine darauf aufbauenden Theorien nur sehr rudimentär vorstellen. Howard Gardner nennt seinen Ansatz Theorie der multiplen Intelligenzen. Darin beschreibt er seine Überzeugung, dass wir nicht über die eine Intelligenz sondern (wie der Name vermuten lässt) über verschiedene Intelligenzen verfügen.

Seine Beschäftigung mit der Hirnphysiologie sogenannter Menschen mit Inselbegabungen (Savants) lässt ihn sogar so weit spekulieren, dass er vermutet, diese multiplen Intelligenzen sind in verschiedenen neuronalen Regionen in unserem Gehirn abgegrenzt verortet und dadurch würde die Beeinträchtigung des einen Bereichs (zum Beispiel durch eine Verletzung oder ein traumatisches Erlebnis) nicht zwingend einen schädigenden Einfluss auf den anderen Bereich haben müssen.

Weiter beschreibt Howard Gardner die sogenannte intrapersonelle Intelligenz als eine explizite Fähigkeit des Bewusstseins über die eigene Existenz, die eigenen Fähigkeiten und auch der Einschätzung, wie man in bestimmten Situationen reagiert bzw. welche Fähigkeiten in diesen Situationen zu einem Erfolg führen (können).

Die davon abgeleitete interpersonelle Intelligenz meint die Fähigkeit, eine gewisse Vorhersage darüber treffen zu können, wie das soziale Umfeld [spekulativ] in einer bestimmten Situation reagiert. Letztlich geht es um Empathie, sich in andere Menschen hineinzufühlen und damit Vorhersagen treffen zu können, wie diese entweder auf das eigene Verhalten reagieren oder welches eigene Verhalten günstiger wäre, um eigene oder gemeinsame Ziele zu erreichen.

Wie schon erwähnt verband Howard Gardner seine Thesen mit der Spekulation über die Hirnphysiologie am Beispiel von Inselbegabungen (Savants). Dieses Phänomen, das auch als Teilleistungsstärke bezeichnet wird, meint besondere, in sich geschlossene Extrembegabungen bzw. Kompetenzen, die sich von der normalen Leistungsfähigkeit des menschlichen Gehirns gravierend unterschieden und nur teilweise bzw. spekulativ erklärt werden können.

Spannend dabei ist jedoch der Aspekt unterschiedlicher Funktionseinheiten des Gehirns im Zusammenhang menschlicher Kognition. Das ein Gehirn in hemisphärische bzw. generell in neuronalen Teilbereichen unterschiedlich komplexe Aufgaben für den menschlichen Körper übernimmt bzw. als Steuerungseinheit in allen Situationen des Lebens funktioniert, ist nicht neu und relativ umfassend erforscht.

Es geht mir auch nur um das Phänomen der Arbeitsteilung selbst, verbunden mit der Frage, ob dies, wenn man der Logik folgt, auch für jene kognitiven Abläufe eine Rolle spielt, die im Zusammenhang der menschlichen Intelligenz notwendig sind.

Wie schon weiter oben betont, es gibt viele Ansätze zum Thema der Definition von Intelligenz bzw. dem damit verbundenen Anspruch an eine Messung.
Solche Versuche der Eingrenzung eines so volatilen (schwankenden) Themas findet seinen Grund meistens in den Strukturen einer Gesellschaft bzw. den dort dominanten Gruppen und Interessen. Dieser erste von zwei Teilen zum Thema Intelligenz versuchte die soziokulturellen, aber auch die ökonomischen und damit die produktiven Rahmenbedingungen in den Blick zu nehmen, warum eine bestimmte Form der Einordnung zu dem, was man unter Intelligenz verstehen soll, im Interesse eben jener Teile einer Gesellschaft sind, die damit ihre Ziele verfolgt.

Das ist in Ordnung und sicher auch ein Grund der prosperierenden Entwicklung, die die Menschheit in den vergangenen Jahrhunderten genommen hat. Ob damit auch eine Lösung für die Zukunft erfolgte, ob damit das Bedürfnis nach Glück und Zufriedenheit der Menschen genügend berücksichtigt wurde, das ist eine ganz andere Frage.

Daher geht es mir auch um eine gewisse Systemkritik an der Gesellschaft selbst, die sich eher mit Mut und Entschlossenheit mit den verborgenen Potenzialen konfrontieren sollte, als diese in einem Schema kontrollieren zu wollen.

Darum geht es im nächsten Teil.

Für alle die gerne weiterlesen: INTELLIGENZ_2 [variabilität]

© Carl Frech, 2021

Die Nutzung dieses Textes ist wie folgt möglich:

01 Bei Textauszügen in Ausschnitten, zum Beispiel als Zitate (unter einem Zitat verstehe ich einen Satz oder ein, maximal zwei Abschnitte), bitte immer als Quelle meinen Namen nennen. Dafür ist keine Anfrage bei mir notwendig.

02 Wenn ein Text komplett und ohne jede Form einer kommerziellen Nutzung verwendet wird, bitte immer bei mir per Mail anfragen. In der Regel antworte ich innerhalb von maximal 48 Stunden.

03 Wenn ein Text in Ausschnitten oder komplett für eine kommerzielle Nutzung verwendet werden soll, bitte in jedem Fall mit mir Kontakt (per Mail) aufnehmen. Ob in diesem Fall ein Honorar bezahlt werden muss, kann dann besprochen und geklärt werden.

Ich setze in jedem Fall auf Eure / Ihre Aufrichtigkeit.