DIGITALITÄT

9 min read

Alles wird digital. Irgendwann verschwinden wir in einem Symbol und schweben um die Welt.

Es ist schwierig, sich diesem inflationären Thema gedanklich bzw. beschreibend zu widmen. Daher ist diese Betrachtung lediglich als kurze Übersicht bzw. als Einstieg gedacht. Weitere Texte werden sich aus anderen Perspektiven mit dem Thema der Digitalität beschäftigen.

Im Grundsatz basiert Digitalität auf der Entdeckung und den Potenzialen der Elektronik, genauer: dem elektronischen Signal. Das ist, einfach ausgedrückt, eine physikalische Grösse, welche sich durch technische Hilfsmittel in Bezug auf die Stromstärke, die Spannung und den Widerstand steuern und messen lässt.
Ein technisches Mittel, ohne das zum Beispiel die Schaltung von Stromkreisen nicht möglich gewesen wäre, ist das Relais, welches im Jahr 1835 von dem amerikanischen Physiker Joseph Henry im Prinzip entdeckt und entwickelt wurde. Ein Relais ist eine einfache Schaltung, die einen Stromkreis unterbricht und wieder öffnet. Ohne diese grundlegende Entwicklung wäre die darauf aufbauende Telegraphie [2] und damit das Telegramm (vormals die telegrafische Depesche) nicht möglich gewesen. 

Ohne die Erfindung des Relais wäre auch der Transistor kaum vorstellbar gewesen. Die Grundintention eines Transistors ist dem eines Relais ähnlich. Auch hierbei handelt es sich um ein Bauelement, welches und das ist der wesentliche Unterschied, zum Steuern niedriger elektrischer Spannungen und Ströme vorgesehen ist. 

Letztlich ist die moderne Nachrichtentechnik und damit auch die Computertechnologie ohne Transistoren nicht möglich, da die Verarbeitung eines Programms im Grunde auf der Auslesung des digitalen, binären Codes basiert. Da dieser im Grunde nichts anderes macht, als eine ja/nein-Information zu ermitteln und damit den Stromfluss an- und ausschaltet, ist eben dieser Transistor die Zentrale Plattform für diesen Vorgang. 

Die heute bekannten Speichertechnologien wie zum Beispiel RAM-Speicher, Flash-Speicher, Mikrocontroller, vor allem aber Mikroprozessoren benötigen alle Transistoren. Und dafür eine ganze Menge. 

Die Computerchips, welche im Jahr 2020 eingeführt wurden, wir sprechen hier von einem Fingernagel grossen Bauteil, ohne dessen Datenverarbeitung zum Beispiel die Komplexität eines Smartphones nicht möglich wäre, hat dann ca. 30.000.000.000 Transistoren in einer Baudichte von 5 nm (Nanometer). Das ist so klein, dass in dieser Struktur nur noch wenige Siliziumatome nebeneinander liegen können. 

Ein Siliziumatom hat die Breite von 0,3 Nanometer, bei 5 Nanometer bleibt also nur noch für knapp 17 Atome Platz. Was das im heutigen Alltag zum Beispiel bei der banalen Nutzung eines Smartphones bedeutet, macht folgende Zahl deutlich. Ein Apple iPhone, das im Jahr 2019 auf den Markt kam, ist zu fünf Billionen Rechenoperationen pro Sekunde fähig und wäre damit mehr als eine Million mal schneller als der leistungsstärkste Computer, der für die Landung auf dem Mond verwendet wurde. 

Gordon Moore hat diese Leistungsentwicklung im Jahr 1965 vorher gesagt. Demnach verdoppelt sich die Speicherdichte auf den sogenannten integrierten Schaltkreisen, nennen wir sie einfach Computerchips, ungefähr alle 12 bis 24 Monate. Das oben genannte Grössenvergleich zeigt aber, dass es langsam eng wird. Zurück zu der einfachsten Form eines Transistors, dem Relais.

Der Begriff Relais kommt ursprünglich aus dem Postwesen und bedeutet im Zusammenhang der Gründung im Jahr 1490 durch Franz von Taxis die Station, an der die Postkuriere ihre Pferde gewechselt haben, um damit möglichst schnell und ohne gravierende zeitliche Verzögerung eine Botschaft überbringen zu können. Die exakten Details dieses Vorganges spielen hier keine wichtige Rolle. Wichtig allerdings ist, diese konkreten Orte erhielten in der Folge eine zentrale wirtschaftliche Bedeutung. 

Sie waren im engeren Sinn ein Knotenpunkt und damit auch eine Schnittstelle jener Funktion, um eine Information von einem Ort zu einem anderen, also von A nach B zu bringen. Diese Urfunktion und ihre wirtschaftliche Auswirkung kann man durchaus mit der Idee eines Marktplatzes und seiner zentralen Rolle generell vergleichen. Menschliche Ansiedlungen folgen gerne der Idee eines Zentrums, in unserer Kultur bzw. traditionell oft dominiert von einer Kirche als heraldischer Mittelpunkt. Ein Machtzentrum, welches die Basis für Kommunikation, Information und Transaktion bietet. 

Dieser Vergleich ist einem digitalen Marktplatz wie zum Beispiel Amazon als dem global grössten Portal für kommerziellen Austausch recht ähnlich. Wie bei Amazon spielt die Planungssicherheit und hier vor allem die Organisation von Zeit eine grosse Rolle.

Denn auch schon bei den Relaisstationen der Postdienste wurden diese im geografischen Abstand einer Tagesreise aufgebaut.
Mit der zeitlichen Eingrenzung entstand im Prinzip ein erster [logischer] Ansatz für Digitalität in Form eines sogenannten diskreten, besser: zeitdiskreten Signals. 

Wenn man die Boten und ihre galoppierenden Pferde als kontinuierlichen Prozess und in der Analogie unseres Themas als analogen Ablauf bezeichnet, dann sind die Relais jene temporären Abtastungen, also die konkreten Unterbrechungen, welche die Grundidee des Ablaufes und damit die Überbringung einer Botschaft über eine lange Distanz erst möglich machten. 

Was aber hat all das mit dem Thema der Digitalität zu tun?
Manche Details werden wir hier überspringen. Wichtig ist aber:
Ein elektronisches Signal kann im Grundsatz nicht analog oder analog erfolgen. Darauf aufbauend unterscheidet man technisch ein diskretes (wie oben kurz beschrieben) oder ein kontinuierliches Signal. Dies ist in soweit wesentlich für das Verständnis der Digitalität, da damit klar wird, dass ein digitales Signal im Kern immer ein diskretes Signal ist!

Ein diskretes Signal kann in der weiteren Logik der Betrachtung ein nicht digitales oder ein digitales Signal sein, in beiden Fällen bleibt das Prinzip eines diskreten Signals, welches (und damit wesentlich deskriptiver beschrieben) auch als diskontinuierliches Signal bezeichnet wird. 

Eine Übersicht elektromagnetischer Signale.

Als nicht digitales Signal bleibt es erst einmal nur Strom und wird, vor allem die Stromstärke, die Spannung und der Widerstand quantifiziert, modelliert und eben, wie beschrieben, abgetastet und damit gesteuert (komplizierter wollen wir hier nicht werden).

Wir betrachten im weiteren ein digitales Signal. Dieses ist dadurch gekennzeichnet, dass es ein im Grunde analoges Signal zeitlich abtastet und damit auf einer [kontinuierliche Kurve] fixiert. Der jeweilige Wert wird in jedem Fall auf- oder abgerundet. Sonst würde es ja nicht diskontinuierlich. Streng genommen ist also ein digitales Signal immer eine reduzierte und damit eigentlich auch eine schlechtere Version des kontinuierlichen Signals (als natürlicher Input). Erst die Geschwindigkeit der technischen Systeme (hier vor allem Computer) und die Trägheit der Rezeption durch den Menschen nivelliert dies in die Unbedeutsamkeit, wenn wir heutige digitale Technologien und Medien betrachten. 

Wichtig ist dabei auch, dass durch die Differenzierung des Signals in diskontinuierliche Phasen das Signal wesentlich besser steuerbar wird und damit die [technische] Störanfälligkeit wesentlich reduziert werden kann. Vor allem aber steigert es die Produktivität bzw. die Reproduktionsfähigkeit des zu verarbeitenden Signals.

Nehmen wir ein einfaches Beispiel, um den Unterschied zwischen einem kontinuierlichen und einem diskontinuierlichen Signal deutlich zu machen.

Wenn wir unseren natürlichen Zeitmesser, die Sonne betrachten, dann genügt es schon, wenn man einen Stock in die Erde steckt, um das kontinuierliche Signals der Bewegung von Licht durch die tägliche Rotation der Erde sowie die jährliche kreisrunde Bewegung um die Sonne deutlich zu machen. 

Ein digitales Signal muss nun diesen zeitlichen Ablauf berechnen und wird daher, als Ergebnis der Diskontinuität, immer nur eine Annäherung an die natürliche, exakte Zeit sein können. Wenn auch durch einen verschwindend kleinen Wert.

Auch die menschliche Stimme, wie jeder natürliche Ton ist eine analoge Frequenz, das heisst, sie folgt einer kontinuierlichen Kurve. Um die Dimension dieser Unterscheidung zu begreifen, kann man hervorheben, dass der sogenannte MIDI-Standard (Musical Instrument Digital Interface) erst im Jahr 1982 als [digitaler] Industriestandard festgelegt wurde und damit auch die Basis des Kompressionsverfahren für digitale Musik, MP3 legte.
Entwickelt wurde dieser Standard, ebenfalls startend im Jahr 1982, unter der Leitung von Hans-Georg Musmann, vor allem von Karlheinz Brandenburg am Fraunhofer-Institut für Integrierte Schaltungen (IIS) in Erlangen. 

Bis 1982 waren daher Töne und damit auch beispielsweise der Kammermusikton A zwar in seiner Hertz-Frequenz (Hz) überwiegend festgelegt, aber, wenn auch messbar, eben doch eine Frage der individuellen [analogen] Interpretation des jeweiligen Orchesters. Der internationale Standard waren 440 Hz, in deutschen und österreichischen Orchestern waren 443 Hz, in der Schweiz 442 Hz üblich. 

Erst mit dem digitalen MIDI-Signal einigte sich die Industrie auf einen Standard für damit verbundene Produkte (damals vor allem Synthesizer und Keyboards), eröffnete aber gleichzeitig eine gewaltige Entwicklung bzw. radikale Veränderung in der Musikindustrie, die zu der Zeit nur in Teilen absehbar war. 

Wir nutzen dieses Beispiel als eine Art Verständnishilfe und damit als einen Umweg, um die Idee und das Potenzial der Digitalität nachvollziehbar, vor allem erzählbar zu machen.

Der Begriff der Digitalität nutzt in seinem Wortstamm den englischen Begriff digit für Ziffer. In der lateinischen Ableitung steht der Begriff digitus für Finger. Der menschliche Finger ist in drei [Knochen] Elemente unterteilt und vermutlich einer der wichtigsten Teile des Körpers eines Homo Sapiens um auf etwas zu zeigen. Er ist damit also auch ein Zeiger, man könnte auch sagen, die Referenz, die das eine vom anderen unterscheidet, wobei wir der etymologischen Logik, vor allem aber der Metapher für den Begriff der Digitalität näher kommen. 

Ein digitales Signal ist im Grunde ein [referenzierender] Zeiger, der einen [skalierbaren] Zahlenwert nutzt, um das zu tun, was jeder Taschenrechner macht, eben zu rechnen.

Es gibt verschieden Codierungen, um ein digitales Signal zu beschreiben. Üblicherweise kennen wir das binäre System. Der sogenannte ASCII-Standard (American Standard Code for Information Interchange) [x] nutzt lediglich die Zahlen 1 und 0 um über eine 7-Bit-Codierung 128 Zeichen zu ermöglichen, die letztlich das lateinische Alphabet mit seinen 26 Zeichen und die Sonderzeichen für den Ausdruck definierbar macht. 

Der heute übliche Ausdruck auf einem Drucker wurde damit grundlegend möglich, wobei erst die von dem amerikanischen Unternehmen Adobe Anfang der 1980er Jahre entwickelte Seitenbeschreibungssprache Postskript tatsächlich den Algorithmus bot, damit tatsächlich das aus dem Drucker heraus kam, was gedruckt werden sollte. Die grundlegende Idee dazu wurde von John Warnock entwickelt, der später bei Xerox PARC arbeitete, wo die grundlegenden Desktop-Metaphern heutiger Computer erdacht und entwickelt wurde.
Die heute schon anachronistische wirkende Formel WYSIWYG ist das Akronym für What You See Is What You Get. Es war damals eine kleine Revolution, dass das, was man auf dem Bildschirm gesehen hat, auch so ausgedruckt werden konnte. 

Dieser Standard ist heute weitgehend (ebenfalls als eine Entwicklung von Adobe) durch das PDF (Portable Document Format) abgelöst.

Diese Idee einer Seitenbeschreibungsprache liegt auch dem Ansatz zugrunde, wie sich die heutige Version des Internet für eine globale Nutzung entwickelt hat. Am CERN in Genf, der Europäischen Organisation für Kernforschung entwickelt ein Team unter der Leitung von Timothy Berners-Lee eine Seitenbeschreibungssprache, das sogenannte HTML (Hypertext Markup Language), um Forschungsergebnisse international mit den beteiligten Einrichtungen teilen und austauschen zu können. 

Am 3. November 1992 erschien die erste Version einer HTML-Spezifikation, die darauf folgenden Entwicklungen in dem dann für die Öffentlichkeit zunehmend verfügbaren Internet sind bekannt und haben zu radikalen, zu grenzenlosen Veränderungen geführt.

Mit dem oben beschriebenen ASCII-Standard, der Nutzung der Zahlen 1 und 0, sowie der damit beschreibbaren Anzahl von 128 Zeichen, haben wir im wesentlichen das klassische Schulwissen zum Thema Digitalität erreicht.
Wir wollen hier nicht weiter vordringen. Semantisch wichtig ist allerdings die grundlegende Differenzierung von wahr und falsch (1/0) und dem Potenzial, die durch diese Form der Codierung in der Folge und Dimension möglich wurde. 

Das Prinzip wäre im Grunde auch mit Feuer und Rauchzeichen möglich. Das wesentliche Potenzial dieser Methode liegt jedoch in der Performanz, also der Geschwindigkeit, mit der komplexe Berechnungen, vor allem aber die Speicherung von Daten möglich wurde. Dem digitalen Datensatz, und hier machen wir nun einen guten Sprung und lassen einiges zum Thema Digitalität zurück, ist es im Grunde egal, was er beschreibt. 

Er ist nur die [symbolische] Referenz für einen Vorgang, der [algorithmisch] berechnet werden kann und immer eine Simulation der analogen, der physikalisch anfassbaren Wirklichkeit darstellt. 

Jedes digitale Signal ist eine symbolische Referenz für einen Vorgang, der im Ergebnis zwingend zu einer Simulation der analogen und damit physikalischen Wirklichkeit führt.

Wenn wir also auf dem Bildschirm eines Computers das Symbol eines Papierkorbes sehen und damit seine [konventionelle] Funktion des Wegwerfens verstehen und nutzen, dann ist dieses Symbol kein Papierkorb im physikalischen Sinn. Der Computer muss über die Interpretation eines Signals dieses Symbol relativ aufwendig für den Menschen übersetzen, damit dieser die Funktion erkennt und dann erst innerhalb seiner kulturellen Prägung nutzen kann. 

Auch dieser [hier lesbare] Text ist kein Text, der einzelne Buchstabe kein Buchstabe, der Abstand zwischen den Wörtern kein Abstand, die Farbe Schwarz auf der Farbe Weiss kein Schwarz und kein Weiss, sondern nur die symbolische bzw. die algorithmische Interpretation derselben.

Wäre der Computer mit sich alleine, dann wäre dieser Aufwand nicht nötig. Es wird schnell klar, wohin wir mit dieser Betrachtung wollen. Digitalität nutzt sein, vor allem ökonomisches Potenzial durch die Geschwindigkeit der Berechnung, sowie die Logik und damit das Rezept in Form eines Algorithmus, welcher eine bestimmte Funktion ermöglichen soll.

Wäre der Computer mit sich alleine, dann wäre der Aufwand für die Interpretation der damit verbundenen Funktionen und Prozesse um ein Vielfaches geringer.

Letztlich reduziert sich Digitalität immer auf die Zahl und ein damit verbundenes System. Der Binärcode ist im Kern ein Dualsystem. Wir kennen und rechnen üblicherweise mit dem Dezimalsystem (unsere Zahlen von 0 – 9). Darüber hinaus gibt es das Hexadezimalsystem, das auf einem 16er-System basiert. Es gibt aber auch Oktalsysteme und weitere, die das grundlegende Verständnis zum hier avisierten Thema nicht weiter anreichern.

Wichtig zu der Überschrift Digitalität ist die Aussage, dass damit jede Nutzung nur über ein logisches, auf Zahlenwerten basierenden System möglich wird und immer eine Simulation der vom Menschen rezipierbaren Realität darstellt. 

Sie entziehen sich durch die Resolution (Auflösung) und Performanz (Geschwindigkeit) komplett der menschlichen Wahrnehmung. 

Das ist wichtig, da, wie schon weiter oben erwähnt, mit der Digitalisierung immer ein Verlust in Verbindung steht.

Mit anderen Worten könnte man auch sagen, dass jede Digitalisierung immer eine Art Filterung der realen Welt darstellt.

Allerdings auch mit einem radikalen und einzigartigen Vorteil. Es war das erste, von Menschen erdachte und gemachte Werkzeug, das die Zeit zurückdrehen konnte. Wenn auch nur im Prinzip.

Prinzip UNDO: Ein Computer als prominentester Vertreter der Digitalität ist das erste vom Menschen realisierte Werkzeug, das einen Schritt zurück erlaubt, ohne Spuren zu hinterlassen.

Die Bedeutungslosigkeit ihres [Rechen-] Potenzials durch reine Zahlen hat damit das erste Werkzeug geschaffen, das einen Vorgang komplett und ohne bleibende Spuren reversibel macht.

Wäre da nicht die darüber hinaus gehende Intention des machthungrigen Menschen, genau diese Spuren zu speichern und ökonomisch bzw. produktiv zu verwerten.


Wer doch lieber auf Papier lesen möchte, findet hier das PDF.


© Carl Frech, 2020

Die Nutzung dieses Textes ist wie folgt möglich:

01 Bei Textauszügen in Ausschnitten, zum Beispiel als Zitate (unter einem Zitat verstehe ich einen Satz oder ein, maximal zwei Abschnitte), bitte immer als Quelle meinen Namen nennen. Dafür ist keine Anfrage bei mir notwendig.

02 Wenn ein Text komplett und ohne jede Form einer kommerziellen Nutzung verwendet wird, bitte immer bei mir per Mail anfragen. In der Regel antworte ich innerhalb von maximal 48 Stunden.

03 Wenn ein Text in Ausschnitten oder komplett für eine kommerzielle Nutzung verwendet werden soll, bitte in jedem Fall mit mir Kontakt (per Mail) aufnehmen. Ob in diesem Fall ein Honorar bezahlt werden muss, kann dann besprochen und geklärt werden.

Ich setze in jedem Fall auf Eure / Ihre Aufrichtigkeit.

FRAGEN & ANTWORTEN

Carl Frech
6 min read

NEONARZISSMUS_2 [hybris]

Carl Frech
14 min read