Technische Singularität

Gold News vom 4. Juni 2024

Gold & Gesellschaft

Noch vor kurzem war die TAZ-Redakteurin Ulrike Herrmann mit ihren Thesen zum ‚Grünen Schrumpfen‘ und dem ‚Ende des Kapitalismus‘ in allen Schlagzeilen. Schließlich schien diese Nachricht ja gut zu der ausgerufenen Klimawende zu passen.

Aber es war alles nur eine große Show für die Intelligenz-Bestien der Forrest Gump-Generation [die Monteure, Drogen-Abhängigen, Hooligans, sich freiwillig wie die SS selbst markierten und Rammstein-Fans haben es sowieso nicht bis zu diesem Punkt geschafft]: „Chat-GPT fragen könnte 30 Mal so viel Strom brauchen wie googeln. Das ist ein Problem für das Klima. Immer mehr Menschen nutzen künstliche Intelligenz auch im Alltag. Zum Stromverbrauch ist indes wenig bekannt. Von der Klärung dieser Frage hängt ab, ob sich Sprach-KI wirtschaftlich überhaupt lohnt“ schrieb die NZZ bereits Mitte Februar.

Ein Einzelfall? Nein: Hier ist ein weiteres Beispiel. Einen Bitcoin zu minen [schürfen] kostet inzwischen mehr Energie, als die entsprechende Menge Gold aus der Erde zu buddeln, mechanisch zu zerkleinern und mit toxischen Chemikalien dem Gestein abzuringen.

You stop growing and you die’ proklamiert Geoffrey West, Professor für theoretische Physik und Buch-Autor nebst Vortrags-Gast bei hochangesehenen‘ Unternehmen (Google) und Institutionen (WEF). Heißt nicht, dass er zu den System-Widerlingen gehört. Aber diese sammeln gerne Erkenntnisse auf dem Marktplatz, die sie entsprechend nützlich für sich verwenden können.

Nun wird er bei seinen Vorträgen meist auf die Wachstums-Phase z.B. von Großstädten mit ihren weitgehend mathematisch modellierbaren Bedarf an Energie, an Sicherheit, an Verkehr, an sozialer Interaktion, etc. reduziert. Mit dem Ergebnis, dass die Tendenz zur Urbanisierung eine gute Entwicklung sei, die darüber hinaus auch noch dem Ressourcen-Verbrauch pro Einwohner optimiert.

Ketzerische Frage: Wie war das noch einmal mit den geplanten Mega-Städten [170km lang, 200m breit, 500m hoch] in der Wüsten, wo man die Menschheit mit Insekten gefüttert, verfrachten möchte?

Aber wie der römische Philosoph und Stoiker Lucius Annaeus Seneca bereits vor 2.000 Jahren feststellte: „Es wäre ein Trost für unsere schwachen Seelen und unsere Werke, wenn alle Dinge so langsam vergehen würden, wie sie entstehen; aber wie dem so ist, das Wachstum schreitet langsam voran, während der Weg zum Ruin schnell verläuft.

Für die Ruin-Phase hat Geoffrey West auch eine Antwort. Diese fällt allerdings wenig beruhigend aus, wenn man sich die eine Stunde seines Vortrags bei Google-Mitarbeitern gönnt [„Searching for Simplicity & Unity | Geoffrey West | Talks at Google“].

Ab Minute 47 wird es wirklich interessant.

Solche sozio-ökonomischen Systeme treten nämlich einmal in eine Wachstumsphase ein, bei der der Anstieg selbst mit Hilfe der Exponential-Funktion nicht mehr abbildbar ist. Steiler als exponentiell mit dem Ergebnis der Unendlichkeit: Das geht nicht. Das führt unweigerlich zum Kollaps.

Wie kann man den verhindern? Durch Innovation. Diese setzt die Wachstum-Kurve praktisch wieder auf einen Punkt zurück, von dem man wieder wachsen kann.

Aber hat wieder ein anderes Problem. Da man mit jeder neuen Innovation von einem [hohen ] Status Quo – wer möchte gerne auf sein iPhone verzichten, weil er sonst wieder zurück zur Steinzeit gehen müsste - starten muss, verliert die Innovation mit immer weiter steigender Geschwindigkeit ihre Wirkung. Es braucht also in immer kürzeren Abständen eine neue Innovation, um den Kollaps dieses Systems verhindern zu können.

Nun ist das Problem mit der Künstlichen Intelligenz nicht nur der enorme Stromverbrauch, sondern ein weiterer: Technisches Wachstum wird unkontrollierbar und irreversibel und damit zu einem unkalkulierbaren Risiko für die menschliche Gesellschaft.

Ich kenne die Gedanken von Elon Musk nicht. Aber er warnt ja auch vor den Gefahren der Künstlichen Intelligenz für das Menschheits-Geschlecht.

Versuchen wir einmal ein Beispiel: Den massiven Einsatz von Drohnen in den diversen militärischen Konflikten. Hier wird schon erkennbar, wie mechanisierte Kriegsführung den Punkt erreichen kann, um menschliche Soldaten weitgehend wirkungslos zu machen.

Wenn der Punkt erreicht ist, wo die Summe aller menschlichen Intelligenz kleiner ist, als die gesamte künstliche Intelligenz, wird der Mensch nicht darumkommen, dieser Maschine auch mehr Kontrolle als den Menschen zu übertragen. Weil man ohne automatisierte Kriegsführung zukünftig nur noch verlieren wird. Das gilt auch für die die menschliche Zivilisation bedrohenden Nuklearwaffen.

Diese Gefahr nennt sich Technische Singularität.

PS: Ich habe noch nicht einmal einen Hauch an Ideen, um dieses systematische Problem in den Griff zu bekommen. An den reinigenden Crash oder eine imaginäre Ordnungsmacht glaube ich inzwischen nicht mehr. Es läuft derzeit nur noch nach den Gesetzen der Stochastik ab: Was ist wahrscheinlicher: In Deutschland auf der Straße gemessert zu werden, oder in Bulgarien vom Bär gefressen zu werden?

Kommentare zu diesem Thema

- Noch kein Kommentar vorhanden -

zurück zur Liste Kommentar schreiben