Halal Media Solution – Susann Uckan

Videobearbeitung, Grafik Design, Copywriting, Halal Business und Digital Marketing

Nicht die KI wird uns Menschen irgendwann auslöschen, es werden irre Menschen sein, die KI bedienen können.

Zitat von Susann Uckan: Nicht die KI wird uns Menschen irgendwann auslöschen, es werden irre Menschen sein, die KI bedienen können

„Die wahrscheinlichste kurzfristige Gefahr ist die Entwicklung fortschrittlicher biologischer Waffen mithilfe von KI durch Psychopathen oder Terroristen, die in der Lage wären, Milliarden von Menschen zu töten.“

Dieser eine Satz hat mich zum Nachdenken gebracht.

Der Auslöser: Ein düsteres Bild der Zukunft

Ich habe mir den Podcast von „The Diary of a CEO“ mit dem Gast Dr. Roman Yampolskiy angeschaut. Es geht um KI und die Gefahren einer Superintelligenz.

(Zugegeben, habe ich NotebooksLM von Google benutzt, um mir einen Überblick über das Video zu verschaffen.)

Vieles in diesem Video klingt sehr düster… einiges gar zu „verschwörerisch“ ABER… dieser eine Satz, den NotebooksLM da rausgespuckt hat, saß tief in meinem Gehirn fest.

Dr. Roman Yampolskiy ist kein Verschwörungstheoretiker. Er ist ein weltweit anerkannter Experte für KI-Sicherheit, außerordentlicher Professor für Informatik und hat sogar den Begriff „KI-Sicherheit“ geprägt. Seit über 15 Jahren arbeitet er auf diesem Gebiet. Ursprünglich war er davon überzeugt, dass sichere KI machbar sei – heute ist er zu einer ernüchternden Erkenntnis gelangt: Es ist nicht der Fall.

Die paradoxe Entwicklung: Exponentieller Fortschritt bei KI, linearer bei der Sicherheit

Was Yampolskiy besonders beunruhigt, ist die Kluft zwischen KI-Entwicklung und KI-Sicherheit. Der Fortschritt in der KI-Fähigkeit ist exponentiell oder sogar hyper-exponentiell, während der Fortschritt in der KI-Sicherheit bestenfalls linear bleibt. Die Entwickler „patchen“ Sicherheitsprobleme, anstatt sie grundlegend zu lösen… wie HR-Handbücher, bei denen clevere Mitarbeiter immer wieder Wege finden, Regeln zu umgehen.

Noch beunruhigender: Selbst die Entwickler von Systemen wie ChatGPT verstehen nicht vollständig, wie diese KIs funktionieren. Es ist eher eine Wissenschaft des Beobachtens eines „außerirdischen Gewächses“ als ein Engineering-Prozess.

Die Zeitlinie des Wandels: Näher als wir denken

Yampolskiys Prognosen sind erschreckend konkret:

  • 2027: Künstliche Allgemeine Intelligenz (AGI) wird Realität
  • 2030: Humanoide Roboter werden in allen Bereichen, selbst in Handwerksberufen, mit Menschen konkurrieren können
  • 2045: Die Singularität – der Punkt, an dem der Fortschritt so schnell wird, dass Menschen nicht mehr mithalten können

Die Konsequenz? Arbeitslosigkeit von bis zu 99%. „Es macht keinen Sinn, Menschen für die meisten Jobs einzustellen, wenn ich nur ein 20-Dollar-Abonnement oder ein kostenloses Modell bekommen kann“, erklärt der Experte.

Meine Erkenntnis: Der Mensch als größte Gefahr

Denn ich bin mir sicher, dass KI nicht nur positive Energien potenzieren kann. Es wird auch die böse Seite in Menschen vervielfachen, und was bisher noch mühsam mit begrenzten Mitteln und Fähigkeiten zur Auslöschung mehrerer Menschen führen konnte…

… so wie ein Unternehmer mithilfe von KI mehr schlecht als recht, aber dennoch schnell und einfach zum Beispiel Texte für Social Media hinbekommt… so kann ein Psychopath mit etwas Wissen und mit der Hilfe von KI seine begrenzten Fähigkeiten ausgleichen und etwas entwickeln, was Menschen auslöscht.

Die demokratisierte Zerstörungskraft

Hier liegt das wahre Problem: KI demokratisiert nicht nur Wissen und Fähigkeiten, sondern auch Zerstörungspotential. Bisher brauchte es für die Entwicklung biologischer Waffen jahrzehntelange Ausbildung, millionenschwere Labore und große Teams von Spezialisten. Mit KI als Assistenten könnte theoretisch eine einzelne Person mit bösartigen Absichten und grundlegendem Wissen verheerende Waffen entwickeln.

Yampolskiy warnt vor diesem Szenario als der wahrscheinlichsten kurzfristigen Gefahr – noch vor der eigentlichen Superintelligenz. Während wir uns Sorgen über rebellierende Roboter machen, übersehen wir die unmittelbare Bedrohung: Menschen, die KI als Werkzeug für ihre destruktiven Ziele nutzen.

Der Verlust des Lebensinns: Wenn Arbeit verschwindet

Doch die Gefahr durch KI-gestützte Waffen ist nur ein Teil des Problems. Die massive Arbeitslosigkeit von bis zu 99%, die Yampolskiy prognostiziert, bringt eine gesellschaftliche Herausforderung mit sich, die weit über wirtschaftliche Aspekte hinausgeht: den Verlust des Lebenssinns.

Für Millionen von Menschen definiert sich Identität und Zweck über ihre Arbeit. Wenn diese wegfällt, entsteht nicht nur ein wirtschaftliches, sondern ein existenzielles Vakuum. Yampolskiy erkennt dieses Problem klar: „Die wirtschaftliche Seite könnte einfach sein, da kostenlose Arbeit zu Überfluss führen könnte. Die größere Herausforderung liegt im gesellschaftlichen Sinnverlust.“

Das Grundeinkommen: Lösung oder neue Abhängigkeit?

Die naheliegende Antwort auf die Massenarbeitslosigkeit ist das universelle Grundeinkommen – ein Konzept, das auch Sam Altman mit seinem Worldcoin-Projekt vorbereitet. Die Idee: Jeder Mensch erhält genug Geld zum Leben, auch ohne zu arbeiten.

Doch hier verbirgt sich eine neue, subtilere Gefahr. Ein universelles Grundeinkommen bedeutet totale Abhängigkeit von denjenigen, die es verwalten und kontrollieren. Wer bestimmt, wer wie viel bekommt? Wer entscheidet über die Kriterien für den Erhalt? Und was passiert mit denen, die sich nicht konform verhalten? (Thema Social Scoring)

Yampolskiy sieht in Altmans Worldcoin bereits Anzeichen für diese Art der Kontrolle: biometrische Datensammlung gekoppelt mit einem Großteil der Tokens in den Händen der Gründer. Es ist ein System, das als Wohlfahrt getarnt, de facto eine Form der „Weltherrschaft“ etablieren könnte.

Die Kosten sinken, die Gefahr steigt

Ein weiterer beunruhigender Aspekt: Die Kosten für das Training großer KI-Modelle sinken jährlich. Yampolskiy prophezeit, dass irgendwann „ein Kerl mit einem Laptop“ Superintelligenz entwickeln könnte. Was heute noch Milliardeninvestitionen erfordert, könnte morgen in einer Garage entstehen.

Diese Entwicklung macht Überwachung und Regulierung extrem schwierig. Während Regierungen noch diskutieren, wie sie KI regulieren sollen, entwickelt sich die Technologie in einem Tempo weiter, das jede Gesetzgebung überholt.

Die Black Box bleibt undurchsichtig

Das vielleicht erschreckendste an Yampolskiys Analyse ist die Erkenntnis, dass selbst die Entwickler nicht vollständig verstehen, was sie erschaffen. KI-Systeme sind „Black Boxes“… sie produzieren Ergebnisse, aber der Weg dorthin bleibt im Dunkeln.

Wenn wir nicht verstehen, wie diese Systeme funktionieren, wie können wir dann sicherstellen, dass sie nicht von Menschen mit bösartigen Absichten missbraucht werden?

Nicht die KI wird uns auslöschen… es werden Menschen sein

Meine Schlussfolgerung nach der intensiven Beschäftigung mit Yampolskiys Warnungen ist eindeutig: Nicht die KI wird uns Menschen irgendwann auslöschen, es werden irre Menschen sein, die KI bedienen können.

Die größte Gefahr liegt nicht in einer superintelligenten KI, die plötzlich beschließt, die Menschheit zu vernichten. Sie liegt in der Tatsache, dass KI mächtige Werkzeuge in die Hände von Menschen legt – und darunter werden immer auch solche mit destruktiven Absichten sein.

Was können wir tun?

Yampolskiy gibt trotz seines düsteren Ausblicks nicht auf. Seine Empfehlungen sind klar:

  1. Aufklärung: Menschen mit Macht in der KI-Entwicklung müssen verstehen, dass ihr Handeln persönlich schädlich sein wird
  2. Transparenz fordern: KI-Entwickler müssen präzise und wissenschaftlich erklären, wie sie Sicherheitsprobleme lösen
  3. Demokratische Teilhabe: Friedliche Proteste und öffentlicher Druck können Einfluss auf die Entwicklung nehmen
  4. Fokus auf schmale KI: Statt allgemeiner Superintelligenz sollten nützliche, spezifische KI-Tools entwickelt werden

Doch reicht das? Wird das auch wirklich umgesetzt? Ich bin mir nicht sicher.

Ein Weckruf für uns alle

Yampolskiys Warnung vor der kurzfristigen Gefahr durch KI-gestützte Biowaffen sollte uns alle wachrütteln. Während wir über die fernen Gefahren einer Superintelligenz philosophieren, könnten die wirklichen Bedrohungen bereits heute in den Laboren und an den Computern entstehen.

Die Lösung liegt nicht darin, KI-Entwicklung zu stoppen – das wäre weder möglich noch wünschenswert. Sie liegt darin, verantwortungsvolle Entwicklung zu fördern, Transparenz zu fordern und uns bewusst zu machen, dass die größte Gefahr nicht von den Maschinen ausgeht, sondern von den Menschen, die sie bedienen.

Die Zeit zu handeln ist jetzt, bevor es zu spät ist.

Hinterlasse einen Kommentar

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..

Kontaktiere mich

susann.uckan(at)halalmediasolution.com

Am Engeldorfer Berg 11, 50997 Köln