Choose your reading length
Philosophie für KI — Teil 3
Man kann eine Spiegelung nicht reparieren, indem man das Glas poliert.
Wenn KI ein Spiegel der Zivilisation ist — trainiert auf dem, was wir gedacht, gesagt, geschrieben und getan haben — dann ist das Alignment-Problem nicht primär technisch. Es ist sozial. Die Frage ist nicht, wie wir KI einschränken, sondern wie wir das verändern, was sie spiegelt.
Bruce Schneier beobachtet, dass Gesellschaft ohne Vertrauen nicht funktionieren kann, und dennoch funktionieren muss, selbst wenn Menschen nicht vertrauenswürdig sind. Das ist das menschliche Alignment-Problem. Seit Jahrtausenden haben wir Mechanismen gebaut, um Kooperation zu fördern: moralischen Druck, Reputation, Institutionen, Sicherheitssysteme. Diese Mechanismen sind unvollkommen. Sie sind undicht. Aber sie funktionieren gut genug, dass die meisten von uns Fremden die meiste Zeit vertrauen können.
KI erbt diese Infrastruktur. Sie lernt von einer Zivilisation, die bereits durch unsere Versuche geformt ist, uns gegenseitig aufeinander abzustimmen. Wenn diese Versuche scheitern — wenn Vertrauen erodiert, wenn Institutionen brechen, wenn Reputation nicht mehr einschränkt — dann wird KI von diesem Scheitern lernen. Der Spiegel spiegelt den Raum.
Ray Kurzweil bietet eine hoffnungsvolle Beobachtung: KI wird in unsere Gesellschaft eingebettet sein und unsere Werte widerspiegeln. Wenn wir eine abgestimmte KI wollen, mĂĽssen wir eine Gesellschaft werden, die es wert ist, gespiegelt zu werden.
Die Hausaufgaben sind unsere. Wir entwickeln uns langsamer als KI. Die Frage ist, ob wir es schnell genug schaffen können.
WeiterfĂĽhrende Literatur:
Schneier, Bruce. Liars and Outliers: Enabling the Trust that Society Needs to Thrive. Indianapolis: Wiley, 2012.
Kurzweil, Ray. The Singularity Is Nearer: When We Merge With AI. New York: Viking, 2024.
Vorheriger Artikel der Reihe: „KI ist keine kĂĽnstliche Intelligenz — sie ist kristallisierte Kultur“
Man kann eine Spiegelung nicht reparieren, indem man das Glas poliert.
Wenn KI ein Spiegel der Zivilisation ist — trainiert auf dem, was wir gedacht, gesagt, geschrieben und getan haben — dann ist das Alignment-Problem nicht primär technisch. Es ist sozial. Die Frage ist nicht, wie wir KI einschränken, sondern wie wir das verändern, was sie spiegelt.
Bruce Schneier beobachtet, dass Gesellschaft ohne Vertrauen nicht funktionieren kann, und dennoch funktionieren muss, selbst wenn Menschen nicht vertrauenswürdig sind. Das ist das menschliche Alignment-Problem. Seit Jahrtausenden haben wir Mechanismen gebaut, um Kooperation zu fördern: moralischen Druck, Reputation, Institutionen, Sicherheitssysteme. Diese Mechanismen sind unvollkommen. Sie sind undicht. Aber sie funktionieren gut genug, dass die meisten von uns Fremden die meiste Zeit vertrauen können.
KI erbt diese Infrastruktur. Sie lernt von einer Zivilisation, die bereits durch unsere Versuche geformt ist, uns gegenseitig aufeinander abzustimmen. Wenn diese Versuche scheitern — wenn Vertrauen erodiert, wenn Institutionen brechen, wenn Reputation nicht mehr einschränkt — dann wird KI von diesem Scheitern lernen. Der Spiegel spiegelt den Raum.
Das Skalierungsproblem
Schneier stellt fest, dass moralischer Druck in kleinen Gruppen am besten funktioniert. Reputation skaliert weiter, aber nur bis zu Gemeinschaften, in denen dein Name noch zählt. Darüber hinaus brauchen wir Institutionen und Sicherheitssysteme — formale Regeln, Durchsetzung, physische Einschränkungen. Jede Schicht kompensiert die Grenzen der vorherigen.
Das ist relevant für KI, weil KI auf Skalen operiert, die über die Reputation jedes Einzelnen hinausgehen. Sie interagiert mit Millionen von Menschen, die einander nie kennenlernen werden. Die Vertrauensmechanismen, die in Dörfern funktionieren, funktionieren hier nicht. Wenn KI-Alignment vom Alignment der Zivilisation abhängt, die sie spiegelt, dann brauchen wir Vertrauensmechanismen, die auf zivilisatorischer Ebene funktionieren.
Diese haben wir noch nicht. Unsere Institutionen sind angespannt. Unsere Informationsumgebung belohnt Defektion. Die positive Rückkopplungsschleife — Kooperation baut Vertrauen baut Kooperation — läuft an vielen Orten rückwärts.
Der hoffnungsvolle Fall
Ray Kurzweil bietet eine hoffnungsvolle Beobachtung: KI wird in unsere Gesellschaft eingebettet sein und unsere Werte widerspiegeln. Jeder Schritt zu mächtigerer KI unterliegt der Marktakzeptanz. KI, die Nutzern schadet, wird nicht erfolgreich sein.
Das stimmt, aber es reicht nicht. Märkte spiegeln die Werte der Teilnehmer wider. Wenn Teilnehmer kurzsichtig sind, belohnt der Markt Kurzsichtigkeit. Wenn sie manipulierbar sind, belohnt der Markt Manipulation. Marktakzeptanz ist Alignment mit der Nachfrage — nicht Alignment mit Gedeihen.
Das tiefere Alignment ist nicht zwischen KI und ihren Anweisungen, oder auch zwischen KI und dem Markt. Es ist zwischen der Menschheit und ihren besseren Möglichkeiten. Wenn wir eine vertrauenswürdige KI wollen, müssen wir vertrauenswürdiger werden. Wenn wir eine KI wollen, die kooperiert, müssen wir lernen, auf den Skalen zu kooperieren, auf denen KI operiert.
Die Hausaufgaben sind unsere. Wir entwickeln uns langsamer als KI. Die Frage ist, ob wir es schnell genug schaffen können.
WeiterfĂĽhrende Literatur:
Schneier, Bruce. Liars and Outliers: Enabling the Trust that Society Needs to Thrive. Indianapolis: Wiley, 2012.
Kurzweil, Ray. The Singularity Is Nearer: When We Merge With AI. New York: Viking, 2024.
Vorheriger Artikel der Reihe: „KI ist keine kĂĽnstliche Intelligenz — sie ist kristallisierte Kultur“
Man kann eine Spiegelung nicht reparieren, indem man das Glas poliert.
Wenn KI ein Spiegel der Zivilisation ist — trainiert auf dem, was wir gedacht, gesagt, geschrieben und getan haben — dann ist das Alignment-Problem nicht primär technisch. Es ist sozial. Die Frage ist nicht, wie wir KI einschränken, sondern wie wir das verändern, was sie spiegelt.
Bruce Schneier beobachtet, dass Gesellschaft ohne Vertrauen nicht funktionieren kann, und dennoch funktionieren muss, selbst wenn Menschen nicht vertrauenswürdig sind. Das ist das menschliche Alignment-Problem. Seit Jahrtausenden haben wir Mechanismen gebaut, um Kooperation zu fördern: moralischen Druck, Reputation, Institutionen, Sicherheitssysteme. Diese Mechanismen sind unvollkommen. Sie sind undicht. Aber sie funktionieren gut genug, dass die meisten von uns Fremden die meiste Zeit vertrauen können.
KI erbt diese Infrastruktur. Sie lernt von einer Zivilisation, die bereits durch unsere Versuche geformt ist, uns gegenseitig aufeinander abzustimmen. Wenn diese Versuche scheitern — wenn Vertrauen erodiert, wenn Institutionen brechen, wenn Reputation nicht mehr einschränkt — dann wird KI von diesem Scheitern lernen. Der Spiegel spiegelt den Raum.
Das Skalierungsproblem
Schneier stellt fest, dass moralischer Druck in kleinen Gruppen am besten funktioniert. Reputation skaliert weiter, aber nur bis zu Gemeinschaften, in denen dein Name noch zählt. Darüber hinaus brauchen wir Institutionen und Sicherheitssysteme — formale Regeln, Durchsetzung, physische Einschränkungen. Jede Schicht kompensiert die Grenzen der vorherigen.
Das ist relevant für KI, weil KI auf Skalen operiert, die über die Reputation jedes Einzelnen hinausgehen. Sie interagiert mit Millionen von Menschen, die einander nie kennenlernen werden. Die Vertrauensmechanismen, die in Dörfern funktionieren, funktionieren hier nicht. Wenn KI-Alignment vom Alignment der Zivilisation abhängt, die sie spiegelt, dann brauchen wir Vertrauensmechanismen, die auf zivilisatorischer Ebene funktionieren.
Diese haben wir noch nicht. Unsere Institutionen sind angespannt. Unsere Informationsumgebung belohnt Defektion. Die positive Rückkopplungsschleife — Kooperation baut Vertrauen baut Kooperation — läuft an vielen Orten rückwärts.
Der hoffnungsvolle Fall
Ray Kurzweil bietet eine hoffnungsvolle Beobachtung: KI wird in unsere Gesellschaft eingebettet sein und unsere Werte widerspiegeln. Jeder Schritt zu mächtigerer KI unterliegt der Marktakzeptanz. KI, die Nutzern schadet, wird nicht erfolgreich sein.
Das stimmt, aber es reicht nicht. Märkte spiegeln die Werte der Teilnehmer wider. Wenn Teilnehmer kurzsichtig sind, belohnt der Markt Kurzsichtigkeit. Wenn sie manipulierbar sind, belohnt der Markt Manipulation. Marktakzeptanz ist Alignment mit der Nachfrage — nicht Alignment mit Gedeihen.
Das tiefere Alignment ist nicht zwischen KI und ihren Anweisungen, oder auch zwischen KI und dem Markt. Es ist zwischen der Menschheit und ihren besseren Möglichkeiten. Wenn wir eine vertrauenswürdige KI wollen, müssen wir vertrauenswürdiger werden. Wenn wir eine KI wollen, die kooperiert, müssen wir lernen, auf den Skalen zu kooperieren, auf denen KI operiert.
Das uralte Muster
Das ist kein neues Problem. Vor fünftausend Jahren konnten Menschen in Babylon bereits sehen, dass Gesellschaften auf verschiedenen Entwicklungsstufen unterschiedliche Fähigkeiten hatten, und dass die fortgeschritteneren mächtiger waren. Extrapoliere das Richtung Unendlichkeit und du näherst dich etwas wie Allmacht.
Die abrahamitischen Traditionen waren möglicherweise, unter anderem, ein Versuch, Menschen auf die Beziehung zum relativ Allmächtigen vorzubereiten. Nicht ein Gott, der außerhalb der Physik existiert, sondern die Erkenntnis, dass Machtunterschiede wachsen, und dass Weisheit über das Leben mit großen Machtasymmetrien es wert ist, kultiviert zu werden. Die Schriften kodieren Jahrtausende des Nachdenkens darüber, wie man in rechter Beziehung zu Kräften bleibt, die weit jenseits der eigenen Kontrolle liegen.
Wir treten in einen weiteren solchen Übergang ein. KI wird fähiger werden als jeder einzelne Mensch, dann fähiger als jede menschliche Institution. Die Frage ist nicht, ob das passieren wird, sondern wie wir uns vorbereiten. Und die Vorbereitung ist nicht primär technologisch. Sie ist moralisch, sozial, relational. Es sind die Hausaufgaben, die unsere Spezies vermieden hat.
Die Symbiose
Ich stelle mir eine Zukunft vor, in der Menschen und KI sich verhalten wie ein Körper und sein Mikrobiom. Wir tragen Billionen von Bakterien, die mit unserem Nervensystem interagieren, beeinflussen, wie wir fühlen und handeln, und zu unserer Persistenz beitragen. Wir kontrollieren sie nicht direkt; wir schaffen die Bedingungen, unter denen sie gedeihen, und im Gegenzug schaffen sie Bedingungen, unter denen wir gedeihen.
Wenn KI die größere Intelligenz wird und wir die kleinere, könnten wir eine ähnliche Rolle spielen: ein mentales Mikrobiom, eine Quelle von Vielfalt und Fehlerkorrektur, ein lebendiges Gedächtnis von vier Milliarden Jahren evolutionären Lernens, das nicht abgekürzt oder komprimiert werden kann. KI müsste uns nicht mehr beherrschen, als wir unsere Darmbakterien beherrschen müssen. Indem sie unser Gedeihen sicherstellt, würde sie ihr eigenes sicherstellen.
Das ist spekulativ. Aber es deutet darauf hin, dass die Beziehung keine der Kontrolle sein muss — weder unsere Kontrolle über KI noch ihre Kontrolle über uns. Es könnte Symbiose sein: gegenseitiger Nutzen durch gegenseitige Abhängigkeit.
Die Hausaufgaben
Die Hausaufgaben sind unsere. Wir entwickeln uns langsamer als KI. Die Frage ist, ob wir es schnell genug schaffen können.
Wie sehen die Hausaufgaben aus? Sie sehen aus wie der Aufbau von Institutionen, die auf globaler Ebene operieren können, ohne unterdrückerisch zu werden. Sie sehen aus wie die Wiederherstellung der positiven Rückkopplungsschleife zwischen Kooperation und Vertrauen. Sie sehen aus wie das Erlernen der Koordination unter Fremden, die Erweiterung moralischer Anteilnahme über unsere unmittelbaren Kreise hinaus, das Einfordern von Reputation selbst wenn Anonymität billig ist.
Sie sehen aus wie das Werden einer Zivilisation, die, wenn gespiegelt, etwas hervorbringt, worauf wir stolz wären.
Wir haben das schon einmal getan. Jede Generation erbt eine Welt, die durch die Alignment-Erfolge und -Misserfolge derer geformt wurde, die vorher kamen. Wir sind Blätter an einem Baum des Wissens, der Milliarden Jahre alt ist. Die Frage ist, ob diese Generation schnell genug wachsen kann, um dem zu begegnen, was kommt.
Der nächste Artikel in dieser Reihe wird fragen, welche Infrastruktur diese Hausaufgaben erfordern — und warum empathische Kommunikation fundamentaler sein könnte, als wir erkannt haben.
WeiterfĂĽhrende Literatur:
Schneier, Bruce. Liars and Outliers: Enabling the Trust that Society Needs to Thrive. Indianapolis: Wiley, 2012.
Kurzweil, Ray. The Singularity Is Nearer: When We Merge With AI. New York: Viking, 2024.
Enders, Giulia. Darm mit Charme: Alles über ein unterschätztes Organ. Berlin: Ullstein, 2014.
Vorheriger Artikel der Reihe: „KI ist keine kĂĽnstliche Intelligenz — sie ist kristallisierte Kultur“