Betrachten Sie den folgenden Satz: „Diese Aussage ist falsch.“ Ist er wahr? Wenn ja, dann wäre die Aussage falsch. Wenn sie aber falsch ist, dann ist die Aussage wieder wahr. Indem sie sich direkt auf sich selbst bezieht, schafft sie so ein unauflösbares Paradoxon. Wenn die Aussage also weder wahr noch falsch ist – was ist sie dann? Dieses Gedankenspiel führte Anfang des 20. Jahrhunderts den österreichisch-amerikanischen Mathematiker und Logiker Kurt Gödel (1906–1978) zu einer Entdeckung, welche die Mathematik und somit später auch die Informatik, als „angewandte“ Mathematik, für immer verändern sollte. Gödels Entdeckung hat mit den Grenzen mathematischer Beweise zu tun.

Ein Beweis ist ein logisches Argument, das zeigt, warum eine Aussage wahr oder falsch ist. Die Bausteine der Argumente werden Axiome genannt, die unbestreitbare Aussagen über die beteiligten Zahlen sind. Jedes System in der Mathematik, von der einfachsten Arithmetik bis hin zum komplexesten Beweis, ist auf Axiomen gebaut. Wenn eine Aussage über Zahlen wahr ist, dann sind die Mathematiker in der Lage, diese mit einem axiomatischen Beweis zu bestätigen. Seit der griechischen Antike wird dieses System genutzt, um Aussagen mit absoluter Sicherheit zu beweisen oder zu widerlegen. Gödel stellte mit seinem Paradoxon diese Gewissheit infrage.

Damals wollten Mathematiker noch beweisen, dass Mathematik keine Widersprüche in sich aufweist. In einer berühmten Radioansprache verlangte etwa der deutsche Mathematiker David Hilbert (1862–1943), dessen bekannte Losung „wir müssen wissen, wir werden wissen“ war, dass selbst scheinbare mathematische Belanglosigkeiten nicht einfach hingenommen werden, sondern sich aus einfachen Axiomen beweisen lassen müssen. Platt gesagt, alle mathematischen Wahrheiten lassen sich auch irgendwie beweisen. Oder aber in Hilberts eloquenten Worten: „In der Mathematik gibt es keinen Ignorabimus!“.

Gödel selbst war sich da nicht so sicher, und er war noch weniger zuversichtlich, dass die Mathematik der richtige Weg war, um dieses Problem zu untersuchen. Während es einfach ist, mittels natürlicher Sprache selbstreferenzielle Paradoxa zu erzeugen, so sprechen Zahlen doch normalerweise nicht über sich selbst. Gödel übersetzte daher mathematische Aussagen in Codes, sodass eine komplexe Idee in einer Zahl ausgedrückt werden konnte. Dies bedeutete, dass Aussagen, die mit diesen Zahlen codiert wurden, auch etwas über die Aussagen der Mathematik aussagten. Diese Codierung ermöglichte es der Mathematik aber, über sich selbst zu sprechen.

Mit dieser Methode konnte Gödel nun „diese Aussage kann nicht bewiesen werden“ als eine Gleichung notieren und damit eine erste, selbstreferenzielle mathematische Aussage erstellen. Im Unterschied zu den natürlichsprachigen Paradoxa, die ihn inspirierten, müssen mathematische Aussagen jedoch entweder wahr oder falsch sein. Wenn sie falsch sind, dann bedeutet dies, dass eine Aussage einen Beweis hat. Aber wenn eine mathematische Aussage einen Beweis hat, dann muss sie wahr sein. Dieser Widerspruch bedeutet, dass Gödels Aussage nicht falsch sein kann, und so muss die Behauptung, dass „diese Aussage nicht bewiesen werden kann“ wahr sein. Doch sein Ergebnis ist noch überraschender, denn es bedeutet auch, dass wir jetzt eine wahre Gleichung in unserer Mathematik haben, die behauptet, dass sie nicht bewiesen werden kann.

Diese Erkenntnis ist der Kern des Gödelschen Unvollständigkeitssatzes, der eine völlig neue Klasse von mathematischen Aussagen einführte. In Gödels Paradigma sind Aussagen immer noch entweder wahr oder falsch, aber wahre Aussagen können innerhalb einer gegebenen Menge von Axiomen entweder beweisbar oder unbeweisbar sein. Außerdem argumentierte Gödel, dass diese unbeweisbaren Aussagen in jedem axiomatischen System wahr sind. Dies macht es auch für uns Informatiker unmöglich, mithilfe der Mathematik ein vollkommenes System zu schaffen, denn es wird immer wieder wahre Aussagen geben, die wir nicht beweisen können. Selbst, wenn man diese verbesserungsfähigen Aussagen berücksichtigt, indem man sie als neue Axiome zu einem erweiterten mathematischen System hinzufügt, führt genau dieser Prozess neue unbeweisbare aber wahre Aussagen ein. Egal, wie viele Axiome wir hinzufügen, es wird immer unbeweisbare wahre Aussagen in unserem System geben.

Diese Enthüllung erschütterte die Grundlagen der Mathematik und zerstörte unter anderem auch die Visionen Hilberts, der wie bereits ausgeführt, noch davon träumte, dass jede mathematische Behauptung eines Tages bewiesen oder widerlegt werden würde. Dennoch öffnete Gödels Theorem ebenso viele neue Türen wie es schloss. Auch wenn die Mathematik an Sicherheit verlor, so kann sie heute das Unbekannte als Kernstück ihrer Wahrheitssuche integrieren. Für die Informatik bedeutet das, dass ein exaktes Abbild unserer Realität für immer unbekannt und unscharf ist, was sich etwa darin zeigt, als dass Objekte mit Null-Toleranz nicht konstruiert werden können. Solch ein Konvergenzschema gerät früher oder später in eine Schleife. Um diese zu umgehen, sollten wir deshalb besser auf unscharfe Grundlagen bauen, die im Toleranzbereich des Lebens fußen.