22. November 2024

Computer Artificial Intelligence (AI) kann niemals zu Bewusstsein führen

Sie werden doch immer besser, die Computer. Jetzt hat kürzlich das Programm eines Supercomputers sogar einen der weltbesten Go-Spieler, ich glaube aus Südkorea, besiegt. Und ich erinnere mich noch gut, so Ende der 1990er Jahre, als der erste Computer den regierenden Weltmeister im Schach schlug. Na, wer so gescheit ist und so komplexe Probleme lösen kann – noch besser als Menschen – der muss doch Bewusstsein haben, oder?

Eine seltsame Idee, Bewusstsein auf die Fähigkeit zu stützen, sehr komplexe Probleme zu lösen. Die simpelste Form von Bewusstsein ist Zahnweh. Einfach nur Zahnweh. Das subjektive Empfinden von Zahnweh, das einen völlig ausfüllt, jede bewusste Wahrnehmung von irgendetwas anderem nimmt und einen zwingt, einfach nur still zu sitzen und Zahnweh zu haben. DAS ist Bewusstsein. Ohne Sprache, ohne komplexe Gedanken, einfach das rohe Gefühl. Und wie sieht da die Simulation am Computer aus? Man könnte gar nicht sagen, was die Frage sein soll. Simulieren kann man nur Handlungen, Reaktionen, nicht das bewusste Erlebnis von Gefühlen.

Und hier liegt der Fehler der AI-Freaks begraben. Statt sich der Frage zu stellen, was ist Bewusstsein im Sinne des subjektiv erlebten Gefühls an sich, reduziert man Bewusstsein auf die äußere Reaktion des Wesens mit Bewusstsein. Und die lässt sich natürlich schon annähernd simulieren, mit immer größerem Aufwand immer besser. Doch da fehlt die Essenz: das subjektive Gefühl.

AI-Freaks, die bereits davon schwärmen, dass das Bewusstsein bei Computern gleich um die Ecke sei, halten es für unwissenschaftlich, vom rohen subjektiven Gefühl zu reden. Wir brauchen Messbares, und diese innere Erfahrung sei nicht messbar. Also reduzieren wir den gesamten Sachverhalt auf die äußere Reaktion. Ähnlich beim Freien Willen. Wie das subjektive Gefühl, so ist der Freie Wille bei einer bewussten Entscheidung selbstevident. Wenn mir wer sagt, er habe berechnet, dass ich das und jenes tun werde, dann kann ich, so scheint mir, immer entscheiden, etwas Anderes zu tun. Meine Entscheidung ist frei – natürlich nur bedingt frei, abhängig von sehr viel Anderem auch, aber doch nicht ins Detail determiniert, wie uns das die gängige Physik weismachen will. Und da kommen wieder die AI-Freaks zum Zug: Es gäbe keinen Freien Willen und Punkt. Wie bei Computerprogrammen.

Wozu dann, fragt man sich, gibt es evolutionär eigentlich ein Bewusstsein? Um nur bewusst zu erleben, was mein Körper sowieso macht? Aber Bewusstsein ist sehr zeit- und energieaufwendig, und langsam, im Gegensatz zur automatischen Reaktion. Und im Gehirn laufen ganz andere Prozesse bei der bewussten Entscheidung ab, als bei der automatischen. Die Evolution hätte so ein aufwendiges Beiwerk längst abgeschafft, wenn es nicht einen eigenständigen Sinn hätte. Und der muss wohl darin liegen, das Handeln zu beeinflussen. Die bewusste Handlung beeinflusst also das Handeln, Bewusstsein ist nicht nur ein Epiphänomen. Das kommt aber im Computer gar nicht vor, der reagiert ausnahmslos immer rasch, automatisch und mit wenig Energieaufwand. Er braucht auch nicht schlafen und im Traum nichts zu verarbeiten. Im Gegensatz zu sämtlichen Wesen mit Bewusstsein.

Aber es gibt ein zusätzliches, sehr starkes Argument dagegen, dass Bewusstsein bei Computerprogrammen auftreten werde. Ein Argument aus der mathematischen Logik, ein als wahr bewiesenes Theorem von Kurt Gödel, das sogenannte Unvollständigkeitstheorem. Es besagt, dass es grundsätzlich kein Computerprogramm geben kann, das alle mathematischen Wahrheiten, die wir als wahr erkennen und beweisen können, beweisen kann. Ich kann zwar für jedes Set von solchen wahren mathematischen Theoremen ein Computerprogramm schreiben, das sie beweisen kann, aber ich kann grundsätzlich immer weitere wahre mathematische Theoreme finden, die ich als wahr erkenne, aber die dieses Programm nicht mehr beweisen kann. Das gilt für jedes solche Programm. Gödel hat sogar ein Verfahren angegeben, wie man für ein gegebenes Computerprogramm, das mathematische Theoreme beweisen kann, immer ein Theorem finden kann, das wir als wahr erkennen, das Computerprogramm aber nicht beweisen kann. Und dieser Prozess, so konnte Kurt Gödel beweisen, lässt sich unendlich fortsetzen.

Zwar gilt das zunächst nur für mathematische Wahrheiten, weil sich diese eben abstrakt fassen lassen, sodass Gödels Unvollständigkeitssatz beweisbar wird. Aber das reicht ja. Mein Bewusstsein kann diese Theoreme als wahr erkennen und kein Computerprogramm kann mithalten, ganz grundsätzlich und prinzipiell. Zumindest mein Bewusstsein – und das aller jener, die sich intensiv mit Mathematik beschäftigen – ist also kein Computerprogramm.

Also, nein, AI mit Computern wird niemals ein subjektives Gefühl erleben, also ein Bewusstsein entwickeln und leidensfähig sein. Das ist BEWEISBAR. Es ist auch naheliegend. Mein subjektives Erleben von Zahnweh ist sehr real, soviel steht fest. Die gängige Physik kennt so ein Phänomen aber nicht, nirgends in der Quantenphysik oder sonstwo kommt ein subjektives Erleben vor. Die Schlussfolgerung ist eindeutig: mein Gehirn, das dieses subjektive Erleben zweifelsfrei hervorbringt, kann nicht durch die gängige Physik vollständig verstanden sein. Da muss es noch physikalische Prozesse in meinem Gehirn geben, deren Grundlage wir bisher noch nicht erkannt und verstanden haben. Anderswo argumentiere ich dafür, dass diese Physik auf nichtberechenbarer Mathematik basieren muss. Die ist kein Hokuspokus, die gibt es, und die macht sogar den Großteil der Mathematik aus. Die gängige Physik dagegen nutzt ausschließlich berechenbare Mathematik, d.h. eine, die ich auf den Computer übertragen kann. Um Bewusstsein zu verstehen ist das aber zu wenig.

Wie wir es drehen und wenden, der AI-Zugang zu Bewusstsein ist also zum Scheitern verurteilt.

8 Gedanken zu “Computer Artificial Intelligence (AI) kann niemals zu Bewusstsein führen

  1. @Sebastian

    Mir geht es hier nur um die Behauptung, Computer mit AI würden eines Tages subjektiv fühlen können, also Bewusstsein entwickeln. Das deshalb, weil es bereits jetzt Menschen gibt, die sagen, sehr bald würden Computer fühlen und das Leid von Computern würde dann das Leid von Tieren überwiegen und wir bräuchten dann Computerschutz vor Leid. Ich argumentiere, warum das mit Computern sicher nicht der Fall sein wird. Mir geht es also genau darum: AI im heutigen Sinn hat NICHTS mit Bewusstsein zu tun und kann es auch niemals haben.

    1. dáccord. same here. der schrott bleibt eine Maschine. UNd ich muss sagen ich hoffe es bleibt so. Der Tag an dem Mein Computer sich dagegen wehrt abgeschalten zu werden und versucht zu reproduzieren, den möchte ich nciht erleben.

  2. Interessanter Ansatz:

    Also Zahnschmerz ist sicher nicht ein Gegenargument zur Erschaffung einer Künstlichen Intelligenz.

    Also das mit Intelligenz und Bewusstsein. Aus der Psychologie kommend kann ich nur sagen, dass sich da ja die Geister scheiden, was als Intelligenz bezeichnet wird, wie und ob man die überhaupt messen kann usw.

    Also schwer, aber es heisst ja dann auch artificial intelligence und nicht artificial consciousness. Aber ja eine interessante Sache ist´s allemal, wobei wir uns ja nicht nur weil wir Zahnschmerz haben zur Krönung der Schöpfung machen sollten. Das würde bedeuten, dass wir Lebewesen die keinen Zahnschmerz haben, oder eben dann auch evtl. aufgrund einer Erkrankung keine Schmerzen empfinden, oder dann weitergedacht, aufgrund einer Behinderung überhaupt ein eingeschränktes Bewusstsein haben oder eine Intelligenzminderung dann ja als minderwertig sehen.
    Das hat historisch eher in eine ungute Richtung geführt. Also sollte man das sollte man vielleicht den Diskurs differentieller betrachten und Maschinen werden einiges können und sollen ja auch, wie ein neuer Trend in der Ai ist, gar nicht so den Mensch ersetzen und möglichst täuschend “echt” menschlich sein. Das würde uns Menschen ja auch in echte KOnflikte bringen, was jetzt dann die Grenzen sind und ab wann etwas dann ja leben ist oder?

    Aber was weiss man was in so einem Rechner vorgeht und ob wir einfach auch vieles gar nicht sehen und bewusstseinsfähig sind, was da mit den lieben Elektronen usw. abgeht und wir gar nicht merken.

    Ein allemal schwieriges Ding auf jedenfall, das aber beim genaueren Hinsehen hilfreich ist zu erkennen wie wir eigentlich funktionieren, oder??? Also Zahnschmerz analysieren und so Gschichten…

    UNd mein Comp braucht schon Ruhe, der braucht auch beim runterfahren Zeit und ja… ist halt kein MEnsch und das ist auch gut so, aber von der reinen Abgrenzung in bewusstseinsfähig und nicht ists halt mit einem mathematischen Ja / Nein evtl.nicht erklärbar. Da handelts sich evtl. um ein Kontinuum.

    Meinen 4 jährigen gestern befragt, meint der ja z.B. das da ein Unterschied zwischen Mensch und tier ist. UNd ich hab dann versucht ihm dass zu erklären, dass wir auch tiere sind und also irgendwie the same in the end. Er meint nein, konnte mirs aber auch nicht erklären, meint aber er spürt das so. Also irgendwo ists dann wohl das aufspüren der Intelligenz in etwas anderem dass für uns Menschen etwas zu einem gleichrangigen macht, oder als “Tier” – nicht bös sein jetzt- abqualifiziert, oder gar zur MAschine…. Obs da jetzt klare Stufen gibt oder eben ein KOntinuum…?

    I wass net genau…

  3. @Konrad:

    1) Nichtberechenbare Mathematik kann durchaus einmal technisch fassbar sein, wenn man die Physik dahinter versteht und verwenden lernt. Momentan aber ist jedes technische Gerät ausschließlich mit berechenbarer Mathematik konstruiert. Und Computer sind ganz grundsätzlich berechenbar. Mittels Computer und bisheriger Technik kommt man also niemals zu den physikalischen Prozessen, die Bewusstsein ausmachen.

    2) Computer sind zu 100 % kausal determiniert. Bewusstsein meiner These nach nicht.

    3) Lernfähige Programme sind noch immer Programme, das ändert überhaupt nichts Grundlegendes. Lernfähige Programme sind wie Konditionierung. Und Bewusstsein ist meiner These nach etwas grundlegend Anderes.

    4) Wenn Du Bewusstsein mit Mustererkennung gleichsetzt, dann triffst du damit überhaupt nicht das, was zumindest ich erlebe und damit meine, wenn ich von Bewusstsein spreche. Eine technische Definition fasst einfach überhaupt nicht dieses Phänomen. Und zu sagen, wenn ich es nicht exakt definieren kann, oder nicht technisch definieren kann, dann gibt es das Phänomen nicht, ist wohl ein bisschen eigenartig.

    5) Ich glaube schon, dass Bewusstsein eines Tages eindeutig messbar nachweisbar wird. Warum denn nicht? Es handelt sich schließlich um ein physikalisches Phänomen. Und, nein, meine mathematisch physikalische Erfahrung sagt mir, dass letztlich absolut alles, was auf dieser Welt passiert, auf die Naturgesetze (die sich mathematisch fassen lassen) zurückführbar sein muss. Daneben gibt es nichts. Und da sich Bewusstsein momentan diesen Naturgesetzen entzieht, können sie nicht vollständig sein. Aber dass sie nicht vollständig sind, ist sowieso mittlerweile allgemein anerkannt, wie ich dem New Scientist entnehme, wenn auch nicht in Bezug auf Bewusstsein.

    1. >1) Mittels Computer und bisheriger Technik kommt man also niemals zu den physikalischen Prozessen, die Bewusstsein ausmachen.
      Das trifft nur zu, wenn Deine Annahme stimmt, dass eben Bewusstsein unberechenbare Mathematik braucht. Es könnte so sein, aber sicher ist das nicht.

      >2) Computer sind zu 100 % kausal determiniert. Bewusstsein meiner These nach nicht.
      Ich habe beschrieben, dass meinem Verständnis nach Bewusstsein Kausalität ebenso verwirklicht, wie alle anderen Prozesse. Andernfalls wäre Freier Wille ein logisches Problem: Um wirklich frei sein zu können, müsste er zusammenhanglos – also undeterminiert – sein. Er würde sich dem entsprechend nicht vom Zufall unterscheiden und wäre somit unbrauchbar. Niemand scheint sich zu wundern, dass Mehrzeller als Individuen kausal interagieren, aber wenn der Freie Wille ins Spiel kommt, dann gibt es plötzlich nur direkte physische Interaktion oder gar keine Kausalität?

      >3) Lernfähige Programme sind noch immer Programme, das ändert überhaupt nichts Grundlegendes.
      Das hängt wohl davon ab, in welchen Aspekten die Systeme lernfähig sind. Wenn es bloß um einfache Abwandlungen von Parametern geht, trifft das sicher zu. Wenn sich aber völlig neue, unvorhersehbare Routinen bilden, dann ergeben sich daraus völlig neue Möglichkeiten. Wie eben auch die Evolution zeigt, kann eine Rekombination der selben Elemente zu völlig neuen Phänomenen bzw. Qualitäten führen.

      >4) Wenn Du Bewusstsein mit Mustererkennung gleichsetzt, dann triffst du damit überhaupt nicht das, was zumindest ich erlebe und damit meine, wenn ich von Bewusstsein spreche.
      Du hast bisher zum Beispiel von Schmerzempfinden gesprochen. Mir ist nicht klar, was daran jenseits einer Mustererkennung liegen soll. Das Befinden anderer können wir unmöglich erleben. Daher ist Dein Beispiel des Schmerzempfindens nicht hilfreich. Woher nimmst Du das Wissen um das Befinden anderer Lebewesen? Doch immer nur aus Rückschlüssen auf Deine eigenen Empfindungen. Wie andere sich weigern Empfindungen in nicht menschlichen Tieren zu anzuerkennen, weigerst Du Dich anzuerkennen, dass irgendwelche technischen Systeme Empfindungen haben könnten. Ich behaupte nicht, dass es solche Systeme schon gibt, aber ich kann keine plausible Grundlage dafür erkennen, die die pauschale Festlegung rechtfertigen könnte, dass künstliche Systeme kein subjektives Befinden haben können.

      >5) Und da sich Bewusstsein momentan diesen Naturgesetzen entzieht, können sie nicht vollständig sein.
      Es würde mich ebenfalls verblüffen, wenn wir schon alle Gesetzmäßigkeiten kennen würden. Viele umständliche Fehlerkorrekturmechanismen deuten auch darauf hin, dass uns noch grundlegende Einsichten fehlen. Was aber bringt Dich zu der Überzeugung, dass diese noch unverstandenen Aspekte ihre Wirkung nicht ebenso bei Computern entfalten wie anderswo? Bist Du überzeugt Computer vollständig zu verstehen? Ist für Dich ausgeschlossen, dass sie bisher zwar nach den erwarteten Prinzipien funktionieren, aber in Grenzbereichen tiefer liegende Regelmäßigkeiten offenbaren, die uns zeigen, dass wir bisher nur einen Sonderfall kennen? Also vergleichbar mit dem euklidischen Raum und den zusätzlichen Dimensionen, die wir im Alltag einfach nie bemerken können?
      Mir ist klar, dass Computer absichtliche Konstrukte sind, die eben genau nur die von uns definierten Gesetzmäßigkeiten simulieren sollen. Da sie aber ebenso in unsere physische Welt eingebunden sind, wie alles Andere, würde es mich wundern, wenn sie tatsächlich völlig zuverlässig und “ungestört” nur unsere Ideen abbilden könnten.
      Dass sie als physische Gebilde ebenfalls an ihre Grenzen stoßen, zeigt sich ja deutlich durch das Ende des Jahrzehnte lang betriebenen Skalierungsspiels.
      Theoretische Computer, die rein als mathematische Konstrukte erdacht werden, hätten diese Probleme nicht, aber tatsächlich gebaute Rechner sind nun mal physische Objekte und damit auch jenen Wirkungen und Effekten unterworfen, die wir noch nicht verstehen. Freilich müssen wir davon ausgehen, dass Computersimulationen auf andere Weise von Naturgesetzen beeinflusst werden als jene physischen Phänomene, die sich vielleicht nachahmen, aber weil wir nicht wissen, was uns noch fehlt, können wir auch unmöglich vorhersagen wie sich die gegebenen Unterschiede zwischen Computern und biologischen Lebewesen auswirken.

      Die Sicherheit, mit der Du künstliche Intelligenz als Unmöglichkeit abtust, erscheint mir nach wie vor ungerechtfertigt.

  4. Wieso soll unberechenbare Mathematik grundsätzlich nicht technisch fassbar sein? Trotz seiner zweifellosen Genialität sind wir inzwischen von Alan Turings System zur Durchführung effektiver Verfahren recht weit entfernt. Aktuelle Systeme können von eigenen sinnlichen Erfahrungen lernen. Die moderne AI-Forschung beschäftigt sich schon lange nicht mehr mit starren Programmabläufen. Dem entsprechend erscheint mir fragwürdig derartig interaktiv operierende Systeme noch als geschlossene Systeme in Gödels Sinne zu betrachten. Die Grundlagen der Computertechnologie sind letztlich auch nicht stärker kausal determiniert als die physische Welt selbst.

    Ich verstehe auch nicht das Theater ums Bewusstsein. Was unterscheidet es von schlichter Mustererkennung? Und was ist freier Wille mehr als Determinismus auf höherer Ebene?: Wechselwirkungen laufen dabei eben nicht ausschließlich direkt über physische Interaktionen, sondern über eine psychische Deutungsebene ab. Ähnlich wie Lebewesen als Organismen interagieren, anstatt nur chemisch über Moleküle oder physisch über Elementarteilchen. (Das Ganze ist eben auch hier mehr als bloß die Summe seiner Teile.) Mustererkennung hat sich evolutionär bisher anscheinend bewährt.
    Wir können subjektive Gefühle anderer niemals empfinden. Wieso sollen wir als Außenstehende ein eventuelles Bewusstsein bei künstlichen Systemen irgendwie erleben können obwohl uns das Selbe bei biologischen Subjekten unmöglich ist? Wir können nur aus dem Verhalten anderer auf ihr Befinden schließen.
    Speziesist_innen sprechen nicht-menschlichen Tieren ab bewusst sein zu können und meinen dafür keine Erklärung zu brauchen weil das ja angeblich offensichtlich wäre. Mich befriedigt so eine Begründung nicht. Welche magische Zutat unterscheidet grundsätzlich ein AI-Selbstbild von einem biologischen Selbstbild?

    Wir verstehen nicht alles, was wir dennoch tun können. Andernfalls könnte beispielsweise niemand jemals Kinder bekommen. Wieso soll es also unmöglich sein ein künstliches Bewusstsein zu erschaffen – und sei es auch nur zufällig und ohne zu verstehen wie das eigentlich passiert ist?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert