28. März 2024

Künstliche Intelligenz und Bewusstsein: zwei ganz verschiedene Paar Schuhe

Auch in der Tierschutzbewegung gibt es eine fortschrittsgläubige Fraktion. Typischer Weise findet man sie unter jenen, die sich dem „Effektiven Altruismus“ (EA) verschrieben haben. Vieles an EA ist sicher positiv, aber er treibt auch sehr seltsame Blüten, wie z.B. die Idee, Raubtiere genetisch zu manipulieren, sodass es in der Wildnis friedlicher zugehe, siehe https://martinballuch.com/leidminimierung-bei-konflikten-unter-wildtieren/. Und eine andere dieser seltsamen Blüten ist die Idee, dass sehr bald die künstliche Intelligenz in Computerprogrammen und Robotern ein Bewusstsein und damit Leidensfähigkeit entwickeln werde, sodass wir TierschützerInnen dann vor allem RoboterschützerInnen werden sollten, weil das Abdrehen des Computers würde dann einem Mord entsprechen.


Anderswo habe ich bereits argumentiert, dass ein Computerprogramm etwas grundsätzlich Anderes ist, als das Bewusstsein in unserem Gehirn, ja, dass Letzteres nicht einmal durch ein Computerprogramm simulierbar ist (https://martinballuch.com/computer-artificial-intelligence-ai-kann-niemals-zu-bewusstsein-fuehren/). Dazu habe ich Mathematiker Kurt Gödel bemüht, der das sogar streng logisch bewiesen hat. Doch jene EA-Fans, die mathematische Logik nicht beeindruckt, bleiben bei ihrer Meinung und weisen darauf hin, dass Computerprogramme mittlerweile Menschen in allen möglichen Fähigkeiten übertrumpfen. Zuerst gewannen sie in Schach (IBMs Deep Blue gewinnt 1997 gegen Weltmeister Garry Kasparov), dann sogar in Go (Googles AlphaGo besiegt 2016 Lee Sedol, einen der weltbesten Go Spieler) und mittlerweile auch in Poker (im Jänner 2017 schlägt Computerprogramm Libratus 4 Poker-Profis). Computer werden bald Autos selbständig steuern, Gesichter erkennen und gesprochene Worte richtig interpretieren. Wieso sollten sie kein Bewusstsein entwickeln können?

Das rationale, streng logische Argument dagegen habe ich oben verlinkt. Doch jetzt fühle ich mich auch von einem Spezialisten in Künstlicher Intelligenz bestätigt. Das New Scientist bringt regelmäßig sogenannte „Instant Expert“ Serien, in deren Rahmen gewisse Themen in Form eines Reviews über den Stand der Wissenschaft von einem Experten vorgestellt werden. In den Ausgaben vom 29. 10. 2016 (Seiten 37-41) und vom 26. 11. 2016 (Seiten 39-43) übernimmt Nello Cristianini, Professor für Künstliche Intelligenz an der Uni Bristol in England, diese Aufgabe zur Künstlichen Intelligenz.

Dieses Forschungsfeld wurde 1956 eröffnet. Damals träumte man davon, die menschliche Intelligenz vollständig am Computer zu simulieren. Eines Tages würden dann diese lernfähigen Computerprogramme intelligenter als Menschen sein und das gesamte öffentliche Leben übernehmen. Man versuchte diese Programme wie eine Konditionierung im Behaviourismus aufzubauen: das Ziel ist vorgegeben, das Programm probiert verschiedene Möglichkeiten des Vorgehens nach Versuch und Irrtum und optimiert sich bei erfolgreichen Schritten selbst mittels positiver und negativer Verstärkung. Doch, so erklärt uns Cristianini, dieses Schema war zum Scheitern verurteilt. Es ist kaum möglich, auch nur ein relativ simples menschliches Verhalten mit reiner Konditionierung zu simulieren.

Aber auch die Regeln der Logik zu programmieren und so menschliches Denken zu simulieren, brachte nicht die gewünschten Resultate. Cristianini: „The instinct of those early engineers was to program machines from the top down. They expected to generate intelligent behaviour by first creating a mathematical model of how we might process speech, text or images, and then by implementing that model in the form of a computer programm, perhaps one that would reason logically about those tasks. They were proven wrong. They also expected that any breakthrough in AI would provide us with further understanding about our own intelligence. Wrong again.“

Dieses Scheitern habe in den frühen 1970er und den späten 1980er Jahren zweimal zu einem Austrocknen der Geldflüsse geführt, die die Forschung nach künstlicher Intelligenz fast zum Erliegen brachten. Ganz einfach: unser Verhalten, wie aber auch allgemeiner das Verhalten von Tieren, ist eben nicht nur durch Genetik und Konditionierung bestimmt, und unser abstraktes Denken, wie auch das bewusste Denken von Tieren, folgt nicht nur rein objektiv logischen Gesetzen, die sich programmieren lassen. Es kommt eben auch die bewusste Entscheidung dazu, die etwas grundsätzlich Anderes ist.

Wie aber kamen dann die beeindruckenden Erfolge der künstlichen Intelligenz zustande? Ganz einfach, sagt Cristianini, durch „Data crunching“. Dieser „breakthrough“ kam in den 1990er Jahren, zunächst bei Programmen zur Vorhersage von Konsumentenentscheidungen. Die Psychologie eines Konsumenten lässt sich schwer programmieren, aber aus einer Analyse einer Vielzahl von Einkäufen lassen sich Korrelationen finden, die belastbare Vorhersagen ermöglichen. Man muss gar nicht verstehen, warum Leute, die Produkt A kaufen, auch meistens gerne nach Produkt B greifen, aber wenn das statistisch signifikant häufig passiert, dann fördert eine entsprechende Werbung die Verkaufszahlen.

Bis Mitte der 2000er Jahre wurde klar: man ersetzt ein theoretisches Verständnis durch megagroße Datenbanken, und logische analytische Computerprogramme durch statistische Lernalgorithmen, die sich darauf spezialisieren, Korrelationen in Daten zu finden. Über menschliche Intelligenz kann man zwar so nichts lernen, weil die so nicht funktioniert, aber Erfolge hat man dennoch. Die Intelligenz steckt da nicht mehr in theoretischen Erkenntnissen, sondern in den Daten. Wenn die Datenmengen groß genug sind, können die Maschinen dadurch Dinge tun, die man niemals direkt programmieren könnte. D.h. der Computer selbst „weiß“ überhaupt nicht, wie ein menschlicher Akteur, warum er z.B. diesen Schachzug macht, sondern es hat sich nur gezeigt, dass das statistisch gesehen der beste Schachzug unter diesen Bedingungen ist.

Cristianini: „While each of these mechanisms is simple enough that we might call it a statistical hack, when we deploy many of them simultaneously in complex software, and feed them with millions of examples, the result might look like highly adaptive behaviour that feels intelligent to us. Yet, remarkably, the agent has no internal representation of why it does what it does. This experimental finding is sometimes called ‘the unreasonable effectiveness of data’. It has been a very humbling and important lesson for AI researchers: that simple statistical tricks, combined with vast amounts of data, have delivered the kind of behaviour that had eluded its best theoreticians for decades.“

Damit ist klar: lernfähige Computerprogramme, auch wenn sie Menschen in Schach, Go und Poker schlagen und bessere Vorhersagen treffen, funktionieren grundsätzlich anders als menschliches, bewusstes Denken. Kein Mensch hätte genug Lebenszeit, um so große Datensätze durch Erfahrung anzusammeln. Und das bewusste Verstehen von Zusammenhängen ist ein grundsätzlich anderer Prozess, als das Finden statistischer Korrelationen. Nein, künstliche Intelligenz und Bewusstsein haben absolut überhaupt nichts miteinander zu tun. So erreichen Computerprogramme jedenfalls niemals den Zustand der Leidensfähigkeit.

9 Gedanken zu “Künstliche Intelligenz und Bewusstsein: zwei ganz verschiedene Paar Schuhe

  1. Ein sehr wichtiger Unterschied den es vermehrt zu diskutieren gilt.

    Wenn man die Meinung vertreten würde, dass KI “bessere” Entscheidungen trifft als Menschen dann kann dem nur zum Teil – wenn überhaupt – zugestimmt werden:
    Das Speisen von KI mit Daten über Menschen bzw deren Entscheidungen als Maßstab für “bessere” Entscheidungen, würde den suboptimalen (also den schlechten) Charakter der Rahmenbedingungen für das Entstehen der Entscheidungen der Menschen beinhalten und dadurch würden die Ergebnisse der KI eben diese schlechten Rahmenbedingungen ihn ihrer künstlichen Entscheidungsfundung berücksichtigen was folglich auch wieder “schlechte Entscheidungen” produzieren würde.

    Auch wenn das Analyseschema über die Entscheidungen oder das Verhalten von Menschen der KI geändert werden würde, wären die Entscheidungne der Menschen unter ungünstigen Bedingungen getroffen worden.

    Letztendlich wird kein Weg herum führen, bei der Frage was eine gute menschliche Entscheidung ist, einen Menschen danach zu fragen und nicht eine Maschine. Und wenn mehrere Menschen gefragt werden, wird es wahrscheinlich verschiedene Antworten geben.

  2. Ach ja, und zum Beweisen oder Nicht-beweisen eines Freien Willens. Woher nimmst du die Bestimmtheit, dass es den nicht gibt? Ich erlebe ihn, ununterbrochen. Auch das scheint mir mehr ein Kommunikationsproblem als ein tatsächliches zu sein. Sehr viele AutorInnen, musste ich feststellen, meinen mit Freiem Willen irgendwie die großen Würfe des Lebens, die Lebensplanungen, vielleicht auch die Charaktereigenschaften. Ich meine etwas viel Banaleres: vor mir liegt ein Kugelschreiber und ich entscheide, ihn aufzuheben oder nicht. Mein Beweis gegen zumindest eine Berechenbarkeit eines Freien Willens: es müsste möglich sein, auszurechnen, ob ich den Kugelschreiber nehme oder nicht. Ich habe stark das Gefühl, dass ich immer das Gegenteil dieses Ergebnisses umsetzen kann. Ich hebe den Kugelschreiber auf, wenn ausgerechnet wurde, dass ich es nicht tun werde, und umgekehrt. Es bliebe also nur die grundsätzliche Unberechenbarkeit und der Indeterminismus. Und zwar auch nicht statistisch, wie in der Quantentheorie, sondern überhaupt. Und das ist ein sehr starkes Argument für den Freien Willen, dass es in dieser Welt eine ganz grundsätzliche Unberechenbarkeit physikalischer Phänomene gibt, die mit Bewusstsein zu tun haben. Ganz im Gegensatz zur künstlichen Intelligenz, die immer berechenbar bleibt. Da kann ich ganz genau vorhersagen, was sie tun wird.

    1. Auch ich meine ganz banale Dinge, wenn ich über Freien Willen reflektiere. Es könnte ihn meinem Verständnis nach allerdings nur im landläufigen Sinne geben wenn die Kausalität nicht absolut gilt. Einerseits setzt die Idee eines Freien Willens voraus, dass ich mit Entscheidungen etwas bewirken kann und andererseits braucht Entscheidungsfreiheit eben eine Unabhängigkeit von streng kausalen Abläufen. Das passt logisch nicht zusammen.

      Künstliche Intelligenz ist nur berechenbar so lange sie nicht aufgrund nicht geplanter Inputs lernt. Und genau das machen moderne lernfähige Systeme bereits. Es gibt sozusagen ein offenes Ende, das wir nicht in der Hand haben und da wir ein System geschaffen haben, dass plastisch reagieren kann, ist ohne vollständige Kenntnis der Inputs auch nicht mehr vorhersehbar wie es sich entwickeln wird. Aus meiner Sicht ist das, was meist als Freier Wille bezeichnet wird, ebenfalls nicht mehr als bloß ein Effekt der Unüberschaubarkeit. Bewusstsein ist damit nur die Innenperspektive eines unweigerlich/unaufhaltsam ablaufenden Prozesses. Bewusstsein ist ein evolutionär bewährter Musterbildungs- und Zuordnungsprozess, der aber nur aus unserer Sicht so wirkt als würde er undeterminiert ablaufen. Das kann ich in Ermangelung der Fähigkeit alle relevanten Daten zu überblicken nicht beweisen, aber es wirkt auf mich deutlich wahrscheinlicher als ein Bruch der sonst anscheinend überall gegebenen kausalen Abläufe.

  3. Lieber Konrad,

    ich kann mit Deinem Text so wenig anfangen, wie du vermutlich mit meinem. Mir scheint, du betreibst mehr Sprachanalyse als Wirklichkeitsanalyse.

    Zuerst: natürlich ist der Gödelsche Unvollständigkeitssatz auf künstliche Intelligenz anwendbar, insofern als er auf die Software angewandt wird, die die künstliche Intelligenz ausmacht. Soweit sind wir uns doch einig, hoffe ich, dass die Hardware austauschbar ist. Man braucht nur eine Turing Maschine. Ausschließlich die Software entscheidet über das Ausmaß der “Intelligenz” einer künstlichen Intelligenz. Und die ist sehr wohl ein formales System von Zeichen und Syntax.

    Was, bitte schön, meinst du damit, dass man nie weiß, ob andere ein Bewusstsein haben? Dass der Solipsismus nicht widerlegbar wäre? Warum sollte das so sein? Entweder du meinst grundsätzlich, man kann überhaupt nichts zu 100 % beweisen, dann sag ich na schön, und? Oder du meinst die Unbeweisbarkeit sei auf Bewusstsein beschränkt und dann muss ich fragen: wieso? Ich gehe davon aus, dass es eine objektive Realität gibt, und dass Bewusstsein ein Teil dieser objektiven Realität ist, und damit kann es genau so viel oder wenig beweisbar sein, wie die Existenz eines Wassermoleküls.

    Ich verstehe auch überhaupt nicht, warum du irgendwie zu meinen scheinst, dass die formalen sprachlichen Definitionen von Verstehen und Bewusstsein so entscheidend wären. Ich empfinde das überhaupt nicht so. Da ist ein reales physikalisches Phänomen, nämlich das subjektive, bewusste Empfinden, und kein sprachlicher Begriff der Welt wird je fassen können, was das genau ist. Dennoch existiert es ganz unabhängig davon. Einerseits haben wir das Problem, zu begreifen, wie sich Bewusstsein physikalisch auswirkt und wie sich das beweisen lässt. Dann erst entsteht ein sprachliches Problem: wie vermittle ich meine Einsicht einem anderen Wesen, um mich darüber auszutauschen. Wenn jetzt begriffliche Definitionsmängel herrschen, dann ist das bestenfalls ein Kommunikationsproblem, aber hat nichts mit der Wahrheit und Wirklichkeit des Bewusstseins zu tun.

  4. “While each of these mechanisms is simple enough that we might call it a statistical hack, when we deploy many of them simultaneously in complex software, and feed them with millions of examples, the result might look like highly adaptive behaviour that feels intelligent to us. Yet, remarkably, the agent has no internal representation of why it does what it does.”

    Ich stimme durchaus zu dass eine Repräsentation der Frage warum gerade diese Lösung, nicht unbedingt das Ziel der meisten entwickelten Algorithmen ist. Ich würde aber meinen dass die Antwort dieser Frage in den internen Entscheidungsstrukturen die auf den Daten selbst basieren liegt. Genauso ist es ja bei uns Menschen auch, wenn auch auf ganz andere Strukturen basierend: Wenn wir uns fragen “warum?”, dann gehen wir auch die Kausalkette unserer Erinnerungen Schritt für Schritt zurück oder vorwärts (bei Zielen), jedenfalls aber verfolgen wie Assoziationen die durch Daten (Sinneseindrücke) in unserem Gehirn synaptisch ausgebildet wurden.

    Ich würde sagen Bewusstsein ist nichts transzendentes sondern ganz real, und auch in nichttierischen Systemen möglich, allerdings braucht es dafür schon einen evolutionären Vorteil, also Pflanzen zB hätten nichts davon da sie sich ja nicht bewegen können und somit ein bewusstes Reagieren zB auf Schmerz besser durch Automatismen gelöst ist.

    Jedenfalls wüsste ich nicht was schlecht daran wäre, wenn es Bewusstsein nicht nur bei Tieren gibt… Ich würde da nicht zu sehr nach Bestätigungen suchen 🙂

  5. Gödels Unvollständigkeitstheorem gilt für formale Konstrukte. Künstliche Intelligenz ist zwangsläufig mehr als nur ein formales Konstrukt, denn Computer sind physische Geräte und liegen damit jenseits von geschlossenen formalen Systemen, die ja vollständig bekannt wären.

    Was meinst Du mit “verstehen”? Dein Buch: “Die Kontinuität von Bewusstsein” lässt diese Klarstellung komplett aus.

    Aus meiner Sicht ist “verstehen” nichts Anderes als Musterzuordnung. Wir ordnen konkrete Situationen verschiedenen Mustern zu und folgen abhängig von diesen Zuordnungen unterschiedlichen Reaktionsmustern. Wir (miss)verstehen eine Situation indem wir sie mit anderen Erfahrungen assoziieren. Subjektives Erleben ist die Bühne dieses Ablaufs und Freier Wille eine unsinnige Illusion. Subjektivität hat sich evolutionär vermutlich etabliert weil erst durch sie Individuen dynamisch gebildeten Reaktionsmustern folgen konnten. Das macht unseren Willen nicht frei, aber es erzeugt die Illusion von Freiheit, die wunderbar klar in dem Problem zu Tage tritt, dass wir zwar tun können, was wir wollen, aber nicht wollen was wir wollen.

    Woher kommen kreative Ideen? Ist es nicht lächerlich stolz auf eine tolle Idee zu sein? Wir können ja immerhin keine Idee herbeizaubern, bloß weil wir gerne eine hätten. Das Beste, was wir diesbezüglich tun können, ist Inspirationen zu suchen und offen für unkonventionelle Ideen zu sein bzw. sie kritisch zu würdigen, wenn sie uns kommen.

    (Tiefer liegt das Problem der Kausalität. Wir können ausschließlich kausal denken. Die Idee von nicht-kausalen Abläufen erscheint uns zwingend “unvernünftig”. Diese offensichtliche Limitation unseres Verstandes schränkt zwar unser Fassungsvermögen ein, sagt aber nichts über die Welt jenseits unserer Vorstellungswelt. “Wer nur einen Hammer hat, für den ist die ganze Welt ein Nagel.”)

    Einzelne Wasseratome reagieren anders als Flüssigkeiten. Damit das erklärbar ist, brauche ich keine magische Zutat zu behaupten. Je komplexer Systeme werden auf umso vielfältigere Arten können Wechselwirkungen in ihnen ablaufen. Bewusstsein ist aus dieser Sicht nicht mehr als die Verwirklichung kausaler Abläufe auf einer höheren Ebene. Ganz ähnlich wie Pflanzen vielfältiger als Sandhaufen interagieren, ist nicht weiter erstaunlich, dass Tiere im Rahmen von Bewusstsein auch auf Muster reagieren können, die noch keine Gelegenheit hatten sich evolutionär zu etablieren.

    Ich wage zu behaupten, dass Bewusstsein die irreführende Eigenschaft hat uns von dem Umstand abzulenken, dass wir ebenso komplett kausal funktionieren wie ein Apfel, der vom Baum auf den Boden fällt. Nur das Ausmaß der Präzision unterscheidet die beiden Prozesse von einander. Äpfel können sich nicht irren und daneben fallen. Wir irren uns dauernd. Und zwar nur weil Bewusstsein über Vorurteile anstatt über minutiös durchexerzierte Kausalabläufe funktioniert.

    Tiere mit Bewusstsein haben sich evolutionär trotzdem durchgesetzt. Vermutlich hauptsächlich weil unser Gehirn zu langsam funktioniert (weit langsamer als aktuelle Computer) sind jene Tiere übrig geblieben, die UN-genau aber schnell statt genau aber langsam reagiert haben.

    Weil trotz immer schnelleren Computerchips bei komplexen Anforderungen exakte Abläufe zu langsam sind, arbeiten inzwischen auch EDV-Systeme – nach dem Vorbild der Natur – mit Vorurteilen (Heuristik = verschachtelte Vereinfachungen). Daher erscheint mir sehr plausibel, dass bei einem ähnlichen Aufbau früher oder später auch ein Bewusstsein entstehen kann. Verstehen und Bewusstsein sind aus meiner Sicht – entgegen traditioneller Betrachtung – sehr banale Abläufe.

    Verstehen ist leicht beschreibbar: Schon in einiger Entfernung kann ich über Augen erkennen, dass eine Lawine auf mich zurollt. Nur wenn ich mich rechtzeitig in Deckung begebe, kann ich überleben. Selbst wenn mich meine Augen getäuscht haben weil das eigentlich gar keine Lawine war, schadet es mir weniger mich zu oft zu schützen als einmal blind in den Tod zu gehen. Um auf eine Lawine entsprechend zu reagieren, muss ich natürlich bereits die Konzepte (aka Muster) haben woran ich Lawinen erkenne und wie ich darauf reagieren könnte. Muster sind abstrahierte Erfahrungen. Erfahrungen werden im Gehirn – im Gegensatz zu traditionellen Computern – NICHT exakt gespeichert, sondern als reduzierte Abstraktionen. Vermutlich würden auch hier mein Gehirn zu viele Details überfordern. (Mir ist klar, dass grundsätzlich auch erstaunlich viele Details verfügbar bleiben, aber meine Erinnerung ist offensichtlich kein konkreter Datensatz, sondern eher ein zerstreutes Flickwerk von Referenzen und Allgemeinposten. Kaum etwas kommt ausschließlich in einem Kontext vor.)

    Auch in der biologischen Evolution hat sich Bewusstsein erst ergeben. So lange wir keine religiöse Schöpfungsgeschichte behaupten, ist klar, dass Bewusstsein in der Natur nicht geplant, sondern aus anderen Zusammenhängen entstanden ist. Es gibt zumindest ein Wechselwirkungssystem in dem Bewusstsein entsteht.

    Bewusstsein in künstlicher Intelligenz ist nicht wünschenswert. Es ist ein mögliches Problem. So lange wir Bewusstsein in Technik vermeiden können, sollten wir das tun. Wenn wir die Menschheitsgeschichte betrachten, müssen wir zugeben, dass Bewusstsein in unserer Ausprägung unattraktiv viel Grauen wenn schon nicht immer verursacht, dann doch zumindest meist nicht verhindert.

    Das pure Erleben von Zahnschmerzen ist kein Gegenargument gegen die Idee, dass auch ein künstliches Bewusstsein möglich wäre. Wir können daran glauben, dass andere dieses Erleben haben, oder auch nicht. Wir haben keine zuverlässige Brücke zu fremder Erfahrung. Wir sind immer bloß bereit andere als bewusst anzuerkennen oder nicht. Es gibt lediglich Indizien, aber keine Möglichkeiten Bewusstsein zu beweisen. Logisch ist Solipsismus nicht auflösbar. Wir können nicht beweisen, dass irgendetwas jenseits unserer unmittelbaren Erfahrung existiert. Weil wir immer ausschließlich im Moment existieren können wir uns noch nicht mal unseres Egos oder irgendeiner Zeitlichkeit sicher sein.

    Viele Menschen sind überzeugt, dass nur Menschen bewusst sind. Dabei funktionieren andere Tiere offensichtlich sehr ähnlich wie wir. Wir sind noch nicht mal bereit durch Ähnlichkeit vermittelte Empathie zuverlässig ernstzunehmen. Wie könnten wir ein eventuelles Bewusstsein in künstlichen Systemen erkennen, dessen Erleben zwangsläufig völlig anders als unseres wäre?

    Wir können nur unsere Begrifflichkeit klären und sie konsequent verwenden. Alle Systeme/Individuen, die nachvollziehbar die so definierten Attribute besitzen, sollten als bewusst angesehen werden. Freilich können wir uns täuschen, aber die Situation rechtfertigt keine plumpe Leugnung der Möglichkeit, dass technische Systeme Attribute aufweisen könnten, die sie ethisch relevant machen.

    1. mit dieser sichtweise kann ich mich sehr anfreunden!
      das universum scheint wie ein haufen toter staub. doch wenn man nur lange genug wartet wachsen die faszinierendsten vielfältigsten muster in diesem scheinbar totem staub. unser bewusstsein ist ein symptom der muster des universums, diese muster sind nicht auf uns tiere beschränkt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert