Anderswo habe ich argumentiert, dass lernfähige Computerprogramme und neuronale Netze wie Konditionierung funktionieren und damit völlig ohne Bewusstsein auskommen, siehe https://martinballuch.com/operante-konditionierung-entspricht-computerprogramm/. Die moderne künstliche Intelligenz betreibt dagegen „Big Data Crunching“, siehe https://martinballuch.com/kuenstliche-intelligenz-und-bewusstsein-zwei-ganz-verschiedene-paar-schuhe/, und hat damit noch weniger mit Bewusstsein gemeinsam. Sie analysiert megagroße Datensätze und findet darin Strukturen, die oft unseren menschlichen Augen verborgen bleiben, allein schon, weil wir so große Datensätze gar nicht bewusst aufnehmen können. Unser Gehirn ist dafür überhaupt nicht angelegt.
Bei einem Vortrag im Club of Vienna kürzlich wurde mir das wieder deutlich vor Augen geführt. Mittels künstlicher Intelligenz kann man z.B. schließen, dass jemand, der biologisch männlich ist und diese und jene Dinge kauft, zu soundsoviel Prozent Wahrscheinlichkeit homosexuell ist. Das ist mittlerweile eines der typischen Ziele, für die künstliche Intelligenzeingesetzt wird: Vorhersagen von Konsumverhalten im Namen großer Konzerne oder von Eigenschaften von Personen aufgrund ihres Konsumverhaltens für die politische Polizei. Beides führt zu totaler Kontrolle und zur Manipulierbarkeit von uns BürgerInnen – aber das ist ein anderes Thema.
Im Rahmen dieses Vortrags wurde auch ein Beispiel der Anwendung künstlicher Intelligenz in der Wettervorhersage verwendet. Man füttert den Computer mit Daten von zigtausenden Wirbelstürmen und zusätzlich den momentanen Messdaten eines spezifischen Wirbelsturms, und kann mit großer Wahrscheinlichkeit vorhersagen, was dieser Wirbelsturm machen wird, wohin er sich bewegt, ob er stärker wird oder sich abschwächt.
Als ich ab 1989 selbst Computerprogramme schrieb, die Vorhersagen über die Atmosphäre der Erde erlauben sollten, damals vor allem über das Ozonloch, aber auch über den Klimawandel oder das Wetter, ging ich ganz anders vor. Ich habe keine Statistik durchgeführt und keine großen Datensätze in den Computer eingespielt. Ich habe die Grundprinzipien der Natur – in meinem Fall die Erhaltungssätze für Energie, Impuls, Drehimpuls und Masse – in mathematische Gleichungen gegossen und mittels Computer gelöst. Das bedeutet, ich habe die Atmosphäre in kleine Würfel zerlegt, z.B. der Größe 100 m Länge x 100 m Breite x 10 m Höhe, und habe über ihre Ränder jeweils diese Erhaltungssätze formuliert. Für jeden dieser Würfel galt also, dass seine Masse nach 1 Sekunde durch die Masse, die sich am Anfang im Würfel befunden hat, plus der Masse, die in dieser Sekunde hinein gegangen ist, minus der Masse die in dieser Sekunde herausgekommen ist, gegeben ist. Dasselbe galt für die anderen Erhaltungsgrößen. Bei der Energie z.B. musste man sich überlegen, auf welche Weise Energie hinaus oder hinein fließen kann, z.B. durch Sonnen- oder Wärmestrahlung, durch Wärmeleitung und dadurch, dass wärmere Luftmassen hinein gehen und kältere hinaus wandern. Dieses Gleichungssystem wurde dann durch verschiedene physikalische Effekte erweitert. Z.B. durch die Bildung von Eiskristallen, die je nach Bedingungen größer oder kleiner werden können, durch die Streuung des Lichts an diesen Kristallen, durch chemische Prozesse, oder durch die sich ändernde Reflexionseigenschaft der Erdoberfläche für Licht durch mehr oder weniger Schneebedeckung usw. Und mit Hilfe dieses großen mathematischen Gleichungssystems konnte ich dann berechnen, wie sich die Atmosphäre in Zukunft entwickeln wird, ob sich Wirbelstürme bilden und was mit diesen passiert.
Das ist etwas grundsätzlich Anderes, als statistische Analysen. Mit Letzteren komme ich zu Wahrscheinlichkeiten von gewissen Ereignissen, ohne die kausalen Verknüpfungen zu erkennen. Ich habe eigentlich gar nichts verstanden. Mit diesem mathematischen Modell für die Erdatmosphäre auf Basis der physikalischen Grundprinzipien kann ich dagegen ganz genau jede kausale Beziehung analysieren. Ich kann das sprichwörtliche Flattern der Flügel eines Schmetterlings als Ursache für einen Wirbelsturm ausmachen. Ich habe damit alles, was im Rahmen dieser Berechnungen passiert, verstanden.
Und das ist der entscheidende Unterschied zwischen Bewusstsein und künstlicher Intelligenz, wie sie heute betrieben wird. Aus statistischen Analysen von Daten – die auch den Erfolgen der Schach-, Go- und Pokercomputerprogrammen zugrunde liegen – kann ich vielleicht Handlungsanweisungen ziehen, die zu guten Ergebnissen führen und sogar die besten Menschen übertrumpfen, aber ohne auch nur irgendetwas zu verstehen. Umgekehrt handelt das Bewusstsein: es versteht. Mein Bewusstsein hat dieses Computerprogramm verfasst, das genau diese Berechnungen durchführt, mit denen ich es beauftragt hatte. Mein Programm kann nicht mehr herausbekommen, als ich hinein gesteckt habe. Die künstliche Intelligenz auf Basis der Datenanalysen findet dagegen Strukturen, die vorher kein Mensch gekannt hatte, die aber nur statistische Relevanz haben.
Manche Menschen fürchten sich davor, dass Maschinen mit künstlicher Intelligenz die Gesellschaft übernehmen, oder gar dass sie Bewusstsein entwickeln. So, wie künstliche Intelligenz momentan funktioniert, besteht diese Gefahr nicht. Dagegen bergen Big Data sehr große Gefahren für unsere Demokratie, die aber nicht von der künstlichen Intelligenz selbst ausgeht, sondern von den Menschen, die sie gegen uns BürgerInnen einsetzen.
Tatsächlich entwickeln tiefe neuronale Netze “Verständnis” auf mehreren Abstraktionslevels. D.h. zB ausgehend von Input auf Pixel-Level entwickeln sich basierend auf Fehlerminimierung (in Vergleich mit durch menschen klassifizierten Daten!) gewichtete Kombinationen die dann Verständniseinheiten auf höherem Abstraktionslevel darstellen.
zB Pixel -> Pixelkombinationen zB Kanten (Helligkeitsunterschiede) -> Kantenkombinationen zB in Form von Gesichtsteilen wie Nase, Augen -> Gesichtsteilkombination zB Gesichter von verschiedenen Menschen etc.
Das Problem ist:
– es braucht bisher noch immer menschlich klassifizierte Trainingsdaten!
– es ist tatsächich ein riesen problem dieses verständnis aus der black box der laufenden maschine mit einem verständnis über das ein mensch sprechen kann in verbindung zu bringen.