Einer der leistungsfähigsten Rechner der Welt, der europäische Super-Computer „MareNostrum“, steht an einem für Maschinen ungewöhnlichen Ort, der ehemaligen Kapelle Torre Girona in Barcelona. Künstliche Intelligenz in einer früheren Kirche – das hat eine gleichsam sakrale Symbolkraft. Tatsächlich gilt die schon heute beherrschende Technologie neuronaler Vernetzung vielen als neue Gottheit, anbetungswürdig, geheimnisvoll, allmächtig. Von Menschen erschaffen und geeignet, nicht nur Gutes zu bewirken, sondern am Ende bis zum Jahr 2100 sogar die Erdbevölkerung auszulöschen, wie im Juli 200 Experten in einer Studie des amerikanischen Forecasting Research Institutes warnten?
Dabei erscheinen die Segnungen der KI doch äußerst verheißungsvoll. Seit Jahrzehnten machen Anwendungen der Informatik revolutionäre Fortschritte auf vielen Feldern der Wissenschaft möglich, nicht zuletzt in der medizinischen Diagnostik, bei der computergestützten Bilderkennung von Krebs, Diabetes, Arterienverkalkung. Materialwissenschaften, Astrophysik, Photovoltaik, Batteriespeicherung, Mobilität – überall profitiert die Forschung von digitalen Assistenzsystemen. Und wie nützlich erst können hilfsbereite Roboter beim Einsatz in Krankenhäusern oder Pflegeheimen werden, wer mag da noch von einer Verdrängung menschlicher Arbeitskräfte durch Androide sprechen? KI nimmt uns Arbeit ab, wie schön. Oder nehmen Apparate uns die Arbeit weg und übernehmen das Kommando?
Jedenfalls hat der weltweite Wettbewerb um Produktivität und Profit durch lernfähige Mikrochips, Maschinen und Chatbots längst begonnen. Ob die Superhirne den Menschen dabei überholen, ausschalten oder gar vernichten, ist einstweilen unentschieden. Der israelische Historiker und Zukunftsforscher Yuval Noah Harari sieht durch die KI das „Ende der Menschheitsgeschichte“ heraufziehen, eine apokalyptische Prognose. Soweit waren wir aber schon oft – bei der Erfindung der Eisenbahn ebenso wie bei Einführung der Elektrizität. Disruptive Innovationen begleiten die Wissenschaft von Beginn an, drei bedeutende Dramatiker des 20. Jahrhunderts haben diesen Urkonflikt auf die Theaterbühne gebracht. Zuerst Bertolt Brecht („Leben des Galilei“), dann Friedrich Dürrenmatt („Die Physiker“), schließlich Heinar Kipphardt („In der Sache J. Robert Oppenheimer“). Verhandelt wurde über die Gewissensnöte von Forschern, die bis dahin Unerhörtes herausgefunden oder entwickelt hatten, über Verantwortung und Loyalität, über Moral und Macht.
In allen drei Stücken ist der Geist aus der Flasche, in Dürrenmatts Worten:“Was einmal gedacht wurde, kann nicht mehr zurückgenommen werden.“ So scheitert auch Galileis Versuch, seine Entdeckung über den Kosmos zu widerrufen, um im Geheimen weiter arbeiten zu können. Und bei Oppenheimer, dem Erfinder der Atombombe, steht die bittere Erkenntnis, dass es keinen ethischen Totalitätsanspruch der Humanität gibt. Das unentrinnbare Dilemma, in dem der US-Physiker und Kopf des „Manhattan-Projekts“ zur Entwicklung der nuklearen Massenvernichtungswaffe einst steckte, wird weithin als „Oppenheimer-Moment“ beschrieben. Es ist der Augenblick einer Entscheidung, die der einzelne Wissenschaftler womöglich in dem Bewusstsein fällt, dass davon die ganze Menschheit betroffen ist.
Was als zunächst ergebnisoffene, vermeintlich wertfreie Forschung beginnt, mündet in einen Prozess, der die Büchse der Pandora öffnet und den betroffenen Gelehrten mit der Frage konfrontiert, welche Verantwortung er persönlich für die Anwendung seiner Idee übernehmen muss, welche Schuld er für die praktischen Folgen einer theoretischen Konstruktion trägt. Oppenheimer stürzte nach dem Abwurf der Bomben auf Hiroshima und Nagasaki in tiefe Verzweiflung, das Ausmaß der Zerstörung löste bei dem geistigen Vater von „Little Boy“ und „Fat Man“ schwerwiegende psychische Probleme aus. Er war Verursacher eines „Kipppunktes“ der Menschheitsgeschichte, wie wir im Rückblick sagen müssen.
Dabei hält die gerade mit dem renommierten Körber-Preis ausgezeichnete Roboter-Forscherin Cordelia Schmid den Vergleich der KI mit der Atombombe für unzulässig. „Die Bombe hat ausschließlich negative Auswirkungen“, sagt die Informatikerin,“KI auch viele positive.“ Das ist wahr, aber wenn man die möglichen Konsequenzen von Computerprogrammen mit jenen der Kernspaltung (also auch der zivilen Nutzung in Kraftwerken) vergleicht, ist der Unterschied schon weniger eindeutig. Welches Potenzial hat Künstliche Intelligenz denn tatsächlich? Julian Nida-Rümelin, Philosoph und Buchautor („Die Realität des Risikos“), hält an seiner Auffassung fest, dass „menschliches Abwägen nicht durch Algorithmen ersetzt werden kann“. Der Mensch sei eben „keine Maschine und umgekehrt“. KI habe – anders als Individuen – „keine Absichten“, sie gebe „nur den Anschein von Intentionen“, habe sie aber nicht wirklich. Immerhin räumt der Münchner Professor ein, dass Automaten den Menschen als Autoren seines eigenen Lebens sowohl stärken wie schwächen können.
Diese Ambivalenz umschreibt Jürgen Schmidhuber, der seit 1985 auf dem Feld angewandter Informatik forscht und als einer der „Väter der modernen KI“ gilt, mit dem „Omega-Punkt“. Das ist jener Moment, in dem sich lernfähige Automaten so rasch selbst verbessern, dass Menschen die Entwicklung nicht mehr nachvollziehen können. Schmidhuber glaubt jedoch, dass sich diese Überlegenheit des maschinell erzeugten Denkens nicht zwingend zum Nachteil der Zivilisation auswirken muss: „Auch eine superkluge KI wird daran interessiert sein, unsere schöne Biosphäre zu erhalten.“ Interessant, so Schmidhuber, werde es, sobald lernfähige Roboter durch Interaktionen „sich physikalisch selbst replizieren können“. Dann habe man „zum ersten Mal eine neue Sorte von Leben, die nichts mit Biologie zu tun hat und sich trotzdem vervielfältigen kann“.
Das sehen die beiden Wirtschaftswissenschaftler Daron Acemoglu und Simon Johnson vom Bostoner MIT kritischer. In ihrem aktuellen Buch „Macht und Fortschritt“ (Campus Verlag) beschäftigen sie sich intensiv mit der „Maschinennützlichkeit“ über verschiedene Epochen der 1000-jährigen Technikgeschichte hinweg und bezeichnen KI in diesem Zusammenhang als „Mutter aller ungeeigneten Technologien“ – die „Tech-Community“ erliege dem „Zauber der Maschinenintelligenz“. Digitale Technologien, Robotik und andere Automatisierung, so die US-Professoren, trügen schon jetzt zu einem Prozess der Deindustrialisierung in vielen Entwicklungsländern und zu wachsender globaler Ungleichheit bei, zur „Wiedergeburt der Zweiklassengesellschaft“ und zur Zerstörung der Demokratie.
Derart dystopische Zuschreibungen teilen jene 350 Fachleute und Führungskräfte aus Forschung und Unternehmen, die sich im Mai 2023 mit einem Appell an die amerikanische Öffentlichkeit gewandt haben, nicht unbedingt. Aber ihre Warnungen vor einem „Risiko des Aussterbens durch KI“ ähnlich wie durch Pandemien oder die Atombombe klangen dramatisch genug, schließlich waren die Unterzeichner an der Entwicklung dieser Technologie selbst maßgeblich beteiligt. Die Forderung an den Staat, künstliche neuronale Netze stärker zu reglementieren, womöglich sogar ein Forschungsmoratorium zu verhängen, um der Entwicklung nicht hoffnungslos hinterherzulaufen, war an Eindringlichkeit kaum zu überbieten. Oder braucht es – wie bei der Nutzung der Kernenergie – erst einen Super-GAU wie in Tschernobyl und Fukushima, damit sich die Nationen an einen Tisch setzen und darüber befinden, wie die Risiken der KI einzudämmen sind?
Die Europäische Union rühmt sich, mit ihrem im Juni verabschiedeten KI-Gesetz weltweit die erste umfassende Richtlinie für den Einsatz dieser Technologie geschaffen zu haben. Auch der Deutsche Ethikrat war nicht untätig und legte schon im März eine mehrere Hundert Seiten umfassende Stellungnahme unter dem Titel „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ vor. Die Vorsitzende des Kollegiums, Professorin Alena Buyx, erläuterte die „ethische Faustregel“, die bei der Debatte um „Vernunft und Verantwortung der KI“ als Maßstab galt:“Anwendungen, die mit Künstlicher Intelligenz funktionieren, müssen die Handlungs- und Entfaltungsmöglichkeiten von Menschen erweitern, nicht verringern. KI darf Menschen nicht ersetzen.“ Das klinge zunächst einmal „einfach, aber der Teufel steckt im Detail“. Es müsse künftig „jede Anwendung gesondert betrachtet werden“.
Dazu hat der Deutsche Bundestag schon vor über drei Jahrzehnten einen eigenen Fachausschuss sowie ein ständiges „Büro zur Technikfolgen-Abschätzung“ eingerichtet. Doch ob diese politischen Instrumente dazu taugen, Missbrauch und Machtphantasien gerade im Umgang mit KI rechtzeitig zu erkennen und zu verhindern, dass ein „Point of no Return“ überschritten wird, darf angesichts der bisherigen Praxis bezweifelt werden. Vielleicht gelingt es in Einzelfällen und beschränkt auf den Geltungsbereich bundesdeutscher Gesetze, schädliche Entwicklungen zu stoppen, aber jüngste Beispiele aus der Gentechnologie haben gezeigt, dass ethische Grenzen etwa für den Eingriff in die menschliche Keimbahn in anderen Staaten eben nicht beachtet werden – was nützen sie also nur hierzulande?
Die Verständigung darüber, was KI darf und was nicht, muss in einem möglichst globalen Rahmen herbeigeführt werden. Für eine solche internationale Übereinkunft, etwa den von der UN bis 2024 angekündigten „Global Digital Act“, ist es noch nicht zu spät, aber höchste Zeit. Es geht – wieder einmal – darum, Grundlagenwissenschaft zu ermöglichen, aber ihre technologische Anwendung Regeln zu unterwerfen. Forschung zielt darauf, den menschlichen Erkenntnisraum zu erweitern, erst wenn ihre Ergebnisse technologisch dienstbar gemacht werden, entstehen Risiken und Nebenwirkungen. Der Mensch, die Gesellschaft, wir alle tragen die moralische Verantwortung für unser Handeln und Unterlassen. Insofern haften wir gemeinsam für mögliche Fehlentscheidungen und Gefahren. Die Verpflichtung, Technologien auf ihre Folgen zu überprüfen und unbeherrschbare Risiken mit geeigneten Instrumente zu minimieren, wenn nicht gar auszuschließen, kann weder an Forscher und Ingenieure noch an Unternehmer oder Politiker delegiert werden.
*
Unser Autor Gunther Hartwig (72), langjähriger Korrespondent der SÜDWEST PRESSE in Bonn und Berlin, begleitet die Debatte über Technikfolgen-Abschätzung im Bundestag seit deren Beginn vor über 40 Jahren.
Bildquelle: Gemmaribasmaspoch, CC BY-SA 4.0 https://creativecommons.org/licenses/by-sa/4.0, via Wikimedia Commons
Dieser Beitrag wurde erstveröffentlicht auf swp.de am 20.10.2023