Ein menschenähnlicher Roboter
APA/dpa/Axel Heimken
APA/dpa/Axel Heimken
Menschheit

Theologe: Klare Regeln für Künstliche Intelligenz

Nicht nur Künstliche Intelligenz (KI) benötigt laut dem Sozial – und Wirtschaftsethiker Elmar Nass internationale Regeln, auch die Menschen brauchen mehr ethische Bildung, um sorgsam mit KI umgehen zu können.

Nass äußerte sich in einem Interview mit der Kooperationsredaktion der österreichischen Kirchenzeitungen (Mittwoch-Ausgabe). Zwar könne die KI in Wissenschaft, Technik und Medizin bereits Arbeitsprozesse optimieren, die Gefahr lauere aber dort, wo die Verantwortung über das eigene Handeln einem Roboter oder Algorithmen überantwortet werde.

Dahinter stehe zwar der verständliche Wunsch, die menschliche Fehlerhaftigkeit zu reduzieren und durch eine mathematisch perfekte Entscheidung zu ersetzen. Der Mensch sei aber mehr als eine Ansammlung verschiedener Daten, betonte der Experte.

Menschenbildung für Umgang mit KI

„Wenn man blind nur mathematisch exakten Berechnungen vertraut, spielen Menschenwürde und Moral keine Rolle mehr und es besteht die Gefahr, dass es keine rationalen und demokratischen Diskussionen mehr braucht“, warnt Nass, der an der Kölner Hochschule für Katholische Theologie (KHKT) lehrt. Anders als die KI verfüge der Mensch über eine Seele und könne „ehrliche menschliche Begegnungen“ haben, so der katholische Priester.

Damit ein verantwortungsvoller Umgang mit der KI nicht kippt, braucht es laut Nass eine ethische Bildung in Forschung und Technik über das Menschenbild, Werteverständnis, Verantwortung, Freiheit und ein Gefahrenbewusstsein. „Allein auf Ethik zu setzen, ist allerdings zu wenig, denn es kann immer Menschen geben, die KI nutzen und weiterentwickeln, um Profit und Macht zu haben.“ Der Theologe fordert daher, ähnlich wie Papst Franziskus, klare Regeln und Sanktionen für den Umgang mit KI.

„Wenn man den Stecker rauszieht, ist alles vorbei“

Würden Menschen der KI bei wichtigen Entscheidungen, etwa bei religiösen Fragen oder beim aktuellen-Ukraine-Konflikt blind vertrauen, würde dies Tür und Tor für ein despotische Regime öffnen, wo Menschen unterdrückt und gleichgeschaltet werden. Folglich würde die Zukunft dessen, „was wir unter Menschlichkeit, Verantwortung, Demokratie, Würde und Freiheit verstehen“, auf dem Spiel stehen, zeichnet Nass ein dystopisches Bild.

Der Ethiker zweifelt auch an der Nutzung von humanoiden Robotern in der Pflege. Für Nass sind diese ein „von einer Maschine gesteuerter Torso“, ohne echtem Einfühlungsvermögen. Zwar seien die Erklärungen zu den neuen Betätigungsfeldern von Robotern plausibel, trotzdem könnten Roboter in Pflegeheimen und im Umgang mit betagten Menschen nur „vermeintliche Gefühle“ zeigen. „Wenn man den Stecker rauszieht, ist alles vorbei.“

Warnung vor autonomen Waffen

Als Gefahr ortet Nass auch die Verwendung von KI im Bereich autonomer Waffen, die „selber ‚Entscheidungen‘ treffen, in welche Ziel sie hineinfliegen, ohne dann ein Mensch eingreift“. Das Resultat seien Kriegsverbrechen, für die keiner Verantwortung übernehmen würde. Der Sozialethiker fordert daher ein Verbot solcher Waffen.

Mehr Verständnis für den Einsatz von KI zeigt Nass für den Einsatz des Chatbots „ChatGPT“ bei Übersetzungen oder um Ideen zu finden. Er selbst nutze KI in seiner Forschung, um etwa Chatrooms im Internet auf Themen zu untersuchen, wie Trost, Ewigkeit, Vergebung oder den Sinn fürs Leben. Die KI unterstütze hier bei der Feldforschung, die Konsequenzen für Theologie wie Pastoral müssten aber mit menschlicher Intelligenz gezogen werden.