… und wenn sich die KI verselbstständigt?
Müssen wir fürchten, dass die Künstliche Intelligenz selbstständig lernen und irgendwann selbst Entscheidungen treffen wird, auf die wir Menschen keinen Einfluss mehr haben? „So weit sind wir noch nicht“, kalmiert Joshua Ellul, angesprochen auf die Sorge, die die Künstliche allgemeine Intelligenz (Artificial General Intelligence AGI) bei vielen auslöst. „Aber wenn die Menschheit so etwas erschafft, sollte protokolliert und vereinbart werden, was wir in der Welt damit tun.“
Wie man Künstliche Intelligenz regulieren und mit ihren Herausforderungen und Risiken umgehen soll, frage ich ihn. Ellul war Vorsitzender der MDIA - „Malta Digital Innovation Authority“ - der Regulierungsbehörde für digitale Technologie und hat zuvor mit der Regierung Gesetze für Kryptowährung und Blockchain in Malta entworfen. Es brauche jedenfalls allgemeine Regulatorien und gesetzliche Vorgaben, wie sie etwa die Europäische Kommission mit ihrer KI-Verordnung kürzlich auf den Weg gebracht hat. Dabei seien zahlreiche Aspekte zu beachten. „Die Frage ist, sollten wir KI kontrollieren oder den Einsatz von KI?“ So kommt es immer auf das Anwendungsgebiet an. Bei einem Schachspiel wäre es nicht das Ende der Welt, würde die KI ihren Job nicht gut ausführen. Bei KI in automatisierten Autos, in der Luftfahrt, in der Versicherungsabwicklung sei es aber etwas anders.
„Das Wichtigste, was wir tun sollten, ist eine ganzheitliche Bildungspolitik gewährleisten“, so Ellul, heute Direktor des Centre for Distributed Ledger Technologies an der L-Università ta' Malta. „Erziehungspolitik so gestalten, dass Kinder und junge Menschen in zehn, 15, 20 Jahren bereit sind, weiter- oder umzulernen und darauf zu reagieren, was der Arbeitsmarkt dann verlangen wird.“ Und dass die Gesellschaft daran gewöhnt ist.
Der Aufschrei, nachdem die breite Öffentlichkeit von ChatGPT erfahren hatte, war groß, dabei arbeitet die KI schon seit Jahren im Hintergrund mit. Wenn wir den Kalender am Handy verwenden oder ein E-Mail schreiben: Die meisten klassischen Apps und die sozialen Medien verwenden mittlerweile KI, um etwa Informationen über ihre Nutzer zu sammeln, so der Maltese. Anhand unserer Interaktionen können sie erkennen, welche Partei wir wählen oder in welches Restaurant wir gehen würden. Die Frage sei also nicht, welche Daten die Künstliche Intelligenz sammle, sondern welche Daten wir als Privatperson freigeben: „Wenn wir posten, was wir essen und wo wir einchecken, dann sollten wir keine allzu große Angst vor der KI haben. Denn diese Informationen sind bereits vorhanden, weil wir sie selbst freigegeben haben.“
Die wirkliche Gefahr sieht Ellul also nicht in der Künstlichen Intelligenz. Sondern darin, wem sie in die Hand gegeben wird. „Wir stellen KI Individuen zur Verfügung und versorgen damit auch potenziell schädliche und gefährliche Menschen mit Werkzeugen, mit denen sie zu viel mehr fähig sind als bisher.“ Kernkraftwerke hacken, Raketen abfeuern. „Letztendlich sind es die Menschen, um die wir uns Sorgen machen müssen.“ Darum sind penibel ausgearbeitete Regulatorien und gesetzliche Vorgaben auch so wichtig.