Zuerst der Hype, dann die Panik. In einem halben Jahr schaffte es ChatGPT nicht nur mehr als 100 Millionen User zu gewinnen, sondern auch zahllose Untergangspropheten auf den Plan zu rufen. Sogar Elon Musk, sonst nicht gerade zimperlich, fordert die weitere Entwicklung anzuhalten.
“Was Atombomben für die physische Welt sind, ist Künstliche Intelligenz für alles andere.” Drastischer kann die Panikmache rund um den KI-Bot ChatGPT nicht zusammengefasst werden als mit dieser Eröffnung einer Tagung des Center for Humane Technology in New York im März 2023. Angeblich, so die Veranstalter, sei die Hälfte aller Forscherinnen und Forscher im Bereich Künstlicher Intelligenz davon überzeugt, dass es zumindest eine 10-prozentiger Chance gebe, dass KI zum Untergang der Menschheit führen würde. Das würde uns natürlich davor bewahren, dass die Menschheit der Klimakatastrophe zum Opfer fällt, wovon nicht nur 10, sondern an die 99 Prozent aller Wissenschafterinnen und Wissenschafter in diesem Bereich überzeugt sind.
Apokalyptische Ängste bewegt auch eine Tausendschaft von Techies, ForscherInnen und Promis, die vor ein paar Wochen in einen offenen Brief ein “Moratorium” der weiteren Entwicklung von Artificial Intelligence (AI) forderten. Unterzeichner Elon Musk stellte sich quasi als Sprachrohr der Besorgten zur Verfügung. Vielleicht auch nur, weil er zwar einerseits 2015 einer der maßgeblichen Investoren in OpenAI war, dem Entwickler von ChatGPT, aber seither das AI-Feld Microsoft, Google & Co. überlassen hat und jetzt befürchtet, dass der AI-Zug ohne ihn abgefährt. Da wäre ein “Moratorium” für Musk ganz praktisch, um den AI-Express wieder einzuholen. Erst vor kurzem erklärte er dem – inzwischen entlassenen – rechten Fox-News-Moderator Tucker Carlson, er werde eine KI namens “TruthGPT” herausbringen werde. Wohl nicht zufällig erinnert der Name an das von Donald Trump gegründete Netzwerk “TruthSocial”.
Aber lassen wir den Sarkasmus: Viele ernsthafte Menschen beschäftigen sich mit möglichen negativen Folgen von KI und das ist gut so. Der technologische Fortschritt seit der Erfindung der Dampfmaschine brachte in den letzten Jahrzehnten auch den sozialen Fortschritt der Folgenabschätzung für neue Technologien. Bis die Menschheit die dramatischen Auswirkungen der im 19. Jahrhundert einsetzenden Industrialisierung begriffen hat dauerte es hundert Jahre und mehr, wovon der viel zu spät einsetzende Kampf gegen den Klimawandel zeugt. Bei neueren Technologien fällt die Feedback-Schleife inzwischen etwas kürzer aus. Die Abschätzung unerwünschter Folgen geschieht rascher, was die Chance ihrer Begrenzung oder besser noch Vermeidung erhöht.
Eine kritische Auseinandersetzung mit KI ist unerlässlich.
Darum ist die konstruktive Auseinandersetzung über die Folgen von KI-Systemen dringend notwendig. ChatGPT hat dies sehr schnell provoziert, selbst wenn noch nicht klar ist, wie wir mit den negativen Seiten umgehen können. Etliche andere KI-Anwendungen werden durch vorhandene strenge Kontrollsysteme eingegrenzt. Etwa bei der Entwicklung neuer Medikamente durch KI: Solche Wirkstoffe unterliegen genauso wie durch menschliche Forschung gefundene Substanzen umfangreichen klinischen Tests und einem strengen Zulassungssystem von Medizinbehörden. Oder Übersetzungen und sprachliches Lektorat durch KI-Software: Diese müssen sich in einem hochprofessionellen Umfeld geschulter ÜbersetzterInnen und LektorInnen behaupten, wenn sie auf breiter Basis kommerziell bestehen wollen.
Schwieriger ist es in Bereichen wie Gesichtserkennung: Abgesehen davon, dass diese immer noch mit einem hohen Maß an “Vorurteilen” (sprich: KI-Fehlern) bei der richtigen Erkennung belastet ist, besteht ein großes Missbrauchs-Risiko durch Staaten, Unternehmen und Privatpersonen. Andererseits kann Face Recognition eine sehr positive Rolle spielen: Die Johns Hopkins School of Medicine entwickelt Verfahren zur Diagnose von Schlaganfallspatienten. Am MIT wird mithilfe von Gesichtserkennung der Status von ALS erkannt, eine degenerative Muskelerkrankung.
Bei generativer KI, den Systemen die wie ChatGPT menschliche Intelligenz simulieren oder wie Midjourney realistische Fotos erzeugen, etwa von einer Verhaftung Donald Trumps, die nicht stattfand, fehlen Leitplanken zur Verhinderung dramatischer Fehlentwicklungen. In der EU gibt es den (weltweit ersten) Entwurf eines “Artificial Intelligence Act”. Vor 2025 wird dieser jedoch kaum beschlossen werden – und dann braucht es noch weitere Jahre bis zur gesetzlichen Umsetzung in allen EU-Staaten. Bis dahin machen KI-Systeme riesige Fortschritte, die wir uns noch gar nicht vorstellen können.
KI-gesteuerte Desinformation gefährdet unser soziales Ökosystem.
Die Verantwortung für eine positive, den Menschen dienende Entwicklung von KI liegt darum derzeit vor allem in den Händen ihrer Entwickler sowie von Medien und Watchdogs, die ihnen dabei auf die Finger schauen. Große Anbieter werden im eigenen kommerziellen Interesse darauf achten, keine gefährlichen Produkte auf den Markt zu bringen. Auch ohne spezielle KI-Regulierung können gesetzliche Produkthaftungen zu immensen Strafen führen. Gefährdet ist hingegen unser soziales Ökosystem: Das Potential für KI-gesteuerte Desinformation ist fast unbegrenzt. Für die Open-Source-Community wäre dies ein veritables Betätigungsfeld: Eine KI zu entwickeln, die den Missbrauch von KI aufdecken kann.
Das “AI-Dilemma”, wie es bereits Netflix-verdächtig getauft wurde, wird die KI-Entwicklung dauerhaft begleiten. Aber solange menschliche Intelligenz immer noch Weltmeister beim Anrichten von immens großem Schaden an Mensch und Planet ist, sollte Künstliche Intelligenz keine unmäßige Panik auslösen.
Illustration: Midjourney, prompted by spu
Dieser Beitrag erschien ursprünglich im AT&S Blog.
Veröffentlicht von