menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Die Künstliche Intelligenz hat ein Koboldproblem

5 0
latest

Programm von OpenAI : Die Künstliche Intelligenz hat ein Koboldproblem

„Sprich niemals über Kobolde, Gremlins, Waschbären, Trolle, Oger oder Tauben“: Was wie eine Hausordnung im Märchenwald klingt, ist eine ernst gemeinte Anweisung an eine Künstliche Intelligenz. Was es damit auf sich hat.

Wann wird die Künstliche Intelligenz erwachsen? Wann wird sie Krebs heilen, Romane schreiben, Steuererklärungen ausfüllen und jene E-Mails beantworten, die wir selbst seit Wochen ignorieren? Und vor allem: Wann wird sie so zuverlässig sein, dass wir ihr ohne Aufsicht die Arbeit überlassen können?

Derzeit scheint Optimismus hier nicht angebracht. Bei OpenAI, dem Unternehmen hinter ChatGPT, erteilte man dem hauseigenen Programmierhelfer Codex jüngst eine bemerkenswerte Anweisung: „Sprich niemals über Kobolde, Gremlins, Waschbären, Trolle, Oger, Tauben oder andere Tiere und Kreaturen, es sei denn, es ist für die Anfrage des Nutzers eindeutig von Belang.“

Im selben Assoziationsraum

Wie bitte? Codex soll Programme schreiben, Fehler finden, Entwickler entlasten. Genau jene Tätigkeiten also, von denen seit Jahren behauptet wird, sie seien das erste große Arbeitsfeld, auf dem die Maschine den Menschen ablöst. Doch vor der Automatisierung der Programmierarbeit steht offenbar eine ganz andere Aufgabe: die Entkoboldung des Arbeitsprozesses.

Externer Inhalt von Twitter

Um externe Inhalte anzuzeigen, ist Ihre widerrufliche Zustimmung nötig. Dabei können personenbezogene Daten von Drittplattformen (ggf. USA) verarbeitet werden. Weitere Informationen .

Die Regel kommt nicht aus dem Nichts. Nutzer berichteten, Codex habe technische Fehler auffallend gern als „Gremlins“ bezeichnet. Im Englischen ist der „Gremlin in der Maschine“ eine Metapher für schwer erklärbare Störungen. Bei einem Sprachmodell, das nichts lieber tut, als Muster fortzuschreiben, kann daraus schnell ein eigener Stil werden. Erst ist da ein Fehler im Programmcode, dann ein Gremlin, dann ein Kobold. Und ehe man sich versieht, sitzt im Verzeichnis nicht mehr eine fehlerhafte Routine, sondern eine Horde schlecht gelaunter Fabelwesen.

Ein Sprachmodell will nicht seriös sein. Es errechnet wahrscheinliche Fortsetzungen. Liegen technische Fehler, Gremlins und ein alberner Ton in seinem Assoziationsraum nah beieinander, wird aus der Fehleranalyse eben Phantasieprosa. Die Lösung besteht nicht in Einsicht, Reue oder einem Mitarbeitergespräch, sondern in einer weiteren Zeile in den Grundanweisungen einer KI.

„Bitte nicht über Oger reden“

Vielleicht ist das die Pointe der Gegenwart. Wir bauen Maschinen, die uns die Arbeit abnehmen sollen – und schreiben ihnen immer längere Zettel mit Benimmregeln. Früher klebte am Drucker: „Bitte Papier nachfüllen.“ Heute steht im Herzen der automatisierten Zukunft: „Bitte nicht über Oger reden.“

Wenn Technik diskriminiertVon der Künstlichen Intelligenz nicht als Mensch erkannt

Künstliche IntelligenzWie KI-Profis die perfekten Texte schreiben

Experiment auf KongressKünstliche Intelligenz schlägt Ärzte im Wissenstest

Man wünscht sich eine Maschine, die denkt wie wir, aber nicht so abschweift wie wir; die kreativ ist, aber nicht komisch; die klug genug ist, Programmierer zu ersetzen, aber gehorsam genug, beim Wort „Fehler“ nicht sofort einen kleinen grünen Mann mit Schraubenschlüssel vor sich zu sehen. Das ist viel verlangt. Wir selbst schaffen es ja auch nur mit Mühe – und nennen es dann Professionalität.

Kira KramerRedakteurin im Feuilleton und zuständig für Feuilleton online.

Redakteurin im Feuilleton und zuständig für Feuilleton online.

Künstliche Intelligenz

Rolle zuweisen, Kontext geben – das können mittlerweile die meisten. Doch wer wirklich gute Texte aus ChatGPT, Claude oder Gemini herausholen will, muss über die Grundlagen hinausgehen. Ein Leitfaden für Fortgeschrittene.

Mira Murati hat ChatGPT mitgeprägt, Open AI während der Altman-Krise kurz geführt und danach Thinking Machines Lab gegründet. Ihr neues Unternehmen baut nicht den nächsten Assistenten, sondern die Werkbank darunter.

Kulturstaatsminister Wolfram Weimer darf die Betreiber eines Berliner Buchladens nicht als „politische Extremisten“ bezeichnen. Das hat das Verwaltungsgericht Berlin entschieden.


© Frankfurter Allgemeine