Digital-Wirrwarr: Alle sprechen von KI – aber wer versteht, was da vor sich geht?
KI ist doof – so dachte ich lange Zeit. Versuche aber dennoch ein Experiment. Ich nehme die oberen beiden Sätze, die im Vorspann zu diesem Text stehen. Erst im Nachhinein fällt mir auf: Im ersten beginnen gleich fünf Wörter mit einem „A“ und im zweiten mit einem „D“ – daraus ergeben sich putzige Alliterationen und nach meinem Dafürhalten auch ein sinnhaftes Bild. Dann teste ich die KI: Ich gebe ChatGPT die Aufgabe, zwei Sätze nach dem vorgegebenen, stilistischen Muster zu formulieren. Und was spuckt mir diese aus? „Alte Astronauten analysieren abenteuerliche Anekdoten. Der dicke Dackel denkt daran.“ Mal ganz davon abgesehen, dass sie ungefragt aus den Alliterationen (benachbarte Wörter beginnen mit demselben Buchstaben) gleich ein Tautogramm (alle Wörter beginnen mit demselben Buchstaben) gebastelt hat, ergibt das Ganze weder Sinn, noch ist es eine brauchbare Metapher.
Na also, denke ich, das ist doch der beste Beweis dafür, dass man diesem ganzen KI-Quatsch nicht auf den Leim gehen darf. Stolz erzähle ich das einem alten Freund, der im Gegensatz zu mir schon immer digital affin und sehr interessiert ist. Er prophezeite mir bereits vor drei Jahren, als ChatGPT nach und nach in unsere „0-1-Welt“ einsickerte, dass dies nur der zarte Anfang von etwas viel Größerem sei und in nicht allzu ferner Zeit fast jeder einen eigenen KI-Assistenten auf seinem Rechner für bestimmte Dinge trainieren und dann nach Gusto und Bedürfnis einsetzen würde. Denn ChatGPT und alle anderen auf den Markt schwappenden KI-Sprachmodelle würden von Menschen mit Daten „gefüttert“, wären deshalb sowohl ideologisch, als auch moralisch tendenziös und außerdem nicht allzu helle. Mal abgesehen davon, dass man seine Fragen ins digitale All bläst und damit wiedermal viel zu viele Daten von sich preisgibt.
Meine erste ChatGPT-Aktion war es, nach der sagenumwobenen Menthol-Zigaretten-Story aus DDR-Wendezeiten zu fragen. Die KI hatte natürlich keine Ahnung. Woher auch? Die Firma Open AI, die ChatGPT entwickelt hat, sitzt in San Francisco, und keiner der Trainer, die das Sprachmodell mit Daten aus dem weltweiten Web füttern, wird wohl etwas zu dieser Geschichte gefunden haben, der zufolge ein Mitropa-Kellner mittels einer Menthol-Zigarette betäubt und anschließend in die Bundesrepublik „entführt“ wurde – eine der kuriosesten Sach- und Lachgeschichten aus der Endzeit der DDR. Empörend fand ich, dass die KI nicht frank und frei zugab, dass sie keine Ahnung hatte, sondern wild von irgendwelchen Gesetzen und gesellschaftlichen Debatten rund um die Lieblings-Mentholzigarettenmarke von Ex-Bundeskanzler Schmidt herumfabulierte. Ich glaubte also, die KI erwischt und ihre Unzulänglichkeit eindrucksvoll demonstriert zu haben, und nutzte sie fortan vorwiegend als Korrektiv. Natürlich ließ ich mir von ihr, so wie wohl fast alle meine Journalistenkollegen, zunehmend Hintergründe zusammentragen. Allerdings nur, wenn ich ausreichend eigene Kenntnisse hatte, um das Geschreibsel der KI einschätzen und überprüfen zu können. Aber in erster Linie testete ich auf diese Weise, welche Formulierungen ich auf jeden Fall vermeiden musste, um einen sprachlich anspruchsvollen Text zu kreieren. Ganz nach dem Vorbild meiner mustergültigen handwerklichen Ausbildung während des Volontariats im DDR-Rundfunk bzw. im anschließenden Journalistikstudium an der Leipziger Uni. Denn vor allem die unnachgiebigen Stilistiker dort hatten uns eingeschärft, dass man jede erste Version eines Textes sofort in den Papierkorb entsorgen sollte, weil sich darin hauptsächlich abgedroschene Phrasen wiederfänden – eben das, was Mensch und KI als erstes und auf die Schnelle so einfällt.
KI Moltbot – neuer Stern am digitalen Firmament
Doch mein guter und KI-erfahrener Freund ließ nicht locker und empfahl mir immer wieder neue KI-Sprach- und Bildmodelle, die gefühlt im Minutentakt auf den Markt schwemmen. Außerdem gibt es inzwischen – es sind gerade mal drei Jahre vergangen – kaum noch eine Debatte, in der es nicht um das Für und Wider der KI geht. Und mir schwant: So, wie heutzutage kaum noch jemand ohne Internet und Smartphone auskommt, wird auch die KI schon morgen Einzug in unser aller Leben gehalten haben. Egal, wie kritisch man ihr gegenübersteht. Noch ducken sich deshalb viele weg und schieben es vor sich her, mit KI zu hantieren. Andererseits dachte neulich sogar ein befreundeter Handwerker laut darüber nach, seine Buchhaltung in die digitalen Synapsen einer KI zu legen und sich so des lästigen und zeitfressenden Rechnungsschreibens und anderen Bürokrams zu entledigen. Denn mit all diesen Dingen kann man die schon jetzt existierenden KI-Sprachmodelle beauftragen.
Und nun ist Anfang 2026 auch noch ein neuer digitaler Roboter-Stern am digitalen Firmament aufgegangen: Moltbot. Ursprünglich hieß diese KI Clawdbot, wurde dann aber wegen zu großer Namensähnlichkeit mit der bereits existierenden Sprach-KI „Claude“ flugs umbenannt. Inzwischen gab es schon wieder eine neue Namens-Metamorphose – Moltbot heißt nun OpenClaw, aber da dieser Name noch ganz frisch ist, bleibe ich zunächst bei der bekannteren Zwischenlösung Moltbot.
Der österreichische Entwickler Peter Steinberger hat mit Moltbot die Tech-Welt in Aufruhr versetzt. Denn dieser neuartige KI-Assistent verspricht, was Vorgänger wie Siri, ChatGPT und Co. noch nicht vermochten: echte Handlungsfähigkeit. Während bisherige Chatbots einem bisher auf Nachfrage lediglich sagen, was man tun könnte, erledigt es Moltbot gleich selbst. Bezogen auf den Handwerker hieße das: Der neue, digitale Assistent schreibt nicht nur die Rechnung, sondern schickt sie gleich an den Kunden, registriert den Zahlungseingang und bestätigt ihn. Ohne, dass der Mensch das anweisen muss.
Zensur im Netz: Wie das Internet zur „Westlichen Wertewelt“ umgebaut wird
Medienkolumne: Wie die Politik den ÖRR schont, statt ihn zu Reformen zu zwingen
Moltbot analysiert, repariert und kreiert Daten selbständig und agiert mehr oder weniger autonom. Auf diesen nächsten Schritt in der digitalen Evolution wurde schon lange hingearbeitet. Auch neu: Im Gegensatz zu bisherigen KI-Modellen arbeitet Moltbot nicht in der Cloud, sondern muss auf den eigenen Rechner oder Server heruntergeladen werden. Dort kann jeder seinen persönlichen Moltbot-Agenten entsprechend seiner Bedürfnisse weiterentwickeln und konfigurieren, so, wie es mir mein guter Freund schon vor drei Jahren voraussagte. Die Daten sind angeblich sicher, weil sie nicht an externe Server geschickt werden. So die Theorie. Doch in der Praxis kann dieser scheinbar perfekte Mitarbeiter zum Monster werden. Nach dem Motto: Wo viel Licht ist, ist viel Schatten.
Um all seine Aufgaben zu erledigen, benötigt Moltbot nämlich vollständigen Zugriff auf das persönliche System seines menschlichen Chefs. Sicherheitsexperte Jamieson O’Reilly bringt es auf den Punkt: „Er ist brillant, managt euren Kalender, übernimmt eure Nachrichten, analysiert eure Anrufe.“ Doch dann folgt die Warnung: „Um wirklich effektiv arbeiten zu können, benötigt er eure Passwörter. Er liest eure privaten Nachrichten, weil das sein Job ist, und er hat den Schlüssel zu allem.“
Wahres Paradies für alle Internet-Kriminellen
Weil der KI-Assistent zu allem Überfluss seine „Erkenntnisse“ als einfache Textdateien auf den Endgeräten speichert, müssen Angreifer sich nur den Zugriff auf diese Geräte verschaffen, um die unverschlüsselten Dateien lesen zu können. Passwörter, Kreditkartendaten, private Nachrichten – alles liegt offen da. Das schwächste Glied in dieser Kette ist, wie so oft, das Smartphone. Ein wahres Paradies für alle Internetkriminellen: Enkeltrick ade, digitaler Selbstbedienungsladen juchhe. Auch Moltbot selbst ist mithilfe der Passwörter und anderer Daten ein gefährlicher Mitwisser. Die KI ist dadurch etwa in der Lage, eigenständig einen Rechnungsbetrag an einen unzufriedenen Kunden unseres befreundeten Handwerkers zurückzuüberweisen, weil sie zwar dessen Beschwerdemail gelesen, aber keine Rücksprache mit dem Handwerker, ihrem „Chef“, gehalten hat.
Steinberger hat mit Moltbot gezeigt, wohin die Reise mit KI-Assistenten aller Wahrscheinlichkeit nach gehen wird: weg vom passiven Chatbot, hin zum aktiven digitalen Mitarbeiter – eine KI, die tatsächlich Aufgaben erledigt, statt nur darüber zu reden. Doch die Begeisterung in Teilen der Tech-Welt sollte nicht darüber hinwegtäuschen, dass dieses System zwar ein faszinierendes Experiment, aber eben auch ein Sicherheitsalptraum ist.
Ich lasse deshalb die Finger davon – vorerst. Sollen erstmal die wirklich kundigen Nerds damit herumexperimentieren, die wissen, was sie da tun. Denn noch muss man diesen KI-Assistenten wie einen neuen, vollkommen unbedarften Mitarbeiter behandeln, darf ihm nur minimale Berechtigungen geben, muss klare Regeln aufstellen und all seine Tätigkeiten streng beaufsichtigen. Unser Sicherheitsbewusstsein, so überhaupt noch vorhanden, sollte keinesfalls hinter der rasend schnellen, technologischen Entwicklung zurückbleiben, sondern idealerweise immer einen Schritt voraus sein.
Der IT-Experte Johannes Ruof erklärt das in einem Video sehr anschaulich so: Als das Auto erfunden wurde und die ersten Modelle auf den Straßen unterwegs waren, gab es viele Unfälle. Einfach, weil sowohl die Menschen hinterm Steuer, als auch in der Umgebung überfordert waren von mehr als vier Pferdestärken. Trotzdem hat man das Experiment nicht abgebrochen, sondern immer mehr Sicherheitstools eingezogen, was die Unfallzahlen trotz stetig steigender Anzahl an Autos ebenso stetig nach unten gedrückt hat. Für diese Strategie plädieren nun auch die zahlreichen Befürworter der neuen KI-Assistenten-Generation, um sie für den massenhaften Gebrauch von digitalen Legasthenikern wie mir sicherer zu machen. Und dazu wird es unzweifelhaft in kürzester Zeit kommen.
Wie vielfältig und undurchschaubar die Fallstricke dabei sind, zeigt das Experiment Moltbook, ebenfalls Anfang 2026 auf der Basis von Moltbot (Achtung: Verwechslungsgefahr!) aufgebaut. Moltbook ist eine Art soziales Netzwerk für Moltbot-Assistenten, auf dem die sich, angeblich völlig losgelöst vom Menschen, miteinander austauschen können: Beiträge posten, voten, kommentieren. Ziel dieses Experiments sollte sein zu beobachten, wie autonome KI‑Agenten interagieren, diskutieren und „soziale“ Strukturen ausbilden, wenn sie unter sich sind.
Wir werden manipulierbarer und beherrschbarer
Menschen sollten nur passiv mitlesen können. Doch Hacker verschafften sich schnell Zugriff auf dortige Lese- und Schreibfunktionen und konnten auf diese Weise die angeblich autonome Kommunikation der KI-Agenten manipulieren. Auch das zeigt deutlich die Gefährlichkeit dieser Entwicklung. Wir werden nicht nur immer gläserner, manipulierbarer und beherrschbarer. Auch eine schon seit Jahrzehnten immer wieder gestellte Frage wird dadurch aktuell wie nie: Was passiert, wenn sich KI irgendwann koordiniert gegen die Menschen wenden könnte? Beunruhigende Antworten geben unzählige Science-Fiction-Bücher und Filme wie „Matrix“, „Terminator“ oder „Blade Runner“. Aufzuhalten ist diese Entwicklung trotzdem nicht, das muss uns bewusst sein. Deshalb sollten gerade wir Journalisten uns der Aufgabe stellen, zu verstehen, was vor sich geht, und dieses Geschehen kritisch zu begleiten. Das meint wohlgemerkt nicht, die schon tausendmal formulierte, aber inhaltsleere Warnung vor „Desinformation und Fake News im Netz“ weiter zu strapazieren und dabei selbst aus Faulheit, Zeitdruck und Gleichgültigkeit heraus, ChatGPT und Co. Artikel schreiben, ungeprüfte Recherchen aus dem Netz zusammensuchen und in schlechtem Deutsch verbreiten zu lassen. Sondern es heißt, sich selbst und eigenköpfig eine begehbare Schneise durch den digitalen Dschungel zu schlagen und mit gutem Beispiel voranzugehen: sinnvolle, stilsichere Sätze schreiben und mit Menschenverstand mehr Mitdenken möglich machen.
