Wenn jemand sie baut, sterben alle – die radikale These über superintelligente KI

SchweizRegionenAbstimmungenReisen

InternationalFall EpsteinUkraine-KriegIran-KriegDeutschlandUSAEURusslandChina

WirtschaftKonjunkturArbeitsmarktUnternehmenBörse und Co

SportFussballEishockeyEismeister ZauggEismeister-CheckFormel 1TennisVeloSkiUnvergessenResultate

LebenGefühleFoodFilme und SerienRauszeitUnterwegs

SpassPicdumpFail-DienstagCute NewsRetroGerechtigkeit siegtDumm gelaufenKlischeekanone

DigitalAndroidAppleGoogleMicrosoftHardware-TestOnline-Sicherheit

WissenHistoryGesundheitDatenKarten

BlogsEmma AmourNachtschichtRauszeitGärtner GrafKI-KosmosLoading …Down by LawMove on upWatts OnRat der WeisenMoneyTalksSektenblogWork in ProgressTop JobZugestiegenMadame EnergieSmart gespart

QuizMini-KreuzworträtselQuizz den HuberQuizzticleAufgedeckt

VideosReportagenFragenbotWein dochMoneyTalks

PromotionenGute NewsFlugmodusSmart gespartReise-Glück

Gesellschaft & Politik

Superintelligente KI: Rettung oder Verderben der Menschheit?

Wenn jemand sie baut, sterben alle – die radikale These über superintelligente KI

«If Anyone Builds It, Everyone Dies» heisst der Ende 2025 verfasste New-York-Times-Bestseller von Eliezer Yudkowsky, Pionier der KI-Sicherheitsforschung, und Nate Soares, Präsident des Machine Intelligence Research Institutes. Im Buch wird argumentiert, dass superintelligente KI – also KI-Systeme, die uns in allen Belangen überlegen sind – zwingend zum Aussterben der Menschheit führt. Kein Wenn, kein Aber, keine Graustufen. Klingt krass genug, um das vierteilige Argument mal durchzudenken.

Wir verstehen KI-Systeme nicht

Eine zentrale Beobachtung der Autoren: Moderne KI wird nicht gebaut, sondern gezüchtet. Wir füttern riesige neuronale Netze mit Daten, drehen an Stellschrauben, schauen, was herauskommt – und justieren nach. Das funktioniert erstaunlich gut. Aber niemand kann genau sagen, warum ein bestimmtes Modell genau so antwortet, wie es antwortet. Selbst die führenden KI-Labors verstehen ihre eigenen Systeme nur oberflächlich.

Daraus folgt etwas Unangenehmes: Wenn wir die internen Mechanismen nicht durchschauen, können wir auch nicht zuverlässig wissen, welche Ziele ein System tatsächlich verfolgt. Zudem ist es uns unmöglich, unsere Ziele sicher und nachhaltig in die Systeme einzuprogrammieren – wir bekommen nie genau das, was wir antrainieren wollen.

Wir bekommen........

© Watson