Thaura.ai: Ötekileştirilenlerin sesini bastırmak yerine merkeze alıyoruz
Yapay Zekânın Politik İnşası dosyamızın bu bölümünde, Tech For Palestine ekosisteminden çıkan yapay zekâ aracı Thaura.ai’dan Hani Chihabi ile konuşuyoruz. Hani, “etik yapay zekâ” söyleminin büyük şirketlerin PR malzemesine dönüştüğü bir dönemde Thaura ile tersine bir hat kurduklarını söylüyor. Filistin’le dayanışmayı, ordu ve gözetim kurumlarıyla çalışmamayı ve kullanıcı verisiyle eğitim yapmamayı bu hattın temel ilkeleri olarak öne çıkarıyor.
Söyleşide basit bir sorunun peşindeyiz: Gözetim, sansür ve veri talanı üzerine kurulu “Büyük Teknoloji” düzenine karşı gerçekten bir alternatif mümkün mü? Thaura, insanların verisini modele dönüştüren platformların aksine “veri sende kalır” vaadini öne çıkarıyor. Hassas başlıklarda gerçeği sulandırmayan, ötekileştirilen sesleri güçlendiren, toplulukla birlikte inşa edilen bir araç iddiasını sınırlarıyla birlikte konuşuyoruz.
“Thaura” (Arapça, ‘devrim’) ismi başlı başına bir iddia taşıyor. Bugün “etik yapay zekâ” büyük şirketlerin PR söyleminin parçası hâline gelmişken, siz ilkeleriniz arasında “ordu ya da gözetim kurumlarıyla asla çalışmayız” ve “ezilenlerle dayanışma içindeyiz, dijital sömürgeciliğe karşıyız” diyorsunuz. Thaura’yı bu tabloya karşı nasıl konumlandırıyorsunuz, büyük teknoloji şirketlerinden temel farkınızı nasıl anlatırsınız?
Thaura, Büyük Teknoloji’nin talan temelli ekstraktivist modeline karşı bir direnç teknolojisi olarak konumlanıyor. Google, Amazon ve Microsoft gibi şirketler PR için “etik yapay zekâ”dan söz ederken pratikte askeri sözleşmelerle ve gözetimle iç içe çalışıyorlar. Biz bunların hiçbirine el sürmüyoruz. Baskıcı sistemlere karşı olduğumuz için adımızı “Devrim” anlamına gelen Thaura koyduk.
Bizi farklı kılan şeyleri ise şöyle sıralayabiliriz:
Etik çerçevemiz, bizi Büyük Teknoloji’nin kâr odaklı yaklaşımından net biçimde ayrıştırıyor.
“Yapay Zekânın Politik İnşası” serimizde, yapay zekâyı sermayenin kolektif bilgiye ve emeğe el koyma sürecinin yeni bir biçimi olarak tartışıyoruz. Büyük dil modelleri, internetteki veriyi “açık maden” gibi kullanıp çitliyor. Siz modellerinizi eğitirken bu “dijital çitleme”ye karşı nasıl bir yol izliyorsunuz? Veri setlerinizde rıza, telif ve emeğin hakkı konusunda somut olarak nasıl bir prosedür işletiyorsunuz?
Biz küçük bir ekibiz ve finansal kaynaklarımız yeterli olmadığı için kendi modelimizi eğitmedik. Bunun yerine, açık kaynak ve açık ağırlıklı bir model olan GLM 4.5 Air’den yararlanıyoruz ve onun üzerine, etik çerçevemize göre düşünmesini ve hareket etmesini sağlayan güvenlik sınırları yerleştiriyoruz. Bu yaklaşım, kolektif bilgiyi daha da kapatan yeni bir özel mülkiyet modeli üretmek yerine, mevcut açık teknolojilerle çalışarak “dijital çitleme” meselesinde daha dikkatli bir pozisyon almamızı sağlıyor.
Açık kaynak bir model kullandığımız için, internet verisini “açık maden” diye görüp çevirerek metalaştırma gibi sorunlu bir pratiğe girmemiş oluyoruz. Modelin ağırlıkları zaten kamuya açık, yani bizim kullanımımız üzerinden kolektif bilginin ya da emeğin yeni bir “ekstraktivizm”i gerçekleşmiyor. Bizim odağımız, teknolojinin dayanışma ve adalet ilkelerine uygun işlemesini güvence altına alacak etik sınırlar ve filtreler kurmak.
İleride büyüyüp kendi modellerimizi eğitebilecek duruma geldiğimizde bunu doğru şekilde, sanatçılardan izin isteyerek ve çalışmalarının karşılığını adil biçimde ödeyerek yapacağız. Şimdilik hedefimiz, piyasadakinden daha iyisini kurmak; mevcut açık teknolojileri kurumsal çıkarlara değil, etik amaçlara hizmet ettirmek.
Büyük teknoloji şirketleri sadece modelleri değil; sunucudan çipe, ödeme sistemlerinden buluta kadar tüm altyapıyı da kontrol ediyor. “Alternatif” bir araç kurmaya çalışırken bu altyapısal bağımlılıkla nerede duvara tosladınız? Hangi alanlarda görece bir “dijital egemenlik” sağlayabildiniz, hangi noktalarda şimdilik Amazon, Google veya NVIDIA gibi aktörlerin altyapılarına mecbur kalıyorsunuz?
Hiçbir büyük teknoloji şirketine bağımlı değiliz. Mevcut kaynak düzeyimizle bile altyapımız Azure, GCP, AWS ya da NVIDIA’ya dayanmıyor. Böyle bir teknolojiyi inşa etmek için ille de Büyük Teknoloji’ye yaslanmak zorunda olduğunuz bir dünyada yaşamıyoruz. “Tech For Palestine”ın varlık nedeni de bu; insanları Büyük Teknoloji’den özgürleşmeye teşvik ediyoruz, çünkü gerçekten de onlara bağımlı olmak zorunda değilsiniz.
Kendi altyapımız henüz yok, ama Büyük Teknoloji devlerine bağımlı olmayan ve kendi altyapısını işleten ortaklar bulduk. Taahhüdümüz bu bağımsızlığı korumak ve teknoloji alanına hükmeden talancı, baskıcı sistemlerden bizi azade tutacak altyapılar geliştirmeyi sürdürmek.
Bu yaklaşım, daha geniş misyonumuzun bir parçası: Teknolojinin farklı bir şekilde Büyük Teknoloji altyapısını karakterize eden gözetim, askeri bağlar ve sömürgeci mantık olmadan kurulabileceğini göstermek.
Yapay zekâ araçları bugün “bulut” metaforunun arkasına saklanarak gezegenin su ve enerji kaynaklarını sömürgeci bir mantıkla tüketiyor. Siz ilkelerinizde “iklim krizi aynı zamanda bir adalet krizi, karbon ayak izimizi en aza indirmeye çalışıyoruz” diyorsunuz ve mevcut sistemlere kıyasla çok daha az enerji kullandığınızı vurguluyorsunuz. Bu tablo karşısında sizin bu “küçülme” ve verimlilik ısrarınız ne anlama geliyor?
Thaura modelimiz Büyük Teknoloji’nin yapay zekâlarına kıyasla çok daha küçük. 100 milyar parametreye sahip ancak bunların yalnızca 12 milyarı aynı anda etkinleşiyor. Bunun nedeni, bunun bir “uzmanlar karışımı” modeli olması. Kullanıcının sorgusuna göre hangi “uzmanı” devreye alacağını akıllıca belirliyor. Buna karşılık OpenAI’nin GPT-5 modeli tahminen 3-5 trilyon parametreye sahip ve bunların tamamı aynı anda etkinleşiyor. “Merhaba” gibi basit bir istemde bile sinir ağlarının tümü bir anda devreye giriyor.
Şunu hayal edin: Size “Her şey nasıl gidiyor?” diye soruluyor ve siz, kelimenin tam anlamıyla her şeyi işlemek için çocukluğunuzdaki anılardan şu an olup bitene kadar beyninizin tamamını bir anda devreye sokuyorsunuz.
Sürdürülebilirlik ölçümlerimiz, Thaura’nın Büyük Teknoloji yapay zekâlarına kıyasla yüzde 93 daha verimli olduğunu gösteriyor. Bu verimlilik yalnızca teknik değil aynı zamanda politik de. Karbon ayak izimizi asgariye indirerek, gezegeni sonsuz bir çıkarım kaynağı gibi gören zihniyeti reddediyoruz.
İlkeleriniz arasında “verinizle asla eğitim yapmayız, mahremiyet bir özellik değil temel bir haktır” ifadesi var. Bu........© Bianet





















Toi Staff
Sabine Sterk
Penny S. Tee
Gideon Levy
Waka Ikeda
Grant Arthur Gochin
Daniel Orenstein
Beth Kuhel