Yapay zeka artık tahlilinize de bakmak istiyor
OpenAI, 7 Ocak’ta ChatGPT içinde ‘Health’ (Sağlık) adıyla ayrı bir alan açtı. Kağıt üzerinde basit bir sekme gibi görünüyor. Pratikteyse daha büyük bir iddia taşıyor: İnsanların zaten sohbet botuna sorduğu sağlık sorularını ‘daha kontrollü, daha kişisel’ bir yere taşımak.
Şirketin verdiği ölçek de bu hamlenin niye geldiğini anlatıyor: OpenAI’ye göre ChatGPT’ye her hafta yaklaşık 230 milyon sağlık ve wellness sorusu geliyor. Bu kadar büyük bir trafiği, “genel sohbet penceresi” içinde yönetmek zor. Sağlık konuşması dediğiniz şey; yanlış anlaşılmaya, paniklemeye ve gereksiz güven duygusuna çok müsait.
ChatGPT Health’in vaat ettiği temel işler gayet ‘gündelik’, test sonuçlarını anlamaya yardım, doktor randevusuna hazırlanmak için soru listesi, beslenme-egzersiz önerilerini toparlamak, hatta bazı ülkelerde sigorta seçeneklerini karşılaştırırken yol göstermek.
OpenAI’nin çizdiği kırmızı çizgi ise net: Bu bir teşhis ya da tedavi aracı değil. “Doktorun yerini almak” iddiasını özellikle dışarıda bırakıyor.
Health’i sıradan bir “sağlık sohbeti” olmaktan çıkaran kısım, kişisel veri bağlantıları. OpenAI, Apple Health ve MyFitnessPal gibi wellness uygulamalarını bağlayıp daha bağlamlı yanıtlar almayı öne çıkarıyor.
Tıbbi kayıt ise daha sınırlı; OpenAI’nin yardım dokümanına göre “Medical Records” özelliği lansmanda yalnızca ABD’de ve 18 kullanıcılar için diye belirtildi. Bu ayrım önemli: “Sağlık sekmesi geldi” ile “tıbbi dosyamı bağlayabiliyorum” aynı şey değil. Türkiye’de bugün için gerçekçi senaryo, daha çok wellness verileri ve sohbet tarafı.
DAHA KORUNAKLI, AMA DOKUNULMAZ DEĞİL
OpenAI, Health konuşmalarının ayrı bir alanda tutulduğunu ve bu içeriklerin “temel modelleri eğitmek için kullanılmadığını” söylüyor. Yardım sayfasında bu vurgu açık: Health sohbetleri, dosyaları ve anıları model eğitimi için kullanılmıyor.
Ama işin bir de “kötü haber” kısmı var The Verge’ün dikkat çektiği gibi sistem uçtan uca şifreleme sunmuyor ve geçerli yasal taleplere (mahkeme kararı gibi) tabi olabiliyor. Yani veriniz “kimse dokunamaz” seviyesinde kilitli bir kasa değil. Daha iyi korunuyor olabilir, ama hukuk kapıyı çalarsa açılabilir bir dolap gibi düşünün.
Bu noktada OpenAI’nin bir başka net cümlesi devreye giriyor: Health, bir tüketici ürünü olarak konumlandığı için her pazarda klinik regülasyonlarla aynı rejimde değerlendirilmeyebilir.
TÜRKİYE’DE KULLANILIYOR MU?
Türkiye kapsam dışı değil. OpenAI’nin “ChatGPT Supported Countries” listesinde ‘Turkey’ yer alıyor. Ama bu, herkesin ekranında aynı anda görüneceği anlamına gelmiyor. OpenAI, Health’i bekleme listesi ve kademeli açılım modeliyle yayıyor. Yani Türkiye’den bakınca pratik tablo şu; bugün bazı hesaplarda “Health” sekmesi görünür, bazılarında görünmez. Bu bir ülke engeli değil; dağıtımın kontrollü yapılması.
Türkiye’de sağlık verisi, “özel nitelikli kişisel veri” kategorisinde ve daha sıkı korunuyor. KVKK’nın kendi anlatımı bunu açıkça koyuyor. Sağlık bilgisi, öğrenilmesi halinde ayrımcılık ya da mağduriyet doğurabilecek veriler arasında sayılıyor ve sınırlı haller dışında işlenmesi sıkı kurallara bağlı.
Bu yüzden “Health’e tahlil yükleyeyim mi?” sorusu teknolojik değil, aynı zamanda hukuki ve kişisel bir karar. En azından şu basit kontrolü yapmadan yüklemeyin: Ne yüklüyorum? Bu veri nerede saklanıyor? Sonradan silebiliyor muyum?
YARDIMCI BİR ARAÇ OLUR MU?
Bu ürün, iyi kullanılırsa “sağlık sisteminde kaybolan insan” için faydalı olabilir. Özellikle tahlil dili,........
