Kisisel Veri Isleme Sinirlari ve Hukuki Dayanak

Kurumsal AI projelerinde kisisel veri isleme, 6698 sayili Kisisel Verilerin Korunmasi Kanunu (KVKK) kapsaminda belirli kurallara tabidir. AI modelleri, egitim ve cikarim (inference) asamalarinda buyuk hacimde veri isler; bu verinin icinde kisisel veri unsurlarinin bulunmasi halinde, veri sorumlularinin KVKK yukumluluklerini eksiksiz yerine getirmesi gerekir. Isleme faaliyetinin hukuki dayanagi; acik riza, sozlesmenin ifasi, mesru menfaat veya kanuni zorunluluk gibi alternatifler arasinda dogru sekilde belirlenmeli ve dokumante edilmelidir. Ozellikle GenAI uygulamalarinda, kullanicilarin sisteme girdigi verilerin kisisel veri icerip icermediginin otomatik olarak taranmasi ve siniflandirilmasi, uyum risklerini onemli olcude azaltir.

Anonimizasyon ve Pseudonimizasyon

AI model egitiminde kullanilacak verilerin anonimize edilmesi, KVKK kapsamindaki yukumlulukleri ortadan kaldirmanin en etkili yoludur. Ancak gercek anonimizasyon, verinin hicbir sekilde geriye donuk olarak kisiye iliskilendirilememesini gerektirir; bu, ozellikle zengin veri setlerinde teknik olarak zor olabilir. Pseudonimizasyon ise verinin dogrudan tanimlayici bilgilerini kaldirarak islenmesini saglar, ancak ek bilgiyle yeniden iliskilendirme mumkun oldugu icin KVKK kapsaminda kisisel veri isleme olarak degerlendirilir. Kurumsal AI projelerinde; veri minimizasyonu ilkesiyle yalnizca gerekli veri alanlarinin islenmesi, hassas alanlarin maskelenmesi veya sentetik veri uretimi gibi teknikler, hem uyum hem de veri kalitesi acisindan dengeyi saglar. Hangi teknigin uygulanacagi, kullanim senaryosunun risk degerlendirmesiyle belirlenmeli ve belgelenmelidir.

Acik Riza Yonetimi

KVKK'nin acik riza tanimi, "belirli bir konuya iliskin, bilgilendirilmeye dayanan ve ozgur iradeyle aciklanan riza" olarak ifade edilmektedir. AI uygulamalarinda acik riza alinirken; verinin hangi amacla islenecegi, AI modelinin nasil kullanacagi, verinin ne kadar sure saklanacagi ve ucuncu taraflarla paylasim durumu acikca belirtilmelidir. Riza metinleri, teknik jargondan arindirilmis, anlasılır bir dilde yazilmali ve kullaniciya gercek bir secim hakki sunmalidir. Rizan geri cekilmesi halinde, ilgili verinin model egitim setinden cikarilmasinin teknik olarak mumkun olup olmadigi da onceden degerlendirilmelidir. Federated learning ve differential privacy gibi yaklasimlar, riza yonetimiyle birlikte kullanildiginda, veri mahremiyeti ile model performansi arasindaki dengenin kurulmasina yardimci olur.

AI Model Egitiminde Veri Guvenligi

Model egitimi sirasinda kullanilan verilerin guvenligi, hem teknik hem de organizasyonel onlemlerle saglanmalidir. Teknik tarafta; egitim ortaminin izole edilmesi, veri erisim kontrollerinin rol bazli (RBAC) olarak tanimlanmasi, egitim sureci boyunca log ve audit trail tutulmasi ve model ciktilarina yonelik bias/fairness testlerinin yapilmasi beklenir. Organizasyonel tarafta ise; veri isleme envanterinin tutulmasi, veri koruma etki degerlendirmesinin (DPIA) yapilmasi, veri isleme sozlesmelerinin ucuncu taraflarla imzalanmasi ve ic egitim programlarinin surdurilmesi gerekir. Model versiyonlamasinin veri setleriyle iliskilendirilmesi, ileride ortaya cikabilecek uyum sorgularina karsi izlenebilirlik saglar.

On-Premise vs Cloud: Veri Lokasyonu Karari

Kurumsal AI projelerinde en sik tartisilan konulardan biri, modelin ve verinin nerede barindirildisidir. On-premise yaklasim, verinin sirket sinirlarinin disina cikmamasi gerektiginde tercih edilir; ancak yuksek altyapi maliyeti ve uzmanlik gerektiren isletim yuku ile birlikte gelir. Bulut yaklasimi esneklik ve olceklenebilirlik sunar, ancak veri lokasyonu (data residency), yetkili makam erisimi ve ucuncu ulkelere veri aktarimi gibi KVKK konularinda dikkatli bir degerlendirme gerektirir. Hibrit yaklasim; hassas verilerin on-premise islenmesi, genel amacli is yuklerinin bulutta calistirilmasi seklinde tasarlanabilir. FinHouse, kurumsal AI projelerinde KVKK uyum analizinden baslayarak, mimari tasarim ve uygulama asamasina kadar butunsel bir danismanlik hizmeti sunmaktadir.