Yönetici Özeti. Kişisel Verileri Koruma Kurulu, 2025 sonu ile 2026 ilk çeyreğinde üretken yapay zekâ alanında üç ayrı rehber yayımladı: 24 Kasım 2025 tarihli "Üretken Yapay Zekâ ve Kişisel Verilerin Korunması Rehberi", 5 Mart 2026 tarihli "İş Yerlerinde Üretken Yapay Zekâ Araçlarının Kullanımı" ve 12 Mart 2026 tarihli "Etken Yapay Zekâ (Agentic AI)" Rehberi (kvkk.gov.tr). Üç metin birlikte okunduğunda ortaya çıkan tablo açık: çalışanların kurumsal politika, onay veya denetim çerçevesi dışında ChatGPT, Copilot, Gemini benzeri araçlara müvekkil veya müşteri verisi yapıştırması — Kurul'un Gölge Yapay Zekâ (Shadow AI) olarak adlandırdığı kullanım biçimi — Kurul tarafından açıkça riskli kategoriye alınmış durumda. Aşağıda üç rehberin ortak çerçevesini, şirketler için somut yükümlülükleri ve önümüzdeki 90 gün içinde atılması gereken adımları ele alıyoruz.

1. Gölge Yapay Zekâ: Tanım ve Kurul'un Yaklaşımı

Kurul'un 5 Mart 2026 tarihli rehberinde Gölge Yapay Zekâ şöyle tanımlanıyor: çalışanların kurumsal politika, onay veya denetim çerçevesi dışında, kişisel hesapları üzerinden ya da yönetilmeyen entegrasyonlarla üretken yapay zekâ araçlarına başvurması. Tanımın anahtar kelimesi görünmezlik. Şirket, bu kullanımdan haberdar değil; haberdar olmadığı için yönetemiyor; yönetemediği için sorumluluğunu da hafifletemiyor.

Pratik bir senaryo: bir çalışan müşteri sözleşmesini özetlemek için ChatGPT'nin ücretsiz versiyonuna belgeyi yapıştırdığında, o belge artık kullanım koşullarına bağlı olarak modelin eğitim verisine, sistem günlüklerine veya üçüncü taraf işleyicilerine aktarılabilir. Şirketin bu süreç üzerindeki teknik kontrolü sıfır.

2. Üç Rehberin Ortak Çerçevesi

Rehber 1 — 24 Kasım 2025: "15 Soruda Üretken Yapay Zekâ ve Kişisel Verilerin Korunması"

Bu rehber, sistemin yaşam döngüsüne odaklanıyor: model eğitim verisi, kullanım sırasında işlenen veri, çıktıların muhafazası ve yeniden işleme. Veri sorumlularına temel mesaj şu: 6698 sayılı Kanun teknolojiden bağımsız uygulanır; modelin yapay zekâ olması, KVKK'nın işleme şartlarını esnetmez.

Rehber 2 — 5 Mart 2026: "İş Yerlerinde Üretken Yapay Zekâ Araçlarının Kullanımı"

Üç rehberin pratik açıdan en kritik olanı bu. Üçüncü taraflarca sunulan ve kamuya açık erişilebilen üretken yapay zekâ araçlarının (ChatGPT, Gemini, Copilot, Claude vb.) kurumsal kullanımındaki riskleri ele alıyor. Rehberin altını çizdiği temel noktalar:

Rehber 3 — 12 Mart 2026: "Etken Yapay Zekâ (Agentic AI)" — 46 sayfa

Etken yapay zekâya — yani çok adımlı, otonom hareket edebilen, farklı sistemlerle entegre çalışan yapay zekâ ajanlarına — özgü ayrı bir düzenleyici çerçeve sunan kapsamlı bir Türk metni. Rehberin altını çizdiği başlıca riskler:

3. Kurul'un Beklediği Dört Unsur

Üç rehberi birlikte okuduğumuzda, Kurul'un denetimde arayacağı dört temel unsur ortaya çıkıyor.

Birinci unsur: Yazılı kurumsal politika

Üretken yapay zekâ araçlarının kullanımına ilişkin yazılı, onaylanmış ve çalışanlara duyurulmuş bir politika. Politika içinde üç kategori net olmalı: yasaklı kullanım (örneğin müvekkil verisi, özel nitelikli veri, finansal sır), sınırlı kullanım (kurumsal hesap üzerinden, anonimleştirilmiş veriyle, belirli görevlerde), serbest kullanım (kişisel veri içermeyen iç süreçler). Tek sayfalık bir not yetmez; kategorilerin her biri için somut örnekler ve istisnalar tanımlanmış olmalı.

İkinci unsur: Erişim kontrolü

Hangi araç, hangi departmanda, hangi hesap türü üzerinden, hangi veri kategorisiyle. Kurumsal hesap ile kişisel hesap arasındaki fark sözleşmesel: kurumsal planlarda genellikle veri eğitim için kullanılmaz; kişisel planlarda durum sağlayıcıya ve kullanıcı ayarına göre değişir. Bu ayrımın çalışanlara nasıl açıklandığı, hangi araçlara kurumsal lisansla erişim sağlandığı, hangi araçların kategorik olarak engellendiği — hepsi yazılı olarak yer almalı.

Üçüncü unsur: Personel eğitimi

Eğitimin amacı çalışanı suçlamak değil, görünür kılmak. Kurul rehberinin altını çizdiği nokta: çalışanlar genellikle kötü niyetle değil, işini hızlandırmak için Gölge Yapay Zekâ'ya başvurur. Eğitim bu motivasyonu reddetmek yerine, aynı verimi kurumsal çerçeve içinde nasıl elde edebileceğini gösteren pratik içerik sunmalı.

Dördüncü unsur: Denetim ve dokümantasyon

Politika ile gerçek arasındaki fark ancak denetimle görülür. Periyodik iç denetim, log incelemesi, çalışan anketleri, ihlal vakalarının incelenmesi. Önemli olan sadece denetim yapmak değil; denetim sonuçlarının raporlanmış ve yönetim kuruluna sunulmuş olması.

4. Hukuki Sonuçlar ve Ceza Riski

Üç rehberin de bağlayıcı olmadığını belirtmek gerekir; ancak Kurul'un beklenti ve değerlendirme kriterlerini şekillendirdikleri için pratikte bağlayıcı bir referans niteliği taşıyorlar. Bir Gölge Yapay Zekâ sızıntısı incelendiğinde Kurul'un başvuracağı çerçeve bu rehberler. Olası ihlal başlıkları (KVKK m.18; Resmi Gazete, 27 Kasım 2025):

Md.12 ve Md.10 üst sınırları kümülatif uygulandığında teorik tavan 18,8 milyon TL'yi aşıyor; Md.9 ve Md.5 değerlendirmeleri eklendiğinde rakam daha da yükseliyor. Hesap, Kurul'un tek olayda birden fazla yükümlülük ihlalini ayrı ayrı cezalandırma yetkisinden çıkarılmıştır.

5. 90 Günlük Yol Haritası

Gün 0–30 — Görünürlük

Gün 30–60 — Çerçeve

Gün 60–90 — Yerleşme

6. Hukuk Büroları İçin Ek Bir Not

Buraya kadar genel olarak şirketler için yazdık; ancak hukuk büroları için ayrı bir parantez açmak gerekir. Avukatlık mesleği müvekkil sırrı yükümlülüğüyle özel bir mesleki etik çerçeve içinde yürütülür; 1136 sayılı Avukatlık Kanunu m.36 ve TBB Meslek Kuralları sırrın korunmasını mutlak bir yükümlülük olarak tanımlar. Bir avukat veya büro çalışanının müvekkil belgelerini ücretsiz bir üretken yapay zekâ aracına yapıştırması, KVKK ihlali olmanın ötesinde — meslek etiği açısından bağımsız bir disiplin sorumluluğu doğurabilir. Bürolarda üretken yapay zekâ politikası bu nedenle yalnızca veri koruma değil, mesleki sorumluluk perspektifinden de yazılmalı.

Sonuç

Üretken yapay zekâ araçları iş süreçlerinden çıkmayacak. Kurul da bunu kabul ediyor — rehberin yasaklayıcı değil, çerçeveleyici tonu bunun göstergesi. Ne var ki çerçeveyi kuran şirket olmazsa, Kurul'un kuracağı çerçeve bir denetim sonucu olarak gelir. Şirketler için doğru soru artık "AI kullanmalı mıyız?" değil, "AI kullanımımız Kurul incelemesinde savunulabilir mi?"

Politikası olmayan bir şirketin ihlal anında "farkında değildim" demek gibi bir seçeneği yok. Politikası olan bir şirket, aynı ihlal anında — politikanın yazılı olduğu, eğitim verildiği, denetim yapıldığı kanıtlanabiliyorsa — Kurul'un takdir hakkını kendi lehine çevirebilir.

Kaynaklar

KVKK, "Üretken Yapay Zekâ ve Kişisel Verilerin Korunması Rehberi (15 Soruda)", 24.11.2025 (kvkk.gov.tr)

KVKK, "İş Yerlerinde Üretken Yapay Zekâ Araçlarının Kullanımı" Rehberi, 05.03.2026 (kvkk.gov.tr)

KVKK, "Etken Yapay Zekâ (Agentic AI)" Rehberi, 12.03.2026 (kvkk.gov.tr)

6698 sayılı Kişisel Verilerin Korunması Kanunu, m.5, m.9, m.10, m.12, m.18

1136 sayılı Avukatlık Kanunu, m.36 — Sır saklama yükümlülüğü

Türkiye Barolar Birliği Meslek Kuralları

Resmi Gazete, 27.11.2025 — 2026 yılı yeniden değerleme oranı tebliği (%25,49)

Bu yazı genel bilgilendirme amaçlıdır; somut olaylarda hukuki danışmanlık yerine geçmez.