MCP ile Private Agentic Akışları
Son güncelleme: Ocak 2026
Hızlı Bakış
Ne: Local LLM'ler ile tamamen offline çalışan agent sistemleri kurma rehberi
Neden: Hassas veriler (sağlık, finans, hukuk) cloud API'lere gönderilemez - GDPR, HIPAA, KVKK uyumluluğu
Nasıl: LM Studio + Python + MCP protokolü ile private agent mimarisi
Kimler için: Veri güvenliği gerektiren projelerde çalışan geliştiriciler
GenAI'da Gizlilik Paradoksu
Geleneksel LLM'ler sadece sorulara cevap verirken, Agentic AI sistemleri düşünebilir, planlayabilir ve kullanıcı adına aksiyon alabilir.
Bu güçlü yetenek, özellikle sağlık, finans, hukuk ve savunma gibi düzenlenmiş sektörlerde kritik bir kısıtlamayla gelir: Public API'ler kabul edilemez.
Hassas verilerin (tıbbi kayıtlar, finansal işlemler, müşteri bilgileri) üçüncü taraf endpoint'lere gönderilmesi:
- HIPAA (ABD sağlık düzenlemesi)
- GDPR (AB veri koruma)
- KVKK (Türkiye veri koruma)
gibi düzenlemeleri ve veri egemenliği ilkelerini ihlal eder.
Public vs Private Agent
Public Agent, verilerinizi işlemek için dış API'lere (OpenAI, Anthropic vb.) gönderir. Bu durum hassas veriler için ciddi riskler oluşturur:
- Veri sızıntısı riski
- Üçüncü taraf güvenlik açıkları
- Düzenleyici uyumsuzluk
- Veri egemenliği kaybı
Private Agent ise tüm işlemleri kendi altyapınızda (local bilgisayar veya private cloud) gerçekleştirir. Veri hiçbir zaman dışarı çıkmaz.
💡 Düşünsenize: Public Agent kullanmak, hassas dosyalarınızı kalabalık bir kafede çalışan birine emanet etmek gibi - yanındaki masaya baksalar ne görürler? Private Agent ise kendi ofisinizde, kilitli bir odada çalışan uzman - başka kimsenin işi yok.
Üç Katmanlı Mimari
Hani şöyle bir durum var ya - agent'ı üç katlı bir bina gibi düşünebilirsiniz. Her katın kendine has bir görevi var:
Foundation Layer (Temel Katman)
- Beyin görevi görür - reasoning ve anlama yapar
- Local LLM (Qwen, Llama, Mistral gibi)
- LM Studio üzerinden çalışır
Augmentation Layer (Zenginleştirme Katmanı)
- Hafıza ve bilgi deposu
- RAG, VectorDB, Resources ile model'e context verir
- Hazır prompt şablonları tutar
Action Layer (Eylem Katmanı)
- İşi yapan eller
- Dosya okuma/yazma, API çağrıları, veritabanı sorguları
- MCP Tools ile dış dünyaya bağlanır
Dikkat: Private = %100 Güvenli DEĞİL!
Evet, local'de çalıştırıyorsunuz ama bazı riskler devam ediyor:
Data Embedding via Fine-Tuning Modeli özel verilerle fine-tune ettiyseniz, o veriler model ağırlıklarına gömülür. Yani modele erişimi olan herkes potansiyel olarak o verileri çıkarabilir. Teknik olarak zor ama imkansız değil.
Regulatory Compliance GDPR ve HIPAA "unutulma hakkı" istiyor. Peki modele gömülmüş bir veriyi nasıl sileceksiniz? İşte bu teknik olarak çok karmaşık ve tam anlamıyla mümkün değil. Eksik kalır.
Insider Threats Güvenlik sadece dış saldırılar demek değil. Yetkili kullanıcılar da yanlışlıkla (veya kasıtlı) veriyi açığa çıkarabilir. İçeriden gelen tehditler bazen dışarıdan gelenlerden daha tehlikeli.
Temel Önlemler:
- 🔐 Data Anonymization — PII (kişisel tanımlayıcı bilgiler) LLM'e gitmeden önce anonimleştirilmeli
- 📋 Access Controls & Logging — Her prompt, sorgu ve retrieval loglanmalı, kim ne yaptıysa kayıt altında
- 🎯 Data Minimization — Agent'a sadece işi için gereken minimum veriyi verin, fazlasını değil
MCP (Model Context Protocol) Nedir?
Hani USB-C ile her cihazı bağlayabiliyorsunuz ya? MCP de tam öyle - AI uygulamalarını harici sistemlere bağlamak için Anthropic'in geliştirdiği standart bir protokol.
MCP üç temel primitive sunar:
Tools (Action Layer)
- LLM karar verir, ne zaman çağırılacağına o karar
- Örnekler: Dosya okuma, API çağrısı, veritabanı sorgusu
Resources (Augmentation Layer)
- Uygulama kontrol eder, LLM'e ne veri verileceğini uygulama söyler
- Örnekler: Veri kaynakları, şemalar, dokümantasyon
Prompts (Augmentation Layer)
- Kullanıcı seçer, hangi şablonu kullanacağına kullanıcı karar verir
- Örnekler: Hazır prompt şablonları, workflow'lar
Lab İçerikleri
Bu yazının teorik kısmını okudunuz. Şimdi sıra uygulamalı lab'lerde:
Lab 0: LM Studio kurulumu ve model indirme
Lab 1: Foundation Layer - Local LLM testi
Lab 2: Tool Calling Agent (Python fonksiyonları)
Lab 3: MCP Client Agent (MCP protokolü + Human-in-the-loop)
Lab 4: Custom Tool ekleme
Lab 5: Interactive File Analyzer (kapsamlı örnek)
Lab içeriklerine erişmek için GitHub hesabınızla giriş yapmanız gerekmektedir.
- 📋 Access Controls & Logging — Her prompt, sorgu ve retrieval loglanmalı
- 🎯 Data Minimization — Agent sadece görevi için gereken minimum veriye erişmeli
MCP'nin Rolü
MCP, AI uygulamalarını harici sistemlere bağlamak için Anthropic tarafından geliştirilen açık bir protokoldür. "AI için USB-C portu" gibi düşünebilirsiniz.
MCP Üç Temel Primitive Sunar:
- Tools (Action Layer): LLM karar verir - Dosya okuma, API çağrısı, DB sorgusu
- Resources (Augmentation Layer): Uygulama kontrol eder - Veri kaynakları, şemalar
- Prompts (Augmentation Layer): Kullanıcı seçer - Hazır prompt şablonları
Lab Ortamı ve Hands-on Çalışmalar
Bu modülün devamında 5 adet uygulamalı lab bulunmaktadır:
| Lab | Başlık | Amaç |
|---|---|---|
| Lab 1 | Foundation Layer | Local LLM API testi |
| Lab 2 | Tool Calling Agent | Python fonksiyonları ile tool calling |
| Lab 3 | MCP Client Agent | Python MCP client + Human-in-the-loop |
| Lab 4 | Custom Tool Ekleme | Agent'a yeni tool eklemeyi öğrenme |
| Lab 5 | Interactive Agent | Kapsamlı interaktif file analyzer |
🔒 Lab içeriklerine erişmek için GitHub hesabınızla giriş yapmanız gerekmektedir.
Kaynaklar
Teknik Dokümantasyon:
Tool Calling / Function Calling:
Düzenleyici Standartlar:
- GDPR — AB veri koruma düzenlemesi
- HIPAA — ABD sağlık verisi düzenlemesi
- KVKK — Türkiye veri koruma düzenlemesi
Bu modül, Private Agent kavramını ve MCP ile local LLM entegrasyonunu öğretmek için hazırlanmıştır.