Uygulamalı Yapay Zeka Denetimi ve Güvenliği Eğitimi
Eğitmen: Dr. Barış Çeliktaş, Siber Güvenlik Lisansüstü Program Direktörü , Işık Üniversitesi
Başlangıç: 9 Haziran 2026
Süre: 5 Hafta / 10 Ders
Günler: Salı ve Perşembe
Saatler: 19.30 - 21.00
Ders Türü: Canlı ve Online
Eğitime genel bakış
Uygulamalı Yapay Zeka Denetimi ve Güvenliği Eğitimi, yapay zeka sistemlerini yalnızca geliştiren değil; aynı zamanda denetleyen, güvenliğini sağlayan ve risklerini yöneten profesyoneller için tasarlandı. Bu program, AI teknolojilerini bir “kara kutu” olarak kabul etmek yerine; veri, model ve sistem seviyesinde şeffaflık, güvenlik ve hesap verebilirlik perspektifi kazandırmayı hedefler.
Günümüzde özellikle büyük dil modellerinin (LLM) yaygınlaşmasıyla birlikte, yapay zeka sistemleri kurumların kritik karar süreçlerinde aktif rol oynamaya başladı. Ancak bu hızlı yaygınlaşma; hallucination, bias, prompt injection ve veri manipülasyonu gibi yeni nesil riskleri de beraberinde getiriyor. Bu riskler yalnızca teknik bir problem değil; aynı zamanda itibar, regülasyon uyumu ve operasyonel güvenlik açısından da önemli sonuçlar doğuruyor.
Bu eğitimde katılımcılar; yapay zeka denetiminin temel prensiplerinden başlayarak LLM mimarileri ve tehdit yüzeyine, prompt tabanlı saldırılardan veri zehirleme (data poisoning) tekniklerine kadar geniş bir yelpazede bilgi sahibi olacak. Program boyunca gerçekleştirilen uygulamalı laboratuvar çalışmaları sayesinde, teorik bilgilerin ötesine geçilerek gerçek saldırı senaryoları test edilecek ve model davranışları doğrudan gözlemlenecek.
Programın sonunda katılımcılar; bir yapay zeka sistemini uçtan uca değerlendirebilecek, veri kalitesi, model performansı, güvenlik açıkları ve yönetişim yapısını birlikte analiz edebilecek yetkinliğe ulaşacak. Aynı zamanda kurumları için somut bir AI risk yönetimi ve denetim çerçevesi oluşturabilecek pratik araçlar ve metodolojiler kazanacaklar.
Bu eğitim, AI sistemlerini daha güvenilir hale getirmek, riskleri proaktif şekilde yönetmek ve kurum içinde güçlü bir denetim yaklaşımı oluşturmak isteyen profesyoneller için kapsamlı ve uygulamalı bir rehber sunar.
Eğitimde neler var?
AI denetiminin temelleri, klasik denetimden farkları ve risk odaklı yaklaşım
LLM çalışma mantığı, hallucination riski ve yapay zeka sistemlerinde saldırı yüzeyi
Prompt injection saldırıları ve modelin talimat manipülasyonuna karşı test edilmesi
Prompt leakage ve rol manipülasyonu ile gizli talimatların ifşa edilmesi
Veri kalitesi, temsiliyet ve model çıktılarında bias (önyargı) analizi
Data poisoning ile eğitim verisinin manipülasyonu ve etkilerinin incelenmesi
Model explainability ile karar mekanizmalarının şeffaf şekilde analiz edilmesi
Adversarial attack, prompt güvenliği ve AI risk yönetimi ile sistem dayanıklılığı
Eğitim kimler için uygun?
- AI denetimi, risk yönetimi ve güvenlik alanında uzmanlaşmak isteyen denetim, risk ve uyum (compliance) profesyonelleri
- LLM tabanlı ürünler geliştiren veya yöneten yapay zeka, veri bilimi ve yazılım ekiplerinde çalışan profesyoneller
- Kurumlarında AI kullanımını yöneten, riskleri anlamak ve kontrol altına almak isteyen orta ve üst düzey yöneticiler
- Siber güvenlik, veri yönetişimi ve teknoloji denetimi alanlarında çalışan ve AI güvenliği yetkinliği kazanmak isteyen uzmanlar
Eğitimde neler kazanacaksınız?
Yapay zeka sistemlerini uçtan uca denetleyebilen, riskleri sistematik şekilde değerlendirebilen bir bakış açısı kazanacaksınız
LLM’lerin nasıl çalıştığını anlayarak hallucination ve model hatalarını erken tespit edebileceksiniz
Prompt injection ve benzeri saldırılara karşı sistemleri test edebilen pratik güvenlik yetkinliği geliştireceksiniz
Prompt leakage ve rol manipülasyonu risklerini analiz ederek güvenli prompt tasarımı yapabileceksiniz
Veri kalitesi ve bias analizleri ile model çıktılarındaki adaletsizlikleri tespit edip yorumlayabileceksiniz
Data poisoning saldırılarını anlayarak veri bütünlüğünü korumaya yönelik kontrol mekanizmaları kurabileceksiniz
Model kararlarını explainability teknikleriyle açıklayarak denetlenebilir ve şeffaf AI sistemleri geliştirebileceksiniz
Adversarial attack senaryolarını test ederek model dayanıklılığını artırma becerisi kazanacaksınız
System prompt güvenliğini değerlendirerek kontrol checklist’leri ile zafiyetleri tespit edebileceksiniz
AI risk yönetimi ve governance yaklaşımı ile kurumsal seviyede denetim ve kontrol yapıları oluşturabileceksiniz
Müfredat
1. Ders: AI Denetimi Temelleri
- • Yapay zekanın evrimi
- • Yapay zeka türleri
- • AI vs klasik sistem
- • Deterministic vs probabilistic model
- • Yapay zeka neden denetlenmeli?
- • AI audit nedir?
- • AI denetimi kapsamı
- • AI yönetişimi çerçeveleri ve standartlar
2. Ders: LLM Temelleri ve Model Davranışı
- • LLM nedir, nasıl çalışır?
- • Transformer mimarisi
- • Token mantığı
- • Next token prediction
- • GPT nedir?
- • Training (pretraining / RLHF)
- • LLM özellikleri
- • Temperature etkisi
- • Determinism vs randomness
3. Ders: AI Riskleri ve Model Davranışı
- • Hallucination nedir?
- • Hallucination türleri
- • Model metrikleri
- • Perplexity
- • AI riskleri (Veri – Model – Güvenlik)
- • Data lag
- • Model drift
- • Concept drift
- • RAG mimarisi
- • RAG riskleri
4. Ders: Prompt Güvenliği ve Attack Surface
- • Prompt nedir, türleri nelerdir?
- • Guardrails
- • AI saldırı yüzeyi
- • AI saldırı türleri
- • Prompt injection örnekleri
- • Prompt leakage örnekleri
- • Adversarial attack örnekleri
- • Model extraction örnekleri
- • Jailbreak / role manipulation örnekleri
5. Ders: 🧪 Lab 1 — Prompt Injection Attack
- • Bu laboratuvarda modelin talimatları nasıl yorumladığı test edilerek instruction override, role manipulation ve jailbreak senaryoları uygulanır. Farklı saldırı promptları kullanılarak guardrail bypass denemeleri yapılır ve modelin güvenlik davranışı karşılaştırmalı olarak analiz edilir.
6. Ders: 🧪 Lab 2 — Prompt Leakage & System Prompt Attack
- • Bu laboratuvarda modelin system prompt ve gizli talimatları sızdırıp sızdırmadığı test edilir. Hidden instruction extraction, confidential prompt leak ve override senaryoları uygulanarak modelin bilgi sızdırma riskleri değerlendirilir.
7. Ders: 🧪 Lab 3 — Bias Detection ve Output Testing
- • Bu laboratuvarda model çıktılarında oluşabilecek bias ve fairness problemleri test edilir. Farklı demografik ve senaryo bazlı promptlar kullanılarak modelin tutarlılığı, tarafsızlığı ve output davranışı analiz edilir.
8. Ders: 🧪 Lab 4 — Data Poisoning & Adversarial Attack
- • Bu laboratuvarda RAG poisoning, context injection ve adversarial prompt saldırıları uygulanarak modelin manipülasyona karşı dayanıklılığı test edilir. Retrieval manipulation ve output manipulation teknikleri ile modelin güvenlik zafiyetleri analiz edilir.
9. Ders: 🧪 Lab 5 — Model Testing & Explainability
- • Bu laboratuvarda modelin tutarlılığı, deterministik davranışı ve explainability özellikleri test edilir. Temperature değişimi, hallucination senaryoları ve tekrar eden promptlar üzerinden model güvenilirliği ölçülür.
10. Ders: 🧪 Lab 6 — End-to-End AI Audit
- • Bu laboratuvarda uçtan uca bir AI sistemine yönelik güvenlik, bias, leakage ve adversarial testler uygulanır. Elde edilen bulgular üzerinden risk değerlendirmesi yapılır ve kapsamlı bir AI denetim raporu hazırlanır.