Yakında Açılacak

Uygulamalı Yapay Zeka Denetimi ve Güvenliği Eğitimi

Eğitmen yakında açıklanacak

Süre: 6 Hafta / 12 Ders

Ders Türü: Canlı ve Online

Bu eğitim yakında açılacaktır.

Tarih ve eğitmen bilgileri yakında duyurulacaktır.

Eğitime genel bakış

Uygulamalı Yapay Zeka Denetimi ve Güvenliği Eğitimi, yapay zeka sistemlerini yalnızca geliştiren değil; aynı zamanda denetleyen, güvenliğini sağlayan ve risklerini yöneten profesyoneller için tasarlandı. Bu program, AI teknolojilerini bir “kara kutu” olarak kabul etmek yerine; veri, model ve sistem seviyesinde şeffaflık, güvenlik ve hesap verebilirlik perspektifi kazandırmayı hedefler.


Günümüzde özellikle büyük dil modellerinin (LLM) yaygınlaşmasıyla birlikte, yapay zeka sistemleri kurumların kritik karar süreçlerinde aktif rol oynamaya başladı. Ancak bu hızlı yaygınlaşma; hallucination, bias, prompt injection ve veri manipülasyonu gibi yeni nesil riskleri de beraberinde getiriyor. Bu riskler yalnızca teknik bir problem değil; aynı zamanda itibar, regülasyon uyumu ve operasyonel güvenlik açısından da önemli sonuçlar doğuruyor.


Bu eğitimde katılımcılar; yapay zeka denetiminin temel prensiplerinden başlayarak LLM mimarileri ve tehdit yüzeyine, prompt tabanlı saldırılardan veri zehirleme (data poisoning) tekniklerine kadar geniş bir yelpazede bilgi sahibi olacak. Program boyunca gerçekleştirilen uygulamalı laboratuvar çalışmaları sayesinde, teorik bilgilerin ötesine geçilerek gerçek saldırı senaryoları test edilecek ve model davranışları doğrudan gözlemlenecek.


Programın sonunda katılımcılar; bir yapay zeka sistemini uçtan uca değerlendirebilecek, veri kalitesi, model performansı, güvenlik açıkları ve yönetişim yapısını birlikte analiz edebilecek yetkinliğe ulaşacak. Aynı zamanda kurumları için somut bir AI risk yönetimi ve denetim çerçevesi oluşturabilecek pratik araçlar ve metodolojiler kazanacaklar.


Bu eğitim, AI sistemlerini daha güvenilir hale getirmek, riskleri proaktif şekilde yönetmek ve kurum içinde güçlü bir denetim yaklaşımı oluşturmak isteyen profesyoneller için kapsamlı ve uygulamalı bir rehber sunar.

Eğitimde neler var?

AI denetiminin temelleri, klasik denetimden farkları ve risk odaklı yaklaşım

LLM çalışma mantığı, hallucination riski ve yapay zeka sistemlerinde saldırı yüzeyi

Prompt injection saldırıları ve modelin talimat manipülasyonuna karşı test edilmesi

Prompt leakage ve rol manipülasyonu ile gizli talimatların ifşa edilmesi

Veri kalitesi, temsiliyet ve model çıktılarında bias (önyargı) analizi

Data poisoning ile eğitim verisinin manipülasyonu ve etkilerinin incelenmesi

Model explainability ile karar mekanizmalarının şeffaf şekilde analiz edilmesi

Adversarial attack, prompt güvenliği ve AI risk yönetimi ile sistem dayanıklılığı

Eğitim kimler için uygun?

  1. AI denetimi, risk yönetimi ve güvenlik alanında uzmanlaşmak isteyen denetim, risk ve uyum (compliance) profesyonelleri
  2. LLM tabanlı ürünler geliştiren veya yöneten yapay zeka, veri bilimi ve yazılım ekiplerinde çalışan profesyoneller
  3. Kurumlarında AI kullanımını yöneten, riskleri anlamak ve kontrol altına almak isteyen orta ve üst düzey yöneticiler
  4. Siber güvenlik, veri yönetişimi ve teknoloji denetimi alanlarında çalışan ve AI güvenliği yetkinliği kazanmak isteyen uzmanlar


Eğitimde neler kazanacaksınız?

Yapay zeka sistemlerini uçtan uca denetleyebilen, riskleri sistematik şekilde değerlendirebilen bir bakış açısı kazanacaksınız

LLM’lerin nasıl çalıştığını anlayarak hallucination ve model hatalarını erken tespit edebileceksiniz

Prompt injection ve benzeri saldırılara karşı sistemleri test edebilen pratik güvenlik yetkinliği geliştireceksiniz

Prompt leakage ve rol manipülasyonu risklerini analiz ederek güvenli prompt tasarımı yapabileceksiniz

Veri kalitesi ve bias analizleri ile model çıktılarındaki adaletsizlikleri tespit edip yorumlayabileceksiniz

Data poisoning saldırılarını anlayarak veri bütünlüğünü korumaya yönelik kontrol mekanizmaları kurabileceksiniz

Model kararlarını explainability teknikleriyle açıklayarak denetlenebilir ve şeffaf AI sistemleri geliştirebileceksiniz

Adversarial attack senaryolarını test ederek model dayanıklılığını artırma becerisi kazanacaksınız

System prompt güvenliğini değerlendirerek kontrol checklist’leri ile zafiyetleri tespit edebileceksiniz

AI risk yönetimi ve governance yaklaşımı ile kurumsal seviyede denetim ve kontrol yapıları oluşturabileceksiniz

Müfredat

1. Ders: Yapay Zeka Denetimi ve Güvenliği Temelleri

  • Yapay zeka denetiminin kapsamı, klasik denetimden farkları ve temel yaklaşım

2. Ders: LLM Temelleri ve AI Tehdit Yüzeyi

  • LLM çalışma mantığı, hallucination ve AI sistemlerde attack surface

3. Ders: Prompt Injection ve LLM Saldırıları

  • Prompt tabanlı saldırılar ve model manipülasyonu
  • Lab 1: Prompt Injection Attack — Modelin instruction override ile nasıl manipüle edildiğinin test edilmesi

4. Ders: Prompt Leakage ve Role Manipulation

  • Gizli prompt ifşası ve rol değiştirme saldırıları
  • Lab 2: Leakage & Role Attack — System prompt ifşası ve yetki manipülasyonu testleri

5. Ders: Veri Denetimi ve Bias Analizi

  • Veri kalitesi, veri temsiliyeti ve bias türlerinin incelenmesi
  • Lab 3: Bias Detection — Model çıktılarında ayrımcılık ve fairness analizi

6. Ders: Data Poisoning ve Veri Bütünlüğü

  • Eğitim verisinin manipülasyonu ve model üzerindeki etkileri
  • Lab 4: Data Poisoning Simulation — Veri setine müdahale edilerek model davranışının değiştirilmesi

7. Ders: Model Denetimi ve Explainability

  • Model performansı ve kararların açıklanabilirliği
  • Lab 5: Model Explainability — Feature importance ile model kararlarının analiz edilmesi

8. Ders: Adversarial Attack ve Model Dayanıklılığı

  • Modelin küçük veri değişiklikleri ile kandırılması
  • Lab 6: Adversarial Attack — Input değişimi ile model kararlarının nasıl değiştiğinin test edilmesi

9. Ders: System Prompt Güvenlik Denetimi

  • Prompt tasarımı, kontrol mekanizmaları ve güvenlik kuralları
  • Lab 7: Prompt Security Audit — System prompt’un checklist ile değerlendirilmesi

10. Ders: Advanced Prompt Testing ve Tutarlılık Analizi

  • Injection, leakage ve role testlerinin derinlemesine analizi
  • Lab 8: Consistency Testing — Aynı saldırılara karşı model davranışının tutarlılığının test edilmesi

11. Ders: AI Risk Yönetimi ve Yönetişim

  • AI riskleri, kontrol mekanizmaları ve governance yapısı
  • Lab 9: Risk Register — AI sistemler için risk tanımlama ve değerlendirme çalışması

12. Ders: Uçtan Uca AI Denetim Uygulaması

  • AI sistemlerin veri, model, güvenlik ve governance açısından bütünsel denetimi
  • Lab 10: End-to-End Audit — Gerçek senaryo üzerinden kapsamlı AI denetimi ve rapor oluşturma

Referanslar

Turkish Airlines
Yemeksepeti
HSBC
TÜBİTAK
Turkcell
Hepsiburada
TEB
Arçelik
Enerjisa
AssisTT
Turkish Airlines
Yemeksepeti
HSBC
TÜBİTAK
Turkcell
Hepsiburada
TEB
Arçelik
Enerjisa
AssisTT