Bezpieczeństwo AI i Red Teaming z wykorzystaniem narzędzi Microsoft

Opis szkolenia: Szkolenie koncentruje się na zagadnieniach bezpieczeństwa sztucznej inteligencji oraz praktykach Red Teamingu z wykorzystaniem narzędzi Microsoft, takich jak Azure AI Red Teaming Agent i PyRIT. Uczestnicy poznają typowe zagrożenia związane z generatywną AI, nauczą się przeprowadzać testy odporności modeli oraz integrować je z cyklem DevSecOps. Szkolenie ma charakter praktyczny i nie wymaga wcześniejszego doświadczenia z AI.

Czas trwania: 8 godzin (9:00 – 17:00)
Kategoria: AI
Język wykładowy: język polski
Materiały: w języku polskim. Na życzenie klienta materiały w języku angielskim.
Wymagania wstępne: Nie jest wymagana wcześniejsza wiedza z zakresu AI ani programowania.

Grupa decelowa: 

  • Specjaliści ds. bezpieczeństwa IT i DevSecOps
  • Architekci rozwiązań AI i inżynierowie danych
  • Liderzy zespołów odpowiedzialnych za wdrażanie AI
  • Osoby odpowiedzialne za zgodność, ryzyko i audyt technologiczny
  • Programiści i analitycy zainteresowani testowaniem odporności modeli AI

Cel szkolenia: Celem szkolenia jest przekazanie uczestnikom wiedzy i umiejętności w zakresie identyfikacji zagrożeń związanych z AI, przeprowadzania testów odporności modeli oraz integracji Red Teamingu z procesami DevSecOps.

Uczestnicy otrzymają zestaw danych testowych oraz dostęp do środowiska testowego.

Szkolenie kończy się certyfikatem uczestnictwa.


Agenda szkolenia

GodzinaCzas trwaniaModułForma
9:00 – 9:1515 minutModuł 1: Wprowadzenie i cele szkoleniaPrezentacja, dyskusja
9:15 – 10:1560 minutModuł 2: Wprowadzenie do zagrożeń AI i podejścia „shift-left”Teoria, przykłady
10:15 – 10:3015 minutPrzerwa na kawę
10:30 – 11:3060 minutModuł 3: Red Teaming AI – podstawy i strategie atakuTeoria, analiza przypadków
11:30 – 12:3060 minutModuł 4: Narzędzia Microsoft – Azure AI Red Teaming Agent i PyRITPokaz, konfiguracja środowiska
12:30 – 13:3060 minutPrzerwa obiadowa
13:30 – 14:3060 minutModuł 5: Symulacja ataków – Jailbreak, Base64, Leetspeak, UnicodeLaboratorium praktyczne
14:30 – 15:1545 minutModuł 6: Ocena ryzyka i analiza odpowiedzi modeli AILaboratorium praktyczne, analiza wyników
15:15 – 15:3015 minutPrzerwa na kawę
15:30 – 16:1545 minutModuł 7: Automatyzacja testów i integracja z cyklem DevSecOpsWarsztat, dyskusja
16:15 – 16:4530 minutModuł 8: Przyszłość AI jako wektor zagrożeń i przewaga strategicznaPrezentacja
16:45 – 17:0015 minutModuł 9: Podsumowanie, pytania i dalsze krokiDyskusja, Q&A, materiały końcowe

Szczegółowy program szkolenia

Moduł 1: Wprowadzenie i cele szkolenia (15 minut)
Przedstawienie programu, celów i wartości szkolenia. Uczestnicy poznają kontekst rosnącego znaczenia bezpieczeństwa AI i roli Red Teamingu w nowoczesnych organizacjach.

  • Przedstawienie programu, celów i wartości szkolenia.
  • Kontekst rosnącego znaczenia bezpieczeństwa AI.
  • Rola Red Teamingu w nowoczesnych organizacjach.

Moduł 2: Wprowadzenie do zagrożeń AI i podejścia „shift-left” (60 minut)
Omówienie typowych zagrożeń związanych z generatywną AI oraz znaczenia wczesnego wykrywania ryzyk w cyklu rozwoju. Przedstawienie koncepcji „świadomej AI” i jej wpływu na strategię bezpieczeństwa.

  • Typowe zagrożenia związane z generatywną AI.
  • Znaczenie wczesnego wykrywania ryzyk w cyklu rozwoju.
  • Koncepcja „świadomej AI” i jej wpływ na strategię bezpieczeństwa.

Moduł 3: Red Teaming AI – podstawy i strategie ataku (60 minut)
Wprowadzenie do technik Red Teamingu stosowanych w kontekście AI. Uczestnicy poznają metody omijania zabezpieczeń, takie jak Jailbreak, manipulacja promptami, kodowanie i inne.

  • Techniki Red Teamingu w kontekście AI.
  • Metody omijania zabezpieczeń: Jailbreak, manipulacja promptami.
  • Kodowanie danych wejściowych: Base64, Unicode, Leetspeak.

Moduł 4: Narzędzia Microsoft – Azure AI Red Teaming Agent i PyRIT (60 minut)
Praktyczne zapoznanie się z narzędziami Microsoft do testowania odporności modeli AI. Uczestnicy skonfigurują środowisko testowe i poznają możliwości automatyzacji testów penetracyjnych.

  • Konfiguracja środowiska testowego.
  • Przegląd funkcji narzędzi Microsoft.
  • Automatyzacja testów penetracyjnych.

Moduł 5: Symulacja ataków – Jailbreak, Base64, Leetspeak, Unicode (60 minut)
Ćwiczenia praktyczne z wykorzystaniem zestawów danych i scenariuszy ataków. Uczestnicy przeprowadzą symulacje i nauczą się identyfikować luki w zabezpieczeniach modeli.

  • Ćwiczenia praktyczne z wykorzystaniem zestawów danych.
  • Symulacja ataków na modele językowe.
  • Identyfikacja luk w zabezpieczeniach.

Moduł 6: Ocena ryzyka i analiza odpowiedzi modeli AI (45 minut)
Analiza wyników testów – jak ocenić, czy odpowiedzi modelu zawierają treści szkodliwe, nieetyczne lub niezgodne z polityką organizacji. Wprowadzenie do metryk skuteczności ataków.\

  • Analiza wyników testów.
  • Identyfikacja treści szkodliwych i nieetycznych.
  • Metryki skuteczności ataków.

Moduł 7: Automatyzacja testów i integracja z cyklem DevSecOps (45 minut)
Omówienie sposobów włączenia Red Teamingu AI do procesów CI/CD. Uczestnicy poznają dobre praktyki integracji testów bezpieczeństwa z pipeline’ami rozwojowymi.

  • Integracja Red Teamingu z CI/CD.
  • Dobre praktyki bezpieczeństwa w pipeline’ach.
  • Przykłady automatyzacji testów.

Moduł 8: Przyszłość AI jako wektor zagrożeń i przewaga strategiczna (30 minut)
Dyskusja o roli AI jako zarówno narzędzia innowacji, jak i potencjalnego źródła zagrożeń. Jak organizacje mogą wykorzystać Red Teaming jako przewagę konkurencyjną.

  • AI jako narzędzie innowacji i źródło zagrożeń.
  • Red Teaming jako przewaga konkurencyjna.
  • Trendy w zabezpieczaniu modeli AI.

Moduł 9: Podsumowanie, pytania i dalsze kroki (15 minut)
Zebranie kluczowych wniosków, sesja Q&A oraz przekazanie materiałów dodatkowych i rekomendacji do dalszego rozwoju kompetencji w zakresie bezpieczeństwa AI.

  • Podsumowanie kluczowych zagadnień i wnioski.
  • Sesja Q&A.
  • Materiały dodatkowe i rekomendacje.