Bezpieczeństwo AI i Red Teaming z wykorzystaniem narzędzi Microsoft
To 8-godzinne szkolenie koncentruje się na zagadnieniach bezpieczeństwa sztucznej inteligencji oraz praktykach Red Teamingu z wykorzystaniem narzędzi Microsoft, takich jak Azure AI Red Teaming Agent i PyRIT. Uczestnicy poznają typowe zagrożenia związane z generatywną AI, nauczą się przeprowadzać testy odporności modeli oraz integrować je z cyklem DevSecOps. Szkolenie ma charakter praktyczny i nie wymaga wcześniejszego doświadczenia z AI.
Nie jest wymagana wcześniejsza wiedza z zakresu AI ani programowania. Uczestnicy otrzymają zestaw danych testowych. Wykorzystują własne komputery i licencje.
Zakres szkolenia:
– Wprowadzenie i cele szkolenia
– Wprowadzenie do zagrożeń AI i podejścia „shift-left”
– Red Teaming AI – podstawy i strategie ataku
– Narzędzia Microsoft – Azure AI Red Teaming Agent i PyRIT
– Symulacja ataków – Jailbreak, Base64, Leetspeak, Unicode
– Ocena ryzyka i analiza odpowiedzi modeli AI
– Automatyzacja testów i integracja z cyklem DevSecOps
– Przyszłość AI jako wektor zagrożeń i przewaga strategiczna
– Podsumowanie, pytania i dalsze kroki

Potrzebujesz szkolenia idealnie dopasowanego do wymagań firmy?
Chcesz zmienić zakres szkolenia? Czas jego trwania? Potrzebujesz szkolenia dla dużej lub bardzo dużej grupy? Masz dodatkowe pytania? A może szukasz webinaru?
Wyślij do mnie wiadomość z formularza kontaktowego obok lub umów spotkanie pod poniższym linkiem w celu ustalenia szczegółów.
