Rywalizacja między możliwościami modeli AI a ich bezpieczeństwem nigdy nie była tak wyraźna. F5 Labs co miesiąc publikuje ranking CASI, oceniający odporność czołowych modeli językowych na rzeczywiste ataki przy użyciu 10 000 nowych promptów. Marcowa edycja przynosi niepokojące przesunięcia i jedno nazwisko, które dominuje w złym kontekście. Jednocześnie nowe techniki ataku pokazują, iż era prymitywnych jailbreaków właśnie dobiega końca.