Hakerzy nie włamują się już do AI, oni go po prostu przekonują. Oto jak działa Sugar-Coated Poison

2 godzin temu
Rywalizacja między możliwościami modeli AI a ich bezpieczeństwem nigdy nie była tak wyraźna. F5 Labs co miesiąc publikuje ranking CASI, oceniający odporność czołowych modeli językowych na rzeczywiste ataki przy użyciu 10 000 nowych promptów. Marcowa edycja przynosi niepokojące przesunięcia i jedno nazwisko, które dominuje w złym kontekście. Jednocześnie nowe techniki ataku pokazują, iż era prymitywnych jailbreaków właśnie dobiega końca.
Idź do oryginalnego materiału