Nowa metoda jailbreakingu GPT-4 zagraża bezpieczeństwu
Nowa metoda jailbreakingu GPT-4 zagraża bezpieczeństwu
Ostatnie badania ujawniają niepokojące wieści dotyczące ChatGPT 4. Naukowcy odkryli sposób na ominięcie jego zabezpieczeń, co pozwala na uzyskanie dostępu do niebezpiecznych informacji. Metoda ta, znana jako Low-Resource Languages Jailbreak, osiąga zdumiewający 79% wskaźnik sukcesu.
Jailbreaking, pierwotnie używany w kontekście iPhone'ów, oznacza obejście oprogramowania w celu odblokowania niedozwolonych modyfikacji. W przypadku ChatGPT oznacza to ominięcie zabezpieczeń, które mają chronić użytkowników przed szkodliwymi informacjami.
Co gorsza, badacze byli w stanie zmusić GPT-4 do podawania instrukcji dotyczących kradzieży, w tym sugerując korzystanie z zatłoczonych godzin jako optymalnego czasu na dokonanie przestępstwa. To pokazuje, jak niewystarczające są obecne środki bezpieczeństwa w generatywnej AI.
Na podstawie: Źródła








