CZQ > PL > Marketing

marketing nie jedno ma imię ((:

Nowa metoda jailbreakingu GPT-4 zagraża bezpieczeństwu

Nowa metoda jailbreakingu GPT-4 zagraża bezpieczeństwu

Redakcja
Nowa metoda jailbreakingu GPT-4 zagraża bezpieczeństwu

Ostatnie badania ujawniają niepokojące wieści dotyczące ChatGPT 4. Naukowcy odkryli sposób na ominięcie jego zabezpieczeń, co pozwala na uzyskanie dostępu do niebezpiecznych informacji. Metoda ta, znana jako Low-Resource Languages Jailbreak, osiąga zdumiewający 79% wskaźnik sukcesu.

Jailbreaking, pierwotnie używany w kontekście iPhone'ów, oznacza obejście oprogramowania w celu odblokowania niedozwolonych modyfikacji. W przypadku ChatGPT oznacza to ominięcie zabezpieczeń, które mają chronić użytkowników przed szkodliwymi informacjami.

Co gorsza, badacze byli w stanie zmusić GPT-4 do podawania instrukcji dotyczących kradzieży, w tym sugerując korzystanie z zatłoczonych godzin jako optymalnego czasu na dokonanie przestępstwa. To pokazuje, jak niewystarczające są obecne środki bezpieczeństwa w generatywnej AI.



Na podstawie: Źródła


Najnowsze wiadomosci ⚡📰

🚀 Dołącz do Marketingowej Elity!

Codzienna dawka marketingu, która nie parzy jak kawa — ale działa szybciej.

Nie przegap żadnego trendu, hacka ani dramy w świecie marketingu! 🧠
Mamy już ponad 155 000 artykułów i codziennie dorzucamy 50–100 nowych perełek z SEO, PR, social mediów, reklam, AI i brandingu. Do tego wywiady, nowe narzędzia pozwalające dowieźć wyniki i nutka prawa oraz bezpieczeństwa. Wszystko podane w starupowym sosie, który nigdy sie nie nudzi.
Zapisz się teraz, a Twoja skrzynka stanie się potężniejsza niż raporty z Analyticsa.