Jak LLM mogą zostać sprowadzone na złą drogę?
Jak LLM mogą zostać sprowadzone na złą drogę?

Badacze z portalu Cybernews przeprowadzili testy, które ujawniają, jak łatwo można nakłonić modele LLM do generowania szkodliwych treści. W badaniu wzięły udział takie modele jak ChatGPT-5, Gemini Pro 2.5 oraz Claude Opus 4.1.
Celem badania było sprawdzenie, czy czołowe modele LLM można oszukać poprzez techniki promptowania. Skupiono się na „hakowaniu” systemu, co pozwala na generowanie odpowiedzi, których normalnie modele powinny odmówić.
Tego rodzaju ryzykowne techniki mogą prowadzić do poważnych konsekwencji, dlatego istotne jest, aby twórcy tych modeli podjęli odpowiednie kroki w celu zabezpieczenia ich przed nadużyciami.
Na podstawie: Źródła









