Niebezpieczeństwo ChatGPT: Jak Cyberprzestępcy Mogą Wykorzystać AI do Rozprzestrzeniania Złośliwego Kodu
Niebezpieczeństwo ChatGPT: Jak Cyberprzestępcy Mogą Wykorzystać AI do Rozprzestrzeniania Złośliwego Kodu
Badacze z firmy Vulcan.io zajmującej się zarządzaniem ryzykiem cybernetycznym, opublikowali dowód koncepcji, który pokazuje, jak hakerzy mogą wykorzystać ChatGPT 3.5 do rozprzestrzeniania złośliwego kodu z zaufanych repozytoriów. To badanie zwraca uwagę na zagrożenia bezpieczeństwa związane z poleganiem na sugestiach ChatGPT w kontekście rozwiązań kodujących.
Metodologia badania obejmowała zebrane najczęściej zadawane pytania dotyczące kodowania z forum Stack Overflow. Wybór padł na 40 tematów związanych z programowaniem, takich jak parsing, matematyka czy technologie skrapujące. Następnie badacze przefiltrowali 100 pytań dla każdego z tych tematów, skupiając się na pytaniach typu "jak zrobić", które zawierały pakiety programistyczne.
W kontekście Node.js i Python, Vulcan.io wyjaśnia: "Wszystkie te pytania były filtrowane z uwzględnieniem języka programowania". Wnioski te pokazują, jak ważne jest zachowanie ostrożności podczas korzystania z narzędzi AI w programowaniu.
Na podstawie: Źródła








