CZQ > PL > Marketing

marketing nie jedno ma imię ((:

Niebezpieczeństwo Deep Fake Audio: Czy Jesteśmy Bezpieczni?

Niebezpieczeństwo Deep Fake Audio: Czy Jesteśmy Bezpieczni?

Redakcja
Niebezpieczeństwo Deep Fake Audio: Czy Jesteśmy Bezpieczni?

Deep fake audio stał się rzeczywistością dostępną dla każdego. Serwis Elevenlabs uruchomił platformę, na której wystarczy minuta nagrania, aby stworzyć wierną kopię głosu. Użytkownicy mogą wprowadzać dowolne frazy, które będą następnie wypowiadane przez sklonowany głos.

Choć użytkownicy muszą zaznaczyć, że mają prawo do używania danego głosu, wiele osób ignoruje te checkboxy. Przykłady z życia wzięte pokazują, że technologia ta jest wykorzystywana do klonowania głosów celebrytów, którzy mówią kompromitujące frazy. Tego typu sytuacje budzą niepokój.

Innym niebezpiecznym zastosowaniem jest vishing, czyli oszustwo głosowe, które może prowadzić do poważnych konsekwencji. Regularni czytelnicy sekuraka mogą pamiętać niedawne doniesienia o projekcie Microsoftu, gdzie do sklonowania głosu wystarczało kilka sekund nagrania.



Na podstawie: Źródła


Najnowsze wiadomosci ⚡📰

🚀 Dołącz do Marketingowej Elity!

Codzienna dawka marketingu, która nie parzy jak kawa — ale działa szybciej.

Nie przegap żadnego trendu, hacka ani dramy w świecie marketingu! 🧠
Mamy już ponad 155 000 artykułów i codziennie dorzucamy 50–100 nowych perełek z SEO, PR, social mediów, reklam, AI i brandingu. Do tego wywiady, nowe narzędzia pozwalające dowieźć wyniki i nutka prawa oraz bezpieczeństwa. Wszystko podane w starupowym sosie, który nigdy sie nie nudzi.
Zapisz się teraz, a Twoja skrzynka stanie się potężniejsza niż raporty z Analyticsa.