OpenAI Rezygnuje z Planu Oznaczania Tekstów ChatGPT
OpenAI Rezygnuje z Planu Oznaczania Tekstów ChatGPT
OpenAI zdecydowało się nie wdrażać systemu oznaczania tekstu w generowanych przez ChatGPT treściach, mimo że technologia była gotowa od niemal roku. Decyzja ta, zgłoszona przez The Wall Street Journal i potwierdzona w aktualizacji bloga OpenAI, wynika z obaw użytkowników oraz wyzwań technicznych.
System oznaczania tekstu, który miał subtelnie zmieniać wzorce przewidywania słów w treściach generowanych przez AI, obiecywał niemal doskonałą dokładność. Wewnętrzne dokumenty cytowane przez The Wall Street Journal twierdziły, że był on "99.9% skuteczny" i odporny na proste parafrazowanie.
Niemniej jednak, OpenAI ujawniło, że bardziej zaawansowane metody manipulacji, takie jak użycie innego modelu AI do przeredagowania, mogą łatwo obejść tę ochronę. Opór użytkowników mógł być kluczowym czynnikiem w decyzji OpenAI, ponieważ obawiali się oni, że oznaczanie treści mogłoby naruszać ich prywatność.
Na podstawie: Źródła








