AGI w zagrożeniu? Gary Marcus demaskuje błąd skalowania w AI
AGI w zagrożeniu? Gary Marcus demaskuje błąd skalowania w AI
Gary Marcus, znany komentator i krytyk rozwoju sztucznej inteligencji, stawia tezę, że ciągłe dodawanie danych treningowych do modeli AI nie przybliży nas do ogólnej sztucznej inteligencji (AGI). Jego zdaniem, hipoteza skalowania, która zakłada, że większe modele językowe prowadzą do AGI, jest błędna i prowadzi do obecnej „bańki AI”.
Marcus twierdzi, że ten błąd jest jedną z najdroższych pomyłek w historii nauki. W swoim eseju „Deep Learning is Hitting a Wall” z marca 2022 roku oraz późniejszym „The New Science of Alt Intelligence”, rozpoczął krytykę popularnej koncepcji „scale is all you need”.
Według niego, masowe ilości danych nie są wystarczające, aby osiągnąć prawdziwą inteligencję maszynową. To może oznaczać, że dotychczasowe podejście do rozwoju AI wymaga gruntownego przemyślenia.
Na podstawie: Źródła








