Skip to main content

Nowe badanie, przedstawione na konferencji NeurIPS w Nowym Orleanie, przynosi uspokajające wieści w kwestii nagłego pojawienia się superinteligentnej sztucznej inteligencji (AI). Naukowcy podważyli teorię „emergencji”, według której modele AI nagle i nieprzewidywalnie zyskują inteligencję.

Badacze skupili się na testowaniu dużych modeli językowych, takich jak GPT-3 firmy OpenAI, które są szkolone na ogromnych ilościach tekstów i zdolne do realizacji zadań takich jak tłumaczenie języków czy rozwiązywanie problemów matematycznych. Te modele, im większe, tym lepsze są ich wyniki, co skłoniło niektórych do przypuszczenia, że mogą one osiągnąć sztuczną inteligencję ogólną (AGI), dorównującą a nawet przewyższającą ludzką inteligencję w większości zadań.

Naukowcy sprawdzili te twierdzenia na różne sposoby. Na przykład, porównali zdolności różnych wersji modelu GPT-3 do dodawania czterocyfrowych liczb. Zauważyli, że różnice w wydajności między mniejszymi a większymi modelami były mniej dramatyczne, gdy wzięto pod uwagę ilość poprawnie przewidzianych cyfr w odpowiedzi, niż gdy oceniano tylko całkowitą dokładność.

Badanie obejmowało również model językowy LaMDA od Google’a oraz modele wizji komputerowej. W przypadku LaMDA, nagły wzrost wydawał się być widoczny tylko w zadaniach wielokrotnego wyboru, gdzie odpowiedzi oceniano jako prawidłowe lub nie. Jednak kiedy badacze przyjrzeli się prawdopodobieństwom przypisywanym każdej odpowiedzi, oznaki emergencji zniknęły.

Sanmi Koyejo, współautor badania i naukowiec komputerowy z Uniwersytetu Stanforda, stwierdził, że choć badanie nie wyklucza całkowicie emergencji w dużych modelach językowych czy przyszłych systemach, dotychczasowe badania naukowe silnie sugerują, że większość aspektów modeli językowych jest przewidywalna.

Badanie to ma również implikacje dla bezpieczeństwa AI i polityki w tej dziedzinie. Deborah Raji z Fundacji Mozilla, badająca audytowanie sztucznej inteligencji, wyraziła zadowolenie z większego skupienia się społeczności na benchmarkingu, a nie tylko na tworzeniu architektur sieci neuronowych. Podkreśliła, że modele AI robią postępy, ale nie zbliżają się jeszcze do świadomości.

Źródło: Nature