Badania naukowe opublikowane w prestiżowym magazynie Nature ujawniają przełom w dziedzinie sztucznej inteligencji (SI). Wyniki tych badań pokazują, że sieci neuronowe, będące jednym z rodzajów SI, mogą być przeszkolone w zakresie „systematycznej kompozycjonalności”, istotnego elementu ludzkiej inteligencji. Ta zdolność pozwala na kreatywne łączenie znanych koncepcji, co jest kluczowe w procesie tworzenia nowych pomysłów oraz rozumienia skomplikowanych struktur.
Badania te mają ogromne znaczenie, ponieważ rozstrzygają długo trwający spór w dziedzinie nauk kognitywnych, która zajmuje się badaniem tego, jaki rodzaj komputera najlepiej reprezentuje ludzką myśl. Od lat 80. XX wieku część naukowców kognitywnych argumentowała, że sieci neuronowe, jako rodzaj SI, nie są odpowiednimi modelami ludzkiego umysłu z powodu braku zdolności do systematycznej kompozycjonalności.
Nowe badania, przeprowadzone przez dr. Brendena Lake’a i Marco Baroni’ego, wykazały, że za pomocą odpowiedniego treningu sieci neuronowe mogą zdobyć tę istotną zdolność. Lake podkreśla: „Nasze badania sugerują, że ten kluczowy aspekt ludzkiej inteligencji można nabyć poprzez praktykę, korzystając z modelu, który wcześniej uważano za niewystarczający pod tym względem.”
Warto zrozumieć, że sieci neuronowe naśladują pewne cechy struktury ludzkiego mózgu, ponieważ ich węzły przetwarzające informacje są ze sobą połączone, a przetwarzanie danych odbywa się w hierarchicznych warstwach. Jednak dotychczasowe systemy SI nie były w stanie działać analogicznie do ludzkiego umysłu ze względu na brak zdolności do łączenia znanych koncepcji w nowy sposób, co nazywane jest „systematyczną kompozycjonalnością”.
Lake i Baroni przeprowadzili testy, które obejmowały modele SI oraz ludzi, używając sztucznego języka z wyrazami takimi jak „dax” i „wif”. Te wyrazy odnosiły się zarówno do kolorowych kropek, jak i do funkcji, które zmieniały kolejność tych kropek w sekwencji. Zadaniem uczestników było odkrycie „zasad gramatycznych”, które określały, które kropki pasują do konkretnych słów.
Wyniki badań wykazały, że ludzie osiągnęli poprawne sekwencje kropek w około 80% prób. Gdy popełniali błędy, były to konkretne rodzaje błędów, np. mylenie pojedynczej kropki z funkcją, która zmieniała kolejność kropek.
Po przetestowaniu siedmiu modeli SI, Lake i Baroni opracowali metodę nazywaną „meta-uczeniem się kompozycjonalności” (MLC). Ta metoda pozwala sieci neuronowej naćwiczyć stosowanie różnych zestawów zasad do nowo poznanych słów oraz dostarcza informacji zwrotnej na temat poprawności ich zastosowania.
Ciekawym aspektem tych badań jest to, że sieć neuronowa przeszkolona za pomocą MLC osiągnęła wyniki na poziomie lub przewyższyła ludzi w tych testach. Co istotne, gdy naukowcy dostarczyli dane dotyczące powszechnych błędów popełnianych przez ludzi, model SI zaczął popełniać te same rodzaje błędów co ludzie.
Autorzy badania także porównali MLC z dwoma modelami SI od OpenAI i stwierdzili, że zarówno MLC, jak i ludzie, osiągnęli znacznie lepsze wyniki od modeli OpenAI w teście z kropkami. MLC radził sobie także doskonale w innych zadaniach, takich jak interpretacja instrukcji pisanych i znaczenie zdań.
To znaczący krok naprzód w dziedzinie SI, choć model wciąż ma pewne ograniczenia w zdolności do generalizacji. Badacze podkreślają, że celem jest dalsze rozwijanie zdolności do kompozycjonalnej generalizacji, co jest kluczowym elementem inteligencji.
Ten postęp jest obiecujący i może otworzyć nowe możliwości w zakresie tworzenia inteligentnych systemów komputerowych, które są bardziej zbliżone do ludzkiego myślenia niż kiedykolwiek wcześniej.
Źródło: Live Science