Nem a hardveres skálázás hozza majd el az AGI-t

Jelentős limitekbe futott az AI modellek fejlesztése, amire egyelőre nincs reális megoldás.

Az AI Fejlesztéséért Alapított Egyesület, vagyis az AAAI, amely egy 1979-ben alapított neves tudományos szervezet, nemrégiben 25 kutatóját kérte meg, hogy végezzenek el egy felmérést, méghozzá 475, AI technológiákkal foglalkozó szakember körében a jövőbeli irányvonalakról.

Hirdetés

Az érintett szakemberek és tudósok figyelmeztettek, hogy a folyamatos hardverbővítés nem lesz elegendő az AGI, vagyis az mesterséges általános intelligencia eléréséhez, ezek helyett inkább valódi tudományos kutatásra lenne szükség. Az AAAI felmérésében a válaszadók 76%-a kétségbe vonta, hogy a nagyobb szerverfarmok segítenek elérni az AGI-t, így ez a fajta nyers erőt alkalmazó irány tévút.

Stuart Russell, a UC Berkeley szakértője a New Scientistnek azt nyilatkozta, hogy a skálázásra tett hatalmas beruházások, a háttérfolyamatok bárminemű megértése nélkül mindig is helytelennek tűntek, miközben körülbelül egy évvel ezelőtt kezdett mindenki számára nyilvánvalóvá válni, hogy a hagyományos értelemben vett skálázás előnyei elérték a plafont. Itt a szakember arra a megfigyelésre utalhat, hogy hiába alkalmazunk egy bizonyos szintnél több adatot a tréninghez, a keletkező modell egyszerűen alig vagy nem is lesz jobb, mint az előző, papíron rosszabb opció.

Jelen pillanatban erre a problémára nem igazán látszik a megoldás. A Google például igyekszik figyelmen kívül hagyni ezt, és továbbra is ragaszkodnak a skálázáshoz, miközben az OpenAI új megközelítéseket próbál, például a tesztidő számítást, aminek a lényege az, hogy a modell a több időt kap a döntések meghozatalára. Utóbbi előrelépést kínál, de Arvind Narayanan, a Princetoni Egyetem professzora már figyelmeztette az iparágat, hogy nem valószínű, hogy ez a megoldás minden problémára.

Előzmények

Hirdetés