A mesterséges intelligencia kifejlesztése után csak pár száz éve marad a civilizációnak?

A mesterséges intelligencia kifejlesztése után csak pár száz éve marad a civilizációnak?

Fotó: Unsplash/Steve Johnson

Támogassa a Magyar Hangot!

Legyen Ön is előfizetőnk, rendelje házhoz a Magyar Hangot! Ha más módon támogatná a lapot ebben a nehéz helyzetben, azt is megteheti (PayPal és bankkártya is)! Köszönjük! ELŐFIZETEK

Új felvetéssel élt a Fermi-paradoxon megoldására egy angol asztrofizikus. Szerinte köze van hozzá a mesterséges intelligencia kifejlesztésének.

A háromtest-probléma című Netflix-sorozattal ismét a közérdeklődés előterébe került a Fermi-sejtés problématikája. Az Enrico Fermi által megfogalmazott sejtésnek nincs megoldása, mindössze megoldási kísérletei vannak: maga a kérdésfelvetés úgy szól, hogy amennyiben tele van az univerzum csillagokkal, a csillagrendszerek bolygókkal, a bolygók élettel, akkor hol vannak az űrlények, hol van mindenki más? Miért nem találkoztunk még legalább egy másik fejlett, azaz technikai civilizációval bíró idegen fajjal, vagy legalább a nyomaival?

A Liu Ce-hszin (nemzetközileg használt pinjin átírással: Liu Cixin) által írt sci-fi bestsellerben egy újabb megoldása olvasható a paradoxonnak: a sötét erdő-hipotézis. Eszerint bár több különböző idegen technikai civilizáció is létezik az univerzumban, de mindegyik igyekszik a saját létezésének nyomait elfedni, mivel az univerzum egy barátságtalan hely, és feltételezhető, hogy amennyiben két civilizáció „találkozna”, azaz megismerné egymás pontos helyét, kölcsönösen fenyegetésként értékelnék a másik létét, és emiatt valamilyen módon egymás kölcsönös elpusztítására tennének kísérletet.

Magának a hipotézisnek a nevét is Liu Ce-hszin regényének címe adta, bár a paradoxon feloldására irányuló elképzelés már korábban is létezett (például Greg Bear sci-fi író „veszedelmes dzsungel” néven írta ezt le egy regényében). A hipotézisnek tulajdonképpen három alapfeltételezése van: egyfelől az, hogy minden technikai civilizáció örökösen a bővülésre, gyarapodásra törekszik, azaz egyre újabb és újabb csillagrendszerek kolonizálására. A másik pedig, hogy az univerzumban lévő anyagmennyiség nem növekszik, és a csillagrendszerek közötti távolságok áthidalhatóak. Ebből a két alapfeltételből viszont logikusan következik, hogy a különböző technikai civilizációk hosszabb távon egymást akadályozzák, ha nem is azonnal. Ebből viszont jön a harmadik feltétel: a civilizációk hamarabb képesek egy új csillagrendszer meghódítására, mint saját bolygójuk készleteinek teljes felélésére, saját maguk elpusztítására. Azaz a hipotézis az univerzum saját belső idejéhez mérten is időben stabil civilizációkkal számol.

A mesterséges intelligencia kifejlesztése a Nagy Szűrő?

Ehhez képest is új felvetéssel élt a paradoxon megoldására egy angol asztrofizikus az IFL Science portál ismertetése szerint. Michael Garrett, a Manchesteri Egyetem Asztrofizikai intézetének vezetője és az ugyanott található Jodrell Bank Asztrofizikai Központ igazgatója úgy véli, hogy a Fermi-paradoxon korábbi megoldásainak egyike, a „Nagy Szűrő”-hipotézis valós fenyegetés, ám még nem következett be. A Nagy Szűrő-feltételezés szerint az élet az univerzumban viszonylag gyorsan és könnyen kialakul (azaz az általunk ismert élet feltételei gyakran előállnak a különböző bolygókon vagy akár holdakon, s az életfeltételek jelenléte után gyorsan kifejlődik azokból az élet), ám van egy olyan állomása a különböző evolúciós lépéseknek, amelyet a többség nem képes átlépni. Tehát például a sejtmag nélküli élet nem tud sejtmagossá, vagy az egysejtű élet többsejtűvé válni – vagy ha ki is alakul öntudatra ébredt élet, egy kezdetleges civilizáció, akkor az életfeltételek nem maradnak meg tartósan azon a bolygón. Esetleg a már öntudatra ébredt élet képes volt ilyen civilizációt kiépíteni magának, ám saját magát pusztította el a bolygó készleteinek elhamarkodott és a hosszabb távú következményekkel nem törődő felélésével. Garrett szerint a Nagy Szűrő ott jön el, amikor egy ilyen technológiai civilizáció kifejleszti a mesterséges intelligenciát. (Nevezhetnénk ezt akár Terminátor-hipotézisnek is.)

„Mielőtt a mesterséges intelligencia (MI) szuperintelligenciává és potenciálisan autonómmá válna (azaz öntudatra ébredne – a szerk.), minden valószínűség szerint bekerülne a különböző szemben álló politikai felek fegyverarzenáljába, amelyek egymást próbálnák valamilyen módon felülmúlni. Viszont bevetés esetén az MI rendkívül gyors döntési képességei miatt a különböző konfliktusokat az eredeti emberi szándékokhoz képest eleszkalálná. Az MI-fejlesztés jelenlegi fázisában elképzelhető, hogy az MI önállóan működő fegyverrendszerekbe és a valós idejű védelmi döntéshozatalba való integrálása katasztrofális incidensekhez, mint például termonukleáris háború kirobbanásához vezetne, amely viszont mind a mesterséges, mind a biológiai technikai civilizációk végét jelentené”, írja Garrett.

Ha pedig a jelenlegi MI-kutatások elvezetnének a szuperintelligenciához, a helyzet még ennél is rosszabb lenne. Garrett szerint „a technológiai szingularitás elérésekor a mesterséges szuperintelligenciák egy pillanat alatt le fogják hagyni a biológiai intelligenciákat, és olyan szédítő sebességgel evolválódnának tovább, amely teljes mértékben meg tudja kerülni a hagyományos kontrolláló és ellenőrző mechanizmusainkat. Mindez olyan előre nem látható és előre nem szándékolt következményeket jelent, amelyek nagyon valószínűtlen, hogy a biológiai lények érdekeivel vagy etikájukkal megegyeznek. A biológiai lények fenntartásához szükséges kiterjedt erőforrás-igények, mint az energia és tér, lehet, hogy nem lennének vonzóak egy ilyen mesterséges szuperintelligencia precíz hatékonyságú szemléletének, és ezeket inkább tekintené zavaró kellemetlenségnek, mint előnyösnek. Egy szuperintelligencia az őt létrehozó biológiai civilizációt többféle módon is képes lenne könnyedén kiirtani, mint például egy fertőző és halálos vírus megszerkesztésével és a környezetbe való kiengedésével.”

Az MI-k után már csak 100-200 év lehet hátra?

Garrett szerint az emberiség kihalásának kockázatát csökkenthetjük azáltal, ha akár a Naprendszeren belül, akár más csillagrendszerekben sikerülne az emberiségnek elterjednie. Ám, teszi hozzá, jelenleg nagyobb sebességgel haladunk általános mesterséges intelligenciák és szuperintelligenciák létrehozása felé, mint a potenciális gyarmatbolygók kolonizálása felé. Ennek legfőbb oka, hogy egy az ember számára életlehetőségeket teremtő bolygó irányába történő expanzió rendkívüli módon erőforrásigényes, nem beszélve a csillagközi térben való utazás nehézségeiről, miközben az MI-k további fejlesztésének akadálya mindössze az, hogy legyen folyamatosan bővülő számítási és adattároló kapacitás – ebben pedig az emberiség jelenleg jól áll.

Garrett megjegyzi, hogy egy mesterséges intelligencia az űrutazás nehézségeinek leküzdésében is segíthet, ám valószínűsíti, hogy a vele való problémák még így is jóval hamarabb bekövetkezhetnek, minthogy képesek lennénk megvetni a lábunkat egy másik naprendszerben. Az asztrofizikus számítása szerint egy civilizációnak, miután az MI-k széleskörű felhasználása mellett döntött, már csak 100-200 éve lehet hátra, amely idő rendkívül kevés arra, hogy a többi potenciális űrbeli civilizáció felé jeleket sugározzon ki, vagy azok jeleit fogni legyen képes.

Garrett azzal zárja tanulmányát, hogy feltételezi, „amennyiben a szuperintelligenciával bíró fejlett civilizációk várható élettartama alig pár száz év, akkor mindössze egy maréknyi másik ilyen technikai civilizáció lehetséges csak, amelyek jelenleg velünk egy időben léteznek a Tejútrendszerben. Ez konzisztens azzal, hogy a SETI-program indulása óta nem fogtunk egyetlen egy űrbeli jelet sem, melyek potenciálisan más civilizációktól származhatnának.”