szerző:
hvg.hu
Tetszett a cikk?

Több tucat kérdést tettek fel az MI-nek és különböző tudásszinten lévő szemésznek, hogy kiderüljön, ki vagy mi a jobb. Az eredmények alapján a technológia ígéretes, de azért ennél némileg bonyolultabb a képlet.

A mesterséges intelligencia folyamatosan fejlődik, és egyre több területre teszi be a lábát. A kezdetektől fogva téma – és számos vizsgálat alapja –, hogy egyszer az orvosokat is kiválthatja a technológia, legalábbis segítheti az orvostudományt. Jelen állás szerint azonban felemás a kép; van, hogy kicsit jobban teljesít az orvosi feladatsorok felett, és van, hogy igen rosszul.

Most a Cambridge-i Egyetem orvosi iskolája járt utána annak, hogy a különböző nyelvi modellek hogyan teljesítenek a szemészeti vizsgálatok terén. Mint kiderült: a ChatGPT fizetős verziója mögött is álló, OpenAI-féle GPT-4 (tavalyi verziója) majdnem olyan jól teljesít a területen, mint a hús-vér szakemnerek.

A PLOS Digital Health folyóiratban publikált tanulmányban a kutatók összesen 87 feleletválasztós kérdést szegeztek olyan nyelvi modelleknek, mint a Meta LLaMA, a Google PaLM 2, vagy a már említett GPT-4 régebbi, a ChatGPT ingyenes változatát kiszolgáló GPT-3.5.

Van, ahol hamarosan börtön járhat a mesterséges intelligenciával generált pornóért

Az Egyesült Királyságban törvény fogja büntetni, ha valaki deepfake pornót készít egy másik ember arcával. Az igazán szigorú büntetés akkor jár majd, ha valaki meg is osztja azt.

A kérdéseket öt képzett szemész, három gyakorló szemész szakorvos, és két, még nem szakosodott fiatal orvos elé is letették. Olyan tankönyvből származtak a kérdések, melyek nem nyilvánosak, így a kutatók szerint a nyelvi modelleket nem is képezhették belőle – így nem rendelkeztek ismeretekkel ebből a tankönyvből.

Ami az eredményeket illeti, a GPT-4 magasabb pontszámot ért el, mint a gyakorló és a fiatal orvosok – 60 helyes választ adott a 87-ből. A szakképzett orvosok átlagosan 66,4 helyes választ adtak, amivel le tudták gyűrni a mesterséges intelligenciát.

A PaLM 2 modell 49, míg a GPT-3.5 42 helyes választ adott, az utolsó helyre pedig az LLaMa került 28 ponttal – az eredményeket a Financial Times összegezte elsőként.

Az egész életét megjósolhatja az új mesterséges intelligencia. Aztán a halálát is

Dán kutatók hatmillió ember adataival tanították be a Life2Vec nevű mesterséges intelligenciának, hogyan jósolhatja meg az ismétlődő mintázatok alapján, milyen sors vár egy emberre.

Azt ugyanakkor érdemes szem előtt tartani, hogy a kísérleteket 2023 közepén végezték (a tanulmányt azonban csak most publikálták), így az is elképzelhető, hogy azóta jobbak lettek a nyelvi modellek.

Az aggályok és kockázatok azonban nem kerülik el ezeket a megállapításokat sem; korlátozott volt a kérdések – és az érintett témák – száma, így érdemes bizonyos tekintetben fenntartással kezelni az eredményeket. Elég csak megemlíteni az MI-kre jellemző „hallucinációk” problémáját, vagy hogy kitalálnak nem létező dolgokat.

Az sem valószínű, hogy a szemészeknek néhány éven belül más állás után kéne nézniük: a mesterséges intelligencia inkább lehet egy hasznos segédeszköz, mint egy, a szakembereket teljesen kiváltó technológia.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.