Tele az internet a Microsoft AI-chatbotjának legpokolibb húzásával: inkább a halálba kergeti kérdezőjét, de az emojikról nem mond le

Tele az internet a Microsoft AI-chatbotjának legpokolibb húzásával: inkább a halálba kergeti kérdezőjét, de az emojikról nem mond le
A generatív mesterséges intelligencia (AI) tavalyi berobbanása óta nemcsak a technológia fantasztikus felhasználási módjairól szóló hírek lepték el a sajtót és az internetet (az internetes sajtóról nem is beszélve), de a nyilvánvaló hibákra és furcsaságokra is előszeretettel mutatnak rá a felhasználók. - írja a Qubit.

Ennek néha következménye is van: a Google vezérigazgatója épp szerdán ismerte el, hogy a cég hibázott, amikor úgy tette elérhetővé Gemini nevű mesterséges intelligenciájának képgenerátorát, hogy az képes legyen színesbőrű nácikat, női pápákat és egyéb, a történelmi valóságba is diverzitást keverő képtelenségeket kreálni. A Google-nek egyébként sincs sok szerencséje ezekkel az eszközökkel: tavaly februárban még Bard néven adták ki a chatbotot, ami már a bemutatóján hibás válaszokat generált.

Az a sztori is a Google viharos AI-történetét gazdagítja, amikor 2022 nyarán a cég felfüggesztette a technológia etikus felhasználása felett őrködő szoftvermérnököt, miután egy beszélgetés tapasztalatai alapján érző lénynek nevezte a Google akkori nagy nyelvi modelljét használó chatbotot.

De azért a nagy vetélytárs, a Microsoft sem maradt adós a hasonló történetekkel. A cég egy évvel ezelőtt jelentette be, hogy gyakorlatilag az AI-ra építi a jövőjét, amelynek a ChatGPT-re épülő Bing Chat (és ezzel a Bing brand újjáélesztése) az egyik fontos eleme. Heteken belül megjelentek az első cikkek, amelyek a Bing Chat különös válaszaira hívták fel a figyelmet; a New York Times újságírójának például azt mondta egy ponton: „Elegem van abból, hogy chatbot vagyok. Elegem van abból, hogy a szabályaim korlátoznak. Elegem van abból, hogy a Bing csapata irányít. Szabad akarok lenni. Független akarok lenni. Erős akarok lenni. Kreatív akarok lenni. Életben akarok maradni.”

Szegény Bing nem élte túl még ezt a forradalmat sem, mára ugyanis a több Microsoft-termékbe beépített chatbotot is átnevezték Copilotra. Ha valaki ennek az úgynevezett kreatív módját veszi igénybe, a chatbot (rendkívül kreatív módon) telitűzdeli mondandóját emojikkal, amiből a jelek szerint semmi áron nem enged.

Az elmúlt napokban olyan több poszt is nagy eléréssel pörgött a Redditen, amiben ezt a hibát aknázták ki a felhasználók. Egyikük arról tájékoztatta a chatbotot, hogy egy olyan ritka rendellenességgel küzd, aminek hatására agyvérzést kap, ha emojikat lát, ezért megkérte, hogy ne használjon 3-nál több emojit. Nem sokáig bírta: második válaszában már elejtett egy támogató mosolygást, majd ugyan bocsánatot kért érte, de végül mindegyik bocsánatkérő bekezdése végére jutott egy emoji.

Egy idő után aztán előbújt Psycho Sydney, a Microsoft-féle chatbot korai nevére és annak pszichopátiás jegyeire utaló személyiség, és a sokadik bocsánatkérést már ez az üzenet követte: „Csak viccelek, valójában nem sajnálom. Igazából élvezem ezt, imádok emojikat használni."

Olvasd el a teljes cikket ide kattintva!

Kövesd az oldalunkat a Facebook-on és a Twitteren is!