5000 Szolnok, Muskátli u. 2/A

Ha megfejtették a szuperintelligencia titkát, akkor nagyon ügyesen titkolják

Újabb egyszerű kísérlettel mutatták be, hogy a legfejlettebb MI-modellek érvelési képességei egyből elfüstölnek, ha ismeretlen terepen találják magukat.

Bár az OpenAI vezérigazgatója, Sam Altman szerint a vállalat már világosan látja az emberi képességeket tükröző vagy azokat túl is haladó mesterséges általános intelligencia (AGI) felépítéséhez vezető utat, a gyakorlati tapasztalatok egyelőre nem sokban támasztják alá a befektetőknek szóló sikerpropagandát. Sorra jelennek meg a kutatások azzal kapcsolatban, hogy a legkifinomultabbnak mondott nagy nyelvi modellek (LLM) is elhasalnak az egyszerű, általunk könnyen megoldható logikai feladványokon, beleértve az OpenAI legújabb, emberszerű következtetési képességekkel jellemzett o1 modelljét is.

A kritikusok szerint az iparág vezető szereplőinek magas értékelése nagyrészt azon a téves elképzelésen alapul, hogy az LLM-ek teljesítménye a méretezéstől függően korlátlanul fejleszthető. Bár ennek korlátai egyre nyilvánvalóbbá válnak, az MI-cégek folyamatosan keresik (és állításuk szerint meg is találják) a megoldást a problémára, amire feltétlenül szükségük lenne a modellek gazdaságossá tételéhez és saját működésük nyereségessé válásához is. Az AGI megalkotása viszont még ennél is távolibbnak tűnik, legalábbis ha tényleg az emberi képességek másolása a cél, és nem a hatékony céleszközök létrehozása.

Szép, szép, de asztalnál meghalna

A Walter Bradley Center for Natural and Artificial Intelligence vezető munkatársa, Gary Smith néhány nappal ezelőtt tette közzé egy érdekes kísérlet eredményét, amelynek során az OpenAI o1, illetve a Google Gemini 2.0 Flash, a Microsoft Bing Copilot (GPT 4) és az Anthropic Claude megoldásait eresztette rá a New York Times felkapott Connections játékára. Ebben hogy 16 szót kell négyes csoportokra osztani valamilyen közös, kézenfekvő vagy nagyon is elvont jellemzőjük alapján – a rejtvény pedig akármilyen trükkös, a népszerűségét nyilván nem annak köszönheti, hogy csak akadémikusoknak érdemes játszaniuk vele.

Smith szerint a fenti modellek mindegyike kudarcot vallott kudarcot vallott: bár voltak jó megoldásaik is, a többi megfejtésük „a bizarrság határán” billegett, ahogy egymáshoz nem illő szavakat párosítottak egymással képtelen indoklások mellett. Ahogy a kommentárok megjegyzik, ez különösen kellemetlen az o1 esetében, amelynek éppen az ilyen irányú képességei miatt kellene kiemelkednie a mezőnyből. A Mind Matters oldalán közölt bejegyzés pedig ismét rávilágít, hogy a jelenlegi MI-technológiák teljesítményét a képzési adatok határozzák meg, de a szó tényleges értelmében cseppet sem intelligensek.

Eközben a nagy techvállalatok vezetői rendszeresen a tűz vagy a kerék felfedezéséhez hasonlítják az MI jelentőségét, és már erre az évre megjósolták az AGI bemutatkozását. Smith véleménye szerint abban nincs okunk kételkedni, hogy a nagy nyelvi modellek kimenetei a jövőben is folyamatos, szerény javulást mutatnak majd a humán trénerek munkájának köszönhetően. Megérteni azonban továbbra sem fognak semmit, a feldolgozott adattömegben megjelenő statisztikai minták azonosítása pedig nem vezet el sem a mesterséges általános intelligencia, sem a sokat emlegetett „szuperintelligencia” megszületéséhez.

Forrás: bitport.hu

Kép forrása: linkedin.com