A kutatók felfedezték, hogy a mesterséges intelligencia, akárcsak az emberi elme, hajlamos a leépülésre.


Úgy tűnik, hogy a korábbi mesterséges intelligencia rendszerek is hasonló leépülési folyamatokon mennek keresztül, mint az emberi agy. Ez pedig komoly kérdéseket vet fel a megbízhatóságukkal kapcsolatban.

Alig telt el két év mióta az OpenAI ChatGPT-jét nyilvánosságra hozták, azóta töretlenül arat iskolások, kutatók és mindenki körében, aki gyorsan válaszokat kapna bármilyen kérdésre. A híres nagy nyelvi modell (LLM) csak egy, a számos vezető program közül, amik ügyesen utánozzák, akár még túl is szárnyalják az emberi elmét. Igen ám, de úgy tűnik, a műagyak ugyanazoktól a gondoktól szenvedhetnek, mint mi.

A Science Alert által közzétett hírek szerint izraeli kutatók érdekes felfedezést tettek: az általuk vizsgált LLM-ek (nagy nyelvi modellek) hasonló jellemzőkkel bírnak, mint az emberek esetében megfigyelhető, korral járó kognitív hanyatlás. A kutatás során különféle chatbotokat elemeztek, beleértve a ChatGPT 4-es és 4o-s verzióit, az Alphabet Gemini két variációját, valamint az Anthropic Claude 3.5-ös modelljét. A vizsgálat célja az emberi kognitív hanyatlás mértékének feltérképezése volt, amelyhez a Montreal Cognitive Assessment (MoCA) tesztet használták.

Ezt a vizsgálatot általában az Alzheimer-kór és a demencia korai felismerésére használják és olyan feladatokat tartalmaz, mint az idő beállítása egy órán; kivonás; memória-gyakorlatok.

A ChatGPT 4 kiemelkedően teljesített, míg a régebbi Gemini 1.0 LLM jelentős nehézségekkel küzdött, ami arra utal, hogy a korábbi mesterséges intelligencia modellek esetében komoly kognitív visszaesés figyelhető meg. Habár a nyelvi és figyelmi tesztekben sikerült túllépniük a megkövetelt szintet, a vizuális és térbeli feladatok, valamint a bonyolultabb problémák megoldása terén és a memória gyakorlatok során komoly kihívásokkal szembesültek.

A kognitív hanyatlásnak ez olyan szintje, ami az agy neurodegeneratív folyamataihoz hasonló, és ugyan a tanulmány szerzői hangsúlyozták, hogy a humán agy és a mesterséges intelligencia működése között jelentős különbségek vannak, az eredmények rámutatnak az MI gyengeségére. Ez viszont megbízhatatlanná teszi egyre elterjedtebb egészségügyi alkalmazását. Így nem lehet rábízni diagnózisok felállítását, röntgenképek, laboreredmények és egyéb orvosi adatok elemzését.

Elképzelhető, hogy a jövőben neurológusok és pszichiáterek feladatai közé tartozik majd a demenciás mesterséges intelligencia modellek kezelése és rehabilitációja is.

Related posts