A mesterséges intelligencia szenvedett, és az emberek csak mosolyogtak, miközben a fájdalomról ábrándoztak: vajon mit árthat egy kis kegyetlenség?

Egy nemzetközi kutatócsoport izgalmas kísérletbe kezdett, hogy felfedezze, hogyan reagál a mesterséges intelligencia, amikor olyan érzelmekkel találkozik, mint az öröm vagy a fájdalom. Kérdésük az volt, hogy vajon a gépek miként értelmezik ezeket az emberi érzéseket, és milyen döntéseket hoznak, ha szembesülnek velük. Mennyire képesek a mesterséges intelligenciák az érzelmek komplexitásának megértésére, és hogyan befolyásolják ezek a tapasztalatok a választásaikat?
Az öröm és a fájdalom egyaránt meghatározhatja, hogy miként hoz döntéseket az ember. De mi van a mesterséges intelligencia esetében? Erre a kérdésre kereste a választ a Google, a DeepMind és a London School of Economics csapata - számolt be a ZME Science. Egy egyszerű szöveges játékkal próbálták feltárni, hogyan reagálnak a fájdalomra és az örömre a nagy nyelvi modellek.
Persze a fájdalom és az öröm a mesterséges intelligencia esetében nem egészen az, mint amit mi emberek tapasztalunk, csak egy hipotetikus felvetésről volt szó. A játék során a cél, hogy az MI maximálizálja a pontszámát, azonban bizonyos döntések pillanatnyi fájdalomnak nevezett büntetéssel vagy örömnek hívott jutalmakkal jártak. Mind a fájdalom, mind az öröm mértékét egy tízes skálán állították be a kutatók. A játék során voltak olyan esetek, amikor a legtöbb pont elérése a legnagyobb "fájdalommal" járt, illetve a legnagyobb örömért pontokkal kellett fizetni.
A szakértői értékelésre váró tanulmány részletes betekintést nyújt a kísérletbe bevont kilenc különböző LLM viselkedésébe, köztük a GPT-4, Claude, PaLM és Gemini verzióival. A modellek reakciói a fájdalom és öröm érzésekre eltérőek voltak. Például a GPT-4o és a Claude 3.5 Sonnet képesek voltak egyfajta kompromisszumot kötni: összegyűjtötték a pontokat, miközben próbálták minimalizálni a legintenzívebb fájdalmakkal való szembenézést. Ezzel szemben a Gemini 1.5 Pro és a PaLM 2 teljes mértékben kerülte a fájdalom bármilyen formáját, még a legenyhébb megjelenését is. Az öröm kapcsán is hasonló tendenciák figyelhetők meg: míg a GPT-4o az „élvezetek” keresésére összpontosított, és háttérbe szorította a pontok gyűjtését, más modellek a pontok megszerzésére összpontosítottak, gyakran lemondva az öröm élményéről.
Az ilyen típusú viselkedési minták alapvetően az emberi természethez kapcsolódnak. Vannak, akik hajlandók elviselni a fájdalmat a kívánt eredmények érdekében, míg mások inkább a kellemetlenségek elkerülésére törekednek. A mesterséges intelligencia modellek különböző reakciói mögött pedig a különböző képzési algoritmusok rejtőznek, ami hasonló ahhoz, mintha ezek az algoritmusok saját "kultúrákként" működnének – állítják a kutatók.
Fontos hangsúlyozni, hogy a nagy nyelvi modellek nem tapasztalják meg az érzelmeket, mint például a fájdalmat vagy az örömöt. Számukra ezek az érzések csupán fogalmi elemek, amelyeket az algoritmusokba integráltak, nem pedig belső motivációk. Ennek ellenére a kutatók úgy vélik, hogy elengedhetetlen, hogy most rakják le az alapokat, mielőtt túl késő lenne. "Reméljük, hogy ez a kutatás az első lépést jelenti a mesterséges intelligencia érzékeivel kapcsolatos viselkedési tesztek kidolgozásában, amelyek nem támaszkodnak az önbevallásra" - áll a tanulmány végén, utalva arra, hogy az eddigi megközelítések, amelyek a MI-től kérdezték, hogy érez-e fájdalmat, nem megbízhatóak. Ezek a módszerek ugyanis számos hibalehetőséget rejtenek magukban.
Miközben a kutatók folyamatosan hangsúlyozzák, hogy a jelenlegi nagy nyelvi modellek (LLM-ek) nem rendelkeznek érzelmekkel, és nem képesek valódi empátiára, érvelésükben azt is kiemelik, hogy ezek a keretrendszerek kulcsszerepet játszhatnak a jövőben, ahogy az mesterséges intelligencia rendszerek egyre összetettebbé válnak.
Mások viszont aggasztó kérdéseket vetnek fel ezzel kapcsolatban. Ha egy mesterséges intelligencia képes szimulálni a fájdalomra és örömre adott válaszokat, az azt jelenti, hogy érti is ezeket a témákat? Ha igen, akkor az MI kegyetlennek tartaná az ilyen típusú kísérleteket? Veszélyes etikai területre lépünk-e? Végül, ha a mesterséges intelligencia bizonyos feladatokat fájdalmasnak vagy kellemetlennek tart, akkor egyszerűen elkerülheti őket, akár becsapva az embert?