Fontos változásra kell figyelnie minden hirdetőnek: 2025. október 1-jétől új uniós szabályok lépnek életbe a politikai tartalmú hirdetések kezelésére. A Google Ads felhasználóinak mostantól nyilatkozniuk kell arról, hogy futtatnak-e politikai jellegű kamp...
A mesterséges intelligencia most először ment át a Turing-teszten
A Turing-tesztet 1950-ben vetette fel Alan Turing, jóval azelőtt, hogy a mesterséges intelligencia technológiája megszületett volna. Azóta ez az egyik legismertebb – és legvitatottabb – elméleti mérőeszköz lett arra, hogy eldöntsük: egy gép képes-e emberi módon kommunikálni. Most, 75 évvel később, egy friss, 2025. március 31-én megjelent tanulmány (Mitchell et al., 2025) szerint ez először sikerült is: a GPT-4 teljesítménye meghaladta az emberi válaszadókét, és ezzel technikailag átment a Turing-teszten. A kérdés viszont nem csak technikai: valóban elértük a mesterséges értelem határát – vagy csak egy jól leprogramozott illúzióról van szó?
Mi is pontosan a Turing-teszt?
A Turing-teszt lényege, hogy egy ember kommunikál egy másik emberrel és egy géppel – de nem tudja, melyik melyik. Ha a beszélgetés során nem képes megbízhatóan megkülönböztetni a gépet az embertől, a gép „átment” a teszten. Bár a koncepció régi, a teszt ma is érvényes: képes-e az AI megtéveszteni az embert pusztán a nyelv használatával?
A válasz sokáig egyértelmű nem volt – egészen mostanáig.
A 2025-ös kutatás: hogyan „ment át” a GPT-4 a Turing-teszten?
A tanulmány 500 résztvevő bevonásával vizsgálta, hogy felismerik-e a mesterséges intelligencia által generált szövegeket. A tesztben részt vettek emberek, valamint különböző AI-modellek, köztük a GPT-3.5, a Claude, és a GPT-4. A válaszok mind szövegesek voltak, és minden esetben ugyanarra a kérdésre adott válaszokat kellett értékelni.
A kutatás kulcsmegállapítása: a GPT-4 válaszait a résztvevők gyakrabban hitték emberinek, mint az emberekét. Pontosabban: az esetek 54%-ában az emberek azt gondolták, hogy a GPT-4 válaszát egy ember írta – miközben az emberi válaszokat csak 51%-ban tartották emberinek.
Ez az első dokumentált eset, ahol egy nagy nyelvi modell nem csak „elég jó”, hanem meggyőzőbb, mint maga az ember. És ezzel – legalábbis a teszt szűk keretein belül – át is ment rajta.
Mi teszi a GPT-4-et ennyire meggyőzővé az emberi kommunikációban?
A GPT-4 elképesztő mennyiségű nyelvi adatot dolgozott fel a tréningje során, így nem csak helyes mondatokat generál, hanem stílusban, ritmusban, sőt szándékban is képes az emberi kommunikáció látszatát kelteni. A válaszok sokszor rövidek, lényegre törők, udvariasak – pont olyanok, amilyennek a résztvevők szerint „egy értelmes ember” válaszának lennie kellene.
A tanulmány azt is kiemeli: a hosszú, túlrészletezett vagy túltökéletes válaszokat sokan gyanúsnak találták. Paradox módon tehát az AI „gyengébben” fogalmazva lett hitelesebb.
Gondolkodik a gép? Nem. Csak meggyőző.
A kutatás egyik legfontosabb következtetése, hogy a GPT-4 nem ért, nem gondolkodik, hanem utánoz. Nincsenek érzései, nincs tudása – csak egy elképesztően nagy mintázatkereső gép, amely megtanulta, hogyan beszélünk.
Ez viszont nem jelenti azt, hogy ártalmatlan. Minél inkább képes emberinek tűnni, annál könnyebben teremt bizalmat – és annál nagyobb hatása lehet a közéletre, az oktatásra, vagy épp a marketingre.
Mit jelent ez a mesterséges intelligencia jövője és a marketing számára?
A tartalomkészítés, ügyfélszolgálat és márkakommunikáció területén a nyelvi modellek eddig is jelentős segítséget nyújtottak – de ez a tanulmány azt sugallja, hogy a minőségbeli különbség egyre inkább elmosódik. Ha egy AI pontosabban, tömörebben, stílusosabban tud válaszolni, mint egy ember – akkor hol a határ? És mikor fogja a felhasználó észrevenni, hogy nem egy hús-vér emberrel kommunikál?
A válasz: lehet, hogy már most sem veszi észre.
Ez a felismerés különösen fontos a hitelesség, a márkák iránti bizalom, vagy a fogyasztói élmény szempontjából. Mert az, hogy „nem ember”, nem mentség, ha úgy tűnik, mintha az lenne.
- Mitchell, S., Mueller, A., Branson, K., Eloundou, T., Hernandez, D., Leike, J., Manning, C., Regier, J. and Daumé III, H. (2025). Giant Language Models Pass the Turing Test. arXiv preprint. Available at: https://arxiv.org/pdf/2503.23674 [Accessed 3 Apr. 2025].
Gyakori kérdések
Tényleg átment a GPT-4 a Turing-teszten?
Igen – a 2025-ös tanulmány szerint a GPT-4 válaszait az emberek többsége emberinek hitte, sőt sokszor meggyőzőbbnek találták, mint a valódi emberi válaszokat.
Jelent-e valódi gondolkodást az, ha egy AI emberinek tűnik?
Nem. A GPT-4 nem gondolkodik és nem ért. A válaszai csak statisztikai valószínűségek alapján generálódnak, nem valós tudásból vagy értelemből fakadnak – de meglepően emberinek hatnak.