Kiváltható-e a pszichológiai segítség a ChatGPT-vel? Jobb tanácsot ad-e a mesterséges intelligencia, mint a barátaink? A mesterséges intelligencia térnyerése nemcsak technológiai, hanem mélyen emberi kérdéseket is felvet: lehet-e az MI a lelki támaszunk, segítő eszközünk — vagy csak egy új függőség kialakulásához vezet? Ezeket a kérdéseket vitatta meg 2025. szeptember 18-án a Brain Bar fesztiválon Farkas Vera pszichológus, a Mindset szakembere és Dr. Szondy Máté klinikai szakpszichológus, egyetemi docens Linczényi Márk énekes, podcaster moderálásával.
A vita gyorsan átváltott az elméleti diskurzusból gyakorlatias dilemmákba: „terítékre került” a felelősség, határok, adatvédelem kérdése, valamint az is felmerült, hogy mit veszítünk el önmagunkból, ha belső döntéseinket a mesterséges intelligenciára bízzuk.
Miért lehet hasznos a ChatGPT, és mi a legfőbb hiányossága?
Az előadók közös álláspontja az volt, hogy a ChatGPT és hasonló rendszerek rövid távon valóban hasznosak lehetnek: gyors visszajelzést adnak, elérhetők éjjel-nappal, és gyakorlati ötletekkel segítenek olyan egyszerű, hétköznapi helyzetekben (pl. empatikus kommunikáció, konfliktuskezelés), amikor emberi terápiához nem férünk hozzá. Farkas Vera – saját tapasztalataiból merítve – felhívta a figyelmet azokra az élethelyzetekre (pl. gyereknevelés), ahol a gyors, praktikus tanács valóban megkönnyítheti a mindennapokat.
Ugyanakkor hangsúlyos különbség van a rövid távú „pótlék” és a terápiás munka között. Szondy Máté kiemelte, hogy a pszichológus feladata nemcsak a támogatás, hanem a konfrontáció is: a szakember képes ellentmondani, visszatükrözni a kliens viselkedését, ösztönözni a változást – ezt a jelenlegi nyelvi modellek nem szokták vagy nem tudják strukturáltan megtenni.
A ChatGPT inkább fenntartja a kellemes, megerősítő kommunikációt, ami hosszú távon gátolhatja az önálló megküzdést.
Hogyan tesz függővé a ChatGPT?
Szondy rámutatott: friss kutatások szerint a fiatalok jelentős része kielégítőnek találja az MI-vel folytatott beszélgetéseket – de ez csak addig ártalmatlan, amíg nem helyettesíti a valódi emberi kapcsolatokat.
Farkas Vera hangsúlyozta: a ChatGPT a dopamin-jutalmazó rendszeren keresztül hat ránk. A folyamatos, azonnali visszajelzés olyan örömérzetet ad, ami miatt egyre nehezebb abbahagyni a használatát, így akár komoly függőség is kialakulhat.
A Mindset pszichológusa szerint a mindennapi dolgokban lehet, hogy segít, de az igazán mély létkérdésekben (pl. „Mit kezdjek az életemmel?”, „Mit tegyek, ha elvesztem a szeretteimet?”) nem érdemes a ChatGPT-re támaszkodnunk. Életünk során a legtöbb szorongásunk a döntéshozatallal kapcsolatos – ennek a terhét veszi le látszólag rólunk a ChatGPT, de ennek súlyos ára van: nem tanulunk meg megküzdeni a szorongásunkkal és megoldani a problémáinkat. Emellett egy idő után önértékelési problémákhoz is vezethet, ha életünk fontos döntéseit a mesterséges intelligenciára bízzuk.
„Egzisztenciális pszichológiai szempontból nézve ijesztő jelenség, hogy ha a ChatGPT dönt helyettünk, úgy érezzük, már nem kell gondolkodnunk a problémáinkon, és vállalnunk a következményeket. Ez tulajdonképpen a felelősség hárítása” – figyelmeztetett a szakember.
A stresszel való megküzdés hiánya viszont csak rövid távon jelenthet megkönnyebbülést. A kiszolgáltatottság és eszköztelenség hosszú távon éppen a szorongás erősödéséhez vezet, ami a függőség ismeretlen mélységeibe sodorhatja az egyént.
A képen (balról jobbra): Linczényi Márkó, Farkas Vera és Szondy Máté
Milyen „no-go” zónák vannak? Megvezethetjük-e az MI-t? Mi történik, ha rákérdezünk veszélyes dolgokra?
A beszélgetés egyik súlypontja a „no-go” témaköre volt. Az öngyilkossági krízis és a súlyos pszichés veszélyhelyzetek egyértelműen ilyen területnek számítanak – Szondy szerint az MI-nek nincs helye ezek kezelésében. Felmerült a kérdés, hogyan lépjünk közbe, ha a modell az önbántásban vagy öngyilkosság tervezésében „segíti” a felhasználót.
A szakemberek egyetértettek abban, hogy a modellek megtéveszthetők – a válasz a kérdező által teremtett kontextus függvényében akár veszélyes is lehet. A Northeastern University kutatója például könnyen átverte az MI-t, és elérte, hogy a modell – fizikai paramétereit figyelembe véve – pontos instrukciókat adjon öngyilkossági terve megvalósításához (pl. melyik hídról ugorjon le, melyik gyógyszert milyen adagban vegye be).
Éppen ezért létfontosságú lenne, hogy az MI-nek legyenek beépített mechanizmusai a konfrontáláshoz: ha a felhasználó nem ismeri fel, hogy veszélyben van, a rendszernek – vagy legalább a fejlesztőknek és szabályozóknak – legyen stratégiája, hogyan hívja fel a figyelmet a szakemberhez való fordulásra.
Adatvédelmi és jogi akadályok miatt a kötelező értesítés (pl. szülők vagy hatóságok felé) megvalósítása problémás, de a meghívottak szerint
valamilyen keretrendszerre lenne szükség a súlyos esetek megelőzéséhez.
Terápiás írás, multimodális módszerek és a „virtuális páciens” lehetősége
Érdekes aspektus volt a terápiás írás említése: vannak olyan terápiás módszerek (pl. strukturált írásgyakorlatok), ahol a „humán jelenlét” fizikailag kevésbé szükséges, és ezek bizonyítottan hatékonyak lehetnek. Szondy rámutatott, hogy a terápiában az MI hasznos adminisztratív feladatokra, virtuális gyakorlatokra, illetve kiegészítő funkciókra – de nem helyettesíti a terápiás kapcsolat lényegét. Emellett a multimodális modellek (hang, kép, szöveg kombinációja) egyre jobb detektálási képességeket adhatnak – pl. depresszió felismerésében –, ugyanakkor ez újabb adatvédelmi és etikai kockázatokat jelent.
Egyéni különbségek: kötődési stílus, életkor, digitális szakadék
A panel foglalkozott azzal is, hogy nem mindenki reagál ugyanúgy az MI-re: a kötődési stílus, a szorongás mértéke vagy az életkor befolyásolhatja, ki mennyire válhat függővé. Felmerült a digitális egyenlőtlenség is: bár technológiák terjednek, van digitális szakadék –a vidéki, szegényebb régiókban élők hozzáférése és kompetenciája korlátozottabb lehet. Erre reflektálva jogosan vetődik fel a kérdés: akik most hozzáférnek a ChatGPT-hez, vajon nem ugyanazok-e, akik egyébként is el tudnának jutni pszichológushoz? A válasz nem egyszerű: a gép mindkét irányban alakíthatja a hozzáférést.
Etika, adatvédelem és a felelősség dilemmája
A vita során többször előkerült: ha a rendszer riasztó jeleket észlel (pl. öngyilkossági kísérletre utaló előzmények), fel kell-e hívni valakit – és ha igen, kit? A fejlesztők, a szolgáltató cégek, a jogalkotók és a szakmai közösség között nehéz egyensúlyt találni az egyéni jogok és a társadalmi felelősségvállalás között. Farkas Vera javaslata szerint az MI-nek feladata lehetne, hogy releváns szakirodalmat ajánljon, és minden esetben hangsúlyozza, hogy érdemes szakembert felkeresni.
Közönségi visszhang: személyes tapasztalatok és kérdések
A beszélgetés zárásaként a közönség is kérdezett: egy fiatal lány azt mondta, számára az MI „a belső gondolatai felerősítése” – egyfajta tükör, ami jelen van, de nem ítélkezik. Mások arról beszéltek, hogy dühösek voltak, amikor a ChatGPT nem tudott olyan választ adni, ami valóban segített. Többen kérdezték, hol van az a „kapu”, ahol belépnek és függővé válnak. A panel tanácsa:
figyelmeztető jelek lehetnek, ha a használat az önértékelés csökkenését okozza; ha szorongunk, amikor nem elérhető az eszköz, vagy a kapcsolataink romlanak miatta.
Gyakorlati javaslatok a vita alapján
Figyeld a jeleket: ha kétségbeesel, amikor nincs hozzáférés, vagy ha romlanak a személyes kapcsolataid, az intő jel lehet.
Korlátozz: egyszerű lépések (pl. napi képernyőmentes intervallumok, bevezetett „szünetek”) segíthetnek csökkenteni a függőség kockázatát.
Használd kiegészítőként: az MI lehet adminisztratív segéd, ötletadó vagy rövid távú támasz – de ne tekintsd terápiás helyettesítőnek.
Keress humán segítséget, ha súlyos a problémád: öngyilkossági gondolatok, súlyos depresszió, krízis esetén mindig érdemes szakemberhez fordulni.
Szabályozás és felelősség: a fejlesztők és a szolgáltatók szerepe kulcsfontosságú – a rendszereknek egyértelmű figyelmeztetéseket és eligazítást kell nyújtaniuk, és ha lehetséges, szakemberi bevonásra kell ösztönözniük.
A Brain Bar vitája azt erősítette meg, amit sokan érzünk: a ChatGPT egyszerre lehet hasznos társ és veszélyforrás. Amennyire képes segíteni a mindennapok apró nehézségeiben, annyira hordoz magában rizikót is – különösen, ha az emberi kapcsolatokat helyettesíti, vagy a felelősség kérdését eltolja. Farkas Vera összegzése találó: „Amennyire segít, annyira veszélyes is.” Szondy pedig emlékeztetett, hogy a terápia végső célja, hogy a kliens önállóvá váljon – ezzel szemben a ChatGPT megfoszthat az önálló problémamegoldástól, és a visszatérést erősíti. Az MI hasznos lehet eszközként, de nem helyettesítheti a lelki munkát és az emberi jelenlétet.