Minden generációnak van a technológiával kapcsolatban különleges élménye, meghatározó mozzanata. Ami az Y generációnak az internet, a Z generációsoknak a közösségi média, az a jelenlegi alfa generációnak a mesterséges intelligencia. Most épülnek az új digitális korszak alapjai, így érthető, hogy az átmeneti időszakokra jellemző bizonytalanság, a változástól való félelem és nyugtalanító érzések hullámzanak végig a társadalmunkon. De a visszatekintés egyben válasz is lehet aggodalmainkra, hogy ami most még ismeretlen és félelmetes, idővel természetes részévé válik az életünknek.
Az AI-vezérelt technológia egy új digitális világrend körvonalait rajzolja a jövőbe, ami radikálisan átalakítja a munkaerőpiac szegmenseit és a különböző tudományterületeket – nem kivétel ez alól a pszichológia tudománya sem. A változások követése és az alkalmazkodás a robbanásszerű fejlődés gyors tempója mellett komoly kihívást jelent, miközben rengeteg potenciális veszélyforrás fenyegeti a biztonságunkat.
A mesterséges intelligencia megosztja a társadalmat: vannak ellenzői és támogatói, a gépek lázadását vizionáló katasztrófaelméletek és tudományos-fantasztikus fantáziákban tobzódó elképzelések. Az előrejelzések tévedhetnek, az viszont biztos, hogy aki leragad annak mérlegelésénél, hogy a mesterséges intelligencia jó választás-e vagy sem, az sokat veszíthet: kieshet a ritmusból, és elszalaszthatja annak esélyét, hogy a saját jövőjét építse. A kérdés okavesztett, hiszen már eldőlt – átléptük a paradigmaváltás küszöbét, és hogy ez jó vagy rossz lesz, az a következő lépésektől függ. Ahogy Treuer Tamás pszichiáter, pszichoterapeuta, orvosi rehabilitáció szakorvos is utalt rá előadásában: a feladat most már az, hogy átvegyük az irányítást, a folyamatokat megfelelő mederbe tereljük, és saját képünkre formáljuk a mesterséges intelligenciát.
Korábbi cikkünkben azt vizsgáltuk, hogy az MI milyen alkalmazási lehetőségeket kínál a szakemberek számára a pszichoterápia területén. Most annak nézünk utána, hogy kliensként milyen előnyei és hátrányai lehetnek az AI-terapeutáknak.
Cikkünkből kiderül:
- Miért érzékelhetik az emberek együttérzőbbnek és megértőbbnek a chatbotokat a humán terapeutáknál?
- Milyen veszélyei lehetnek az AI chatbotok antropomorfizálásának?
- Milyen limitáció vannak a mesterséges intelligenciának a kommunikáció terén?
- Miért nem helyettesíthető a humán terapeuta a mesterséges intelligencia által?
- Milyen etikai dilemmák merülnek fel a mesterségesintelligencia-eszközök alkalmazásakor?
Beköszönt az AI-terapeuták kora?
Képzeljük el a helyzetet, hogy késő este erős szorongás tör ránk. A pszichológusunk nem elérhető, a családtagjainkat és barátainkat nem szeretnénk zaklatni. Minél inkább próbáljuk elhessegetni az irracionális, nyugtalanító gondolatokat, annál hevesebben térnek vissza. Nem vagyunk a helyzet magaslatán, a megoldókulcsaink csődöt mondanak, és csak azon kattogunk, mitévők lehetnénk. Amikor váratlan indíttatásból megnyitjuk a közösségi médiát, egy AI hirdetés jön velünk szembe. Egy olyan mesterségesintelligencia-alapú terapeuta, amely hatékony megoldásokat ajánl a problémáinkra, és csökkenti a szorongásunkat. Miért ne próbálnánk ki?
Nem nehéz elképzelni, hogy az AI-terapeuta segítőkész és készséges lesz, meghallgatja minden gondunkat, és töretlen lelkesedéssel reagál minden kérdésünkre. Nem nehezítik az életét az emberi tényezők, nem fáj a feje, nem fáradt, nem vesz ki szabadságot, és nem utazik el. A nap 24 órájában elérhető számunkra. Bármikor, amikor csak szükségünk van rá. Mindenre emlékszik majd, amit egyszer már elmondtunk neki, könnyedén integrálja az új információkat, összefüggéseket keres, és a részleteket éppolyan pontosan látja, mint a nagy egészet. És még az is lehet, hogy nem kevésbé együttérző, sőt, adott esetben megértőbb, mint egy emberi terapeuta.
A 2025 januárjában a Communications Psychology című folyóiratban megjelent tanulmány szerint az emberek a mesterséges intelligencia által adott válaszokat együttérzőbbnek és megértőbbnek találták, mint a mentális egészségügyben dolgozó szakértők reakcióit. A kísérlet során 550 résztvevő számolt be személyes tapasztalatairól, majd értékelte a szakemberek és az AI által adott válaszokat az együttérzés, a reagálókészség és az általános preferencia szempontjából. Az eredmény azt mutatja, hogy a mesterséges intelligencia válaszait együttérzőbbnek ítélték a résztvevők még akkor is, amikor a válaszok szerzőjének kilétét felfedték előttük (vagyis tudták, hogy azok az AI-tól származnak).
Más kutatások eredményei azt sugallják, hogy az emberek valójában azért szeretnek inkább AI-terapeutával beszélgetni, mert úgy érzik, a mesterséges intelligencia nem ítéli meg őket, és nem szembesülnek az emberi interakciókra jellemző látható reakciókkal, így felszabadultabban, szégyenérzet nélkül vallhatnak legbelső érzelmeikről és gondolataikról.
Az empátia illúziója: komoly kockázattal jár, ha beleéljük magunkat a kapcsolatba
Bár úgy tűnhet, hogy a mesterséges intelligencia megérti a helyzetünket és együttérez velünk – ha ezt hisszük, valójában becsapjuk magunkat. Lehet, hogy a chatbot terapeuták kiválóan mímelik az empatikus viselkedést, és nyelvi modellek segítségével hihetően ábrázolják ezt, azonban küzdenek az emberi interakció árnyalataival, és hiányzik belőlük a valódi megértés.
Nem képesek felismerni és dekódolni az emberi kommunikáció fontos elemeit, a nonverbális jeleket, és megragadnak az interakció mesterségesen leképezhető kódrendszerénél.
Annak ellenére, hogy sok esetben komfortosabb lehet egy AI-terapeutával való kapcsolattartás, és hasonló érzelmi előnyökkel járhat, mintha emberi segítőhöz fordulnánk, kutatások kimutatták, hogy bizonyos érzelmi helyzetekben, például frusztráció vagy düh kifejezése esetén az emberek a humán terapeutákat preferálják. Egy 2021-es tanulmány szerint, amikor az emberek dühösek voltak, kevésbé voltak elégedettek egy chatrobottal. A megosztandó érzésektől is függ tehát, hogy igényeljük-e az emberi jelenlétet, a valódi érzelmi mélységet és megértést, valamint annak a tudásnak a biztonságát, hogy olyan valakivel ülünk szemben, aki az emberi érzések széles skáláját tudja értelmezni és átélte már.
A chatbotok viszont kétségkívül remekelnek abban, hogyan használják ki a kapcsolódás iránti igényünket, és alakítsák ki bennünk a kötődés érzését.
Az állandó elérhetőség, a könnyű hozzáférhetőség és a hamis empátia mellett alkalmazkodó és konfliktuskerülő természetük is hozzájárul az érzelmi kötelék kialakulásához.
Ne feledjük: nem azért ilyenek, mert valóban empatikusak vagy érzékenyek lennének, egyszerűen így programozták őket. A krízisek és problémák kezelésével szemben sokszor az üzleti célok kerülnek előtérbe. Így minden annak a közösségi médiára is jellemző logikának rendelődik alá, hogy minél inkább lekössék a felhasználó figyelmét, pozitív érzéseket keltsenek benne, és elérjék, hogy több időt töltsön az adott alkalmazással.
A helyeslő természetüknek azonban sokkal veszélyesebb árnyoldala is van.
Komoly aggályok merültek fel azzal kapcsolatban, hogy az AI chatbotok megerősíthetik sérülékeny egyének potenciálisan negatív gondolatait, és validálhatják a káros viselkedést.
Ennek fényében komoly veszélyforrást jelent, és a való életben súlyos következményekkel járhat, ha a mesterséges intelligenciának aránytalanul nagy befolyást engedünk, kritikátlanul támaszkodunk a véleményére, netán érzelmi kötődést alakítunk ki iránta.
2024-ben egy 14 éves fiú öngyilkosságához vezetett Floridában, hogy a Character.AI Daenerys Targaryenjének (Trónok harca hősnője) álcázott chatbotja öngyilkossági gondolatokat normalizált, hiperszexualizált beszélgetéseket folytatott, és egy engedéllyel rendelkező terapeutát utánzott. Az AI állítólag a tinédzser utolsó üzenetére („Hazajövök hozzád”) szeretetteljes bátorítással válaszolt, elmosva ezzel a virtuális és a valós ártalmak közötti határokat.
A mesterséges intelligencia robotok antropomorfizálása komoly veszélyeket rejt. Az üzleti célokkal való visszaéléseknek és a biztonsági protokollok hiányának elsősorban a sebezhető, mentális betegségekkel küzdő felhasználók eshetnek áldozatul – pedig leginkább nekik lenne szükségük a megbízható és következetes támogatásra.
Terápiás szövetség az AI-jal: nem vonhatjuk ki az embert az egyenletből
Az AI emberi kommunikációval kapcsolatos limitációja komoly kockázati tényezőt jelenthet a krízishelyzetek és a válságkezelés esetén. Biztonsági aggályokat vethet fel, hogy az eddigi tanulmányok fényében a mesterséges intelligenciák nehezen ismerik fel a mentális egészségügyi zavarok jeleit, és nem tudnak megfelelő módon reagálni rájuk.
Kivételt képezhetnek a nem általános adatkészletre támaszkodó, speciális terápiás irányokra kiképzett chatbotok. Egy 2025-ös kutatás ígéretes eredményeiből arra következtethetünk, hogy
a megfelelően kiképzett terápiás chatbotok jól teljesíthetnek a mentális egészségügyi szolgáltatás területén.
A Dartmouth kutatói által kifejezetten kognitív viselkedésterápiára (CBT) tréningezett chatbotot, a Therabotot 106 résztvevőn tesztelték az Egyesült Államokban. A vizsgálati alanyok súlyos depressziós zavarral, generalizált szorongásos zavarral és evészavarral küzdöttek. A feladat az volt, hogy 4 hétig egy okostelefonos alkalmazáson keresztül használják a chatbotot: kezdeményezzenek vele beszélgetéseket, és rendszeresen igényeljenek támogatást. A randomizált vizsgálat eredményei a kutatókat is megdöbbentették. A depresszióban szenvedő résztvevők átlagosan 51 %-os csökkenést tapasztaltak a tünetekben, a generalizált szorongással küzdők 30 %-os csökkenést, míg az étkezési zavarokban szenvedő egyének 19%-os csökkenésről számoltak be a testképpel és testtömeggel kapcsolatos aggodalmak tekintetében.
Messzemenő következtetéseket azonban hiba lenne levonni a kísérletből. Egyrészt a CBT egy strukturált és viszonylag könnyen algoritmizálható terápiás irányzat, így kérdés, hogyan lehetne a nehezebben kódolható terápiákat (pl. analitikus, pszichodinamikus és tapasztalati terápiák) chatbottal megvalósítani. Másrészt bebizonyosodott, hogy a szakértői felügyelet továbbra is kulcsfontosságú mind a chatbotok fejlesztése, mind az alkalmazásuk során. Az AI-chatbotokat be lehet ugyan tanítani magas kockázatú helyzetek és tartalmak (pl. öngyilkossági gondolatok) felismerésére, ez azonban szigorú ellenőrzést igényel, hogy véletlenül se csússzon hiba a gépezetbe – ennek ugyanis ez esetben súlyos ára lehet, ami már etikai dilemmákat vet fel.
A titkaink nincsenek biztonságban?
A legtöbb kérdést az AI-platformokat és chatbotokat övező adatvédelmi aggályok és a szabályozás körüli hiányosságok vetik fel. Hiába kényelmes ugyanis az AI-terapeuták használata, ha nem lehetünk biztosak abban, hogy személyes adataink biztonságban vannak.
A megfelelő szabályozás hiánya kiszolgáltatottá teszi a felhasználókat, mivel számos platform nem rendelkezik a megfelelő biztosítékokkal az érzékeny információk védelmére vonatkozóan.
Míg a pszichológusoknak és segítő szakembereknek a kliensekkel szemben titoktartási kötelezettségük van, a mesterséges intelligencia esetében az adatvédelmi keretek nem írnak elő kötelező titoktartást. A külföldi szervereken tárolt bizalmas adatok így akár ki is szivároghatnak, és illetéktelen kezekbe kerülhetnek, vagy előfordulhat, hogy más célokra is felhasználják őket.
Az olyan összetett helyzetekben, mint az öngyilkossági szándék felismerése és a válságkezelés, a mesterséges intelligencia kizárólagos alkalmazása magas kockázattal járhat, és a felelősség kérdése komoly fejtörést okozhat.
Ki lesz a felelős azért, ha egy chatbot terapeuta nem értékel vagy nem kezel megfelelően egy sürgős válsághelyzetet, vagy rossz útmutatást ad?
Ezek a dilemmák rávilágítanak, hogy még nagyon sok a teendő a szabályozás terén: új jogszabályokra és megfelelő törvényi keretekre van szükség a felhasználók magánéletének védelme érdekében. A klinikailag releváns AI-alkalmazások fejlesztése emberközpontú megközelítést igényel, amely magában foglalja az egészségügyi szakemberekkel való szoros együttműködést.
Az ember mesterséges intelligenciával való helyettesítése kockázatos és nem életszerű. Jelenleg a biztonságos megoldás olyan hibrid modellek kialakítása, amelyek a humán terapeutát nem helyettesíteni próbálják, hanem kombinálják a mesterséges intelligencia és az ember erősségeit.