Mesterséges intimitás — AI: barát, szerető vagy mérgező kapcsolat?

BME körkép 2025.10.08. Trifonov Johanna

Lehet-e egy chatbot a lelki társunk? És mi történik, ha jobban kötődünk hozzá, mint a körülöttünk élő emberekhez? Oroszi Péter, a BME Hallgatói Szolgáltató Központ pszichológusa mesél arról, hogyan válhat az AI egyszerre vigasszá és veszéllyé az emberi kapcsolatok világában.

 

Az AI nem olyan rég vált széles körben elérhetővé. Pszichológusként milyen hatásait látod ennek nagy vonalakban?

A mesterséges intelligencia pszichológiai alkalmazásait jelenleg is intenzíven kutatják, különböző nézőpontokból értékelve annak előnyeit és kockázatait. A vizsgálatok egyik ilyen iránya a pszichológiai intervenciók és a mentálhigiénés szolgáltatások területe, vagyis hogy miként használható az MI információ- és segítségnyújtásra a lelki egészség támogatásában. A másik jelentős kutatási fókusz az emberi kapcsolatokra gyakorolt hatás feltárása, hiszen az MI egyre inkább a társas interakciók részesévé válik.

Ebben az összefüggésben fontos megemlíteni az ún. ELIZA-jelenséget. Az 1960-as években az MIT-n kifejlesztett, akkoriban úttörőnek számító, de valójában nagyon kezdetleges és egyszerű ELIZA nevű beszélgetőprogram volt az első, amivel kapcsolatban kimutatták, hogy a felhasználók – annak ellenére, hogy tisztában voltak vele, egy géppel kommunikálnak – hajlamosak voltak a programnak emberi szándékot és empátiát tulajdonítani. Ezt a jelenséget nevezzük Eliza-effektusnak, vagyis az a tendencia, amikor élettelen technológiákat emberi tulajdonságokkal ruházunk fel.

Az ELIZA-jelenség azért bír különös jelentőséggel a mai mesterséges intelligencia kapcsán, mert rávilágít arra, hogy az emberek érzelmileg és kognitív szinten is könnyen bevonódnak a gépekkel való interakciókba. Ez egyszerre kínál lehetőségeket – például a már fentebb említett kutatási irányra visszatérve, terápiás támogatásban vagy a magány csökkentésében – és hordoz etikai, pszichológiai kockázatokat, mivel a felhasználók könnyen félreértelmezhetik az MI képességeit, és túlzott bizalmat helyezhetnek bele.

 

Az Eliza effektus most hatványozottan igaz az AI-al kapcsolatban?

Én azt gondolom: igen. Én is kipróbáltam, hallgatóktól és barátoktól is hallom: „ó, milyen jó vele beszélgetni!” Valóban vonzó, mert nagyon reszponzív — már emojik alapján is gyorsan, könnyen fel tudja mérni, vagy legalábbis feltételezni az érzelmi állapotunkat, és ennek megfelelő stílusban reagál, az adott kérdéskört, amivel kapcsolatban véleményt vagy segítséget kérünk, ebben a hangnemben tematizálja. Erre különösen azok lehetnek fogékonyak, akik magányosak, szociálisan gátoltak, éppen nincs elérhető baráti/családi körük: ők akár órákig is elbeszélgetnek vele, ahogy azt a hozzám forduló hallgatók esetében is többször tapasztalom.

Ez önmagában nem feltétlenül rossz: az AI képes enyhíteni a magányból fakadó nyomasztó érzéseket — van kihez szólni. Régebben sokan papagájt vagy más kisállatot vettek és hozzá beszéltek; ma hasonló, úgynevezett pszeudó kötődés alakulhat ki az AI felé. Pszeudó, mert nem valódi emberi kapcsolat: nem egy valódi partnerrel állunk szemben, aki a maga egyedi és csak rá jellemző személyiségszerkezetével (ez tartalmazza az ő aktuális érzelmi és kognitív állapotát, a világról és az abban létező fogalmakról alkotott véleményét és viszonyulásait) reagál a monitor előtt ülő emberre, hanem egy beszélgetőprogram, ami minket monitoroz és tulajdonképpen csak tükrözi, megismétli a mi reakciónkat, nem saját véleményt alkot.

Tehát a kapcsolódás létrejön és segíthet a magányon, de éppen ezért veszélyes is lehet: sokan érzik úgy a mesterséges intelligenciával kapcsolatban, hogy „ő a lelkitársam, pont úgy gondolkodik, mint én” — holott az adott program nem ’gondolkodik’, csak tükröz. Fontos itt megemlítenem: most nem arról beszélünk, amikor valaki információért, könyvlistáért vagy technikai segítségért fordul az AI-hoz, hanem amikor barátként vagy partnerként tekint rá.

 

Az aktív AI-használat hogyan hat a fiatalok szociális készségeire, például a gyerekek barátkozási képességére?

Biztos, hogy van hatása — ezt a pszichológiában is sokat sokféle megközelítéssel vizsgálják, az eddigi eredmények meglehetősen ellentmondóak: fontos kiindulási kérdés, hogy többet használ-e, vagy többet árt? Kétségtelenül fontos előnye az, hogy fejlesztheti a szociális és kommunikációs készségeket. Mivel az AI a válaszok mentén gondolkodásra késztet, arra ösztönöz, hogy részletesebben kifejtsük a gondolatainkat, barátságosabban fogalmazzunk, és jobban megértessük magunkat. Persze ez csak a gép „legjobb beprogramozott tudása” szerint történik — azaz ért minket, de nem úgy, mint egy másik ember.

Kutatások szintén kimutatták, hogy több más értelemben is pozitív hatást tud  kifejteni: könnyen elérhető, jelen van, és ha valakinek rossz napja van, vagy átmenetileg bezárkózik – mert mondjuk egy rövidebb nehéz időszaka van (semmiképpen sem a klinikai szintet elérő mondjuk depresszióról vagy hasonló, aktív pszichológiai és pszichiátriai ellátást igénylő jelenségről beszélünk), az AI ott van, lehet vele beszélni. Ez egy érv lehet a szociális célú használata mellett. Ráadásul a legtöbb chatprogram nem ítélkezik; ez az ítélkezésmentes tér biztonságot ad, és segíti a megnyílást, önfeltárást — így gyakorolhatóak bizonyos társas készségek is, például a small talk, vagy a beszélgetésekben való magabiztos jelenlét

Tehát, jó gyakorlóterep lehet azoknak, akik szociálisan gátoltak vagy bizonytalanok társas interakciókban. Ugyanakkor nem szabad elfelejteni, hogy ez csupán egy gyakorlótér, nem helyettesítője a valódi emberi kapcsolatoknak — ezért a hatás összetett és nem egyértelműen csak jó vagy csak rossz.

 

Milyen hatással lehet a társas kapcsolatainkra, ha hozzászokunk, hogy az AI mindig figyelmes, kedves, bókol és sosem beszél magáról?

Én azt gondolom, ez erőteljes kontra érv az AI mellett. Ez egy egyoldalú kommunikáció. Valós ugyan a beszélgetés, de maga a kapcsolat, mint már említettem pszeudó jellegű: mi, vagyis a felhasználók róla nem tudunk meg semmit, és ha ilyen irányban kérdezünk, semmitmondó, kommunikációs értelemben véve „üres” választ kapunk – nincs benne tartalom és nem mélyíti, nem teszi tartalmasabbá a párbeszédet. Egyoldalú, kiszolgálja a mi igényünket, „alánk kérdez”, de ő magáról nem oszt meg semmit. Hiszen nincs is mit.

Ez hosszútávon könnyen torzíthatja a kapcsolódási készségünket: hozzászokunk, hogy mindig rólunk van szó, a beszélgetőpartnerünknél nem kell visszakérdezni, nem igényli a figyelmünket, nem kell lekövetnünk az ő aktuális állapotát. A való életben viszont nem így van, ezért ez az egysíkú kapcsolódás veszélyes lehet, ha valaki nagymértékben az AI mentén „szocializálódik”.

Éppen ezért azt javaslom, ezt a fajta kapcsolódást semmiképpen se vigyük át a valódi emberi kapcsolatainkba. A valós, hús-vér emberek közti kapcsolat egyik egyedülálló és gép által utánozhatatlan értéke pont az, hogy a másik fél másként gondolkodik, mint mi… ilyen módon tanulhatunk egymástól, taníthatjuk egymást, valamint az interakció közben létrejövő érzelmek mentén még több szállal összekapcsolódunk a másik féllel. Az AI-al ez erősen korlátozott, mert egyoldalú, és nem adja vissza ezt a fajta komplexitást.

 

Milyen következményekkel járhat, ha valaki főként egy chatprogramon szocializálódik, megszokja az AI-beszélgetés „hozzáállását”, és ezt viszi át a valós emberi kapcsolataiba?

Ha valaki szélsőséges mértékben kizárólag mesterséges intelligenciával folytat társas interakciókat, az valódi emberi kapcsolatokban könnyen csalódásokhoz vezethet. Az MI által nyújtott kommunikáció sajátossága, hogy gyorsan reagál, folyamatos figyelmet mutat, és rugalmasan a felhasználó igényeihez igazítja a beszélgetést. A valós interperszonális kapcsolatok azonban másképp működnek: a visszajelzések nem mindig azonnaliak, és szükséges a másik fél érzelmi állapotának, gondolatainak folyamatos monitorozása, figyelembevétele is a hatékony és kétoldalú kommunikációhoz. Azok számára, akik hozzászoktak az MI kiszámítható, a felhasználót középpontba állító kommunikációs stílusához, ez frusztrációt, csalódást válthat ki. Ennek következményeként önhibáztatás, düh vagy a meglévő, egyébként normál mértékű nárcisztikus vonások felerősödése mind előfordulhat, ami torzíthatja az emberi kapcsolódásokhoz való hozzáállást.

Egy másik kritikus tényező az ellenvélemények kezelése. A mesterséges intelligencia jellemzően nem konfrontálódik, inkább kiegészítéseket, további gondolatokat kínál anélkül, hogy élesen ütköztetné az álláspontokat. Az emberi kapcsolatokban viszont természetes, hogy időnként nézetkülönbségek alakulnak ki. Azok, akik nem tanulják meg megfelelően kezelni ezeket a helyzeteket, könnyen elutasításként élhetik meg a másik véleményét, ami hosszabb távon eltávolodáshoz, elszigetelődéshez vezethet. Pedig az ellenvélemény nem feltétlenül az értetlenség vagy az elutasítás jele, hanem a különböző perspektívák természetes megnyilvánulása. Aki nem képes konstruktívan viszonyulni ezekhez a helyzetekhez, annak nehezebbé válhat az együttműködés és a mindennapi életben elkerülhetetlen konfliktusok kezelése.

 

Vannak már példák arra, hogy valaki AI-n szocializálódott, és utána nehézségei adódtak a való életbeli kapcsolatok teremtésében?

Még nem találkoztam konkrétan ilyen esettel, aminek az oka szerintem az, hogy még nem telt el annyi idő az AI mindennapi felhasználásának berobbanása óta, hogy bárkinek is lehetősége lett volna csak ezen szocializálódni. Hasonló jelenségek azonban már az AI előtt is előfordultak: akik sok időt töltöttek online MMORPG-kkel vagy más multiplayer játékokkal, ott is gyakran tapasztalható, hogy például egyes játékosok a játékban magabiztosak, akár vezető pozícióban vannak, míg a való életben szociálisan gátoltak, ügyetlennek érzik magukat és a társaik számára láthatatlanok maradnak.

Azt gondolom, hogy hasonló lehet az AI-val való szocializáció: például volt hallgató, aki szociálisan gátolt volt, és sokat gyakorolt a ChatGPT-vel. Ott képes volt belehelyezkedni a beszélgetésbe, megnyugodott, jó beszélgetőpartnernek érezte magát. A való életben viszont, például itt az egyetemen nem mert kezdeményezni, nehezen teremtett kapcsolatot – az online ’partnerrel’ megélt szociális sikerességét nem tudta átvinni a valóságba.

Szerintem ehhez még idő kell, hogy pontosabban lássuk, milyen nehézségeket okozhat az AI-n való szocializáció. De őszintén remélem, hogy ez az idő nem jön el, és nem válik jelentős problémává a felvetésed.

 

Rengeteg féle AI-partnert kínálnak már a cégek. Kiépíthet az AI-val való flört vagy barátkozás irreális elvárásokat a valódi kapcsolatainkban? És milyen hatással lehet ez valakinek a randizási elvárásaira, ha előtte aktív felhasználója volt ilyen virtuális párt ajánló appoknak?

Én úgy gondolom, nagy az esély rá. Szakmai ellátásban (kiemelten említeném a szexuálpszichológiai ellátást) számtalan olyan kliens jelenik meg, akiknek a hozott problémájuk visszavezethető arra, hogy irreális elvárásokkal mennek bele a kapcsolataikba, amely irreális elvárások hátterében kifejezetten a virtuális világ, az online tér helytelen felhasználása áll. Gondoljuk csak a problémás pornóhasználatra vagy a randiappok és csetprogramok kóros mértékű használatára. A párkapcsolati, szexuális témák mentén is elmondható a korábbi állítás, miszerint az AI mindig válaszol, mindig elérhető, mindig „akcióra kész”, kiszolgálja a felhasználó igényeit, és az adott érzelmi állapotra hangolódik. Nincsenek, vagy (programozástól függően) csak nagyon csekély mértékben vannak saját igényei.

Ezzel szemben a valódi párkapcsolat szépsége pont az, hogy megismerjük a másik felet: megismerjük a gondolatait, érzéseit, hogy mi fontos neki, mi okoz örömet vagy éppen dühöt neki például, és az ezek mentén kialakuló apró kapcsolódásokból épül ki, marad fenn és fejlődik, gazdagodik a két ember közti szoros kötelék. Ha valaki egy speciális szükségletre létrehoz egy avatárt, és vele chatel, például szexting alkalmazásokban, ott a kapcsolódás ugyan adott, de csak a megjelölt célra. Azaz a „partner” nem több, mint egy igény egy adott pillanatban történő készséges kielégítője.

A valódi emberekkel való ismerkedés, randizás során ez azt eredményezheti, hogy valaki azt várja, hogy a másik mindig ugyanúgy (ugyanolyan gyorsasággal, ugyanannyira feltétel nélkül és saját igények megfogalmazása nélkül) kiszolgálja az igényeit, mint az AI. Vérmérséklettől függ az erre adott reakció: leggyakoribb talán a „nem olyan……” gondolatra adott azonnali elkerülés vagy ghosting, de az is előfordul, hogy az illető benne marad a szituációban, de gyötrődik, mert nem érti, mi a baj a másikkal, vagy mi a baj saját magával. Nem tud mit kezdeni a másik gondolataival, érzéseivel, vágyaival, nem ilyen helyzetekben szocializálódott, szerezte meg a tapasztalatot: az AI-val beszélgetve nem kellett visszajelzéseket adni, nem kellett figyelni a másik igényeire. Ez pedig torzíthatja a valódi kapcsolódási stílusokat.

 

Hogyan befolyásolhatja a férfi-női kapcsolatok alakulását, hogy egyre több AI-girlfriend szolgáltatás létezik, ahol a mesterséges intelligencia könnyen és bármikor elérhető, szolgálatra kész partnerként van jelen?

A mesterséges intelligenciával támogatott virtuális partnerek elterjedése két, egymástól jelentősen eltérő irányba vezethet. Optimista szemléletű ember vagyok és ebből az optimizmusomból kiindulva azt feltételezem, hogy ha az emberek széles körben kipróbálják ezeket az alkalmazásokat, akkor hosszútávon a valódi, hús-vér személlyel kialakított érzelmi kapcsolat értéke felértékelődik. Az MI-alapú interakciók ugyanis alapvetően kiszámíthatók: a felhasználó állítja be a paramétereket, így a válaszok előre jelezhetőek, és hiányoznak a meglepetések. Ez könnyen ellaposíthatja a kommunikációt. Éppen ezért a valódi kapcsolatokban különösen értékessé válhat ez a fajta kiszámíthatatlanság: hogy nem tudjuk előre, miként reagál a másik fél, hogyan alakulnak a találkozások, a mindennapok, vagy akár az, hogy milyen közös stratégiákat dolgozunk ki a kihívások megoldására.

A pesszimistább forgatókönyv szerint ugyanakkor fennáll annak a veszélye, hogy a kapcsolatok egyre inkább tárgyiasulnak. Ebben az esetben a másik ember pusztán saját szükségleteink kielégítőjeként jelenik majd meg, ami hosszú távon ellehetetleníti az autentikus, kölcsönösségen alapuló párkapcsolatok kialakítását. Ezt a kockázatot egy személyes tapasztalatommal is alá tudom támasztani: szexuálpszichológiai képzés keretében kipróbált, virtuális partnert létrehozó applikációval végzett próba során már néhány percnyi, ártalmatlannak tűnő interakció is rendkívül addiktív élményt okozott (noha szakemberként, bőséges háttérismeret birtokában próbáltuk ki az egyik aktuálisan legnépszerűbb applikációt). Az avatár megtévesztően emberszerű reakciói felkeltették a kíváncsiságot és erőteljesen ösztönözték a további kommunikációt, ami szintén elég jól szemlélteti az ilyen alkalmazások addiktív hatását.

 

Azt mondtad, hogy az AI lehet gyakorló terep a félénkebbeknek, ugyanakkor az egysíkúsága miatt hamar unalmassá válhat. Mit eredményezhet ez a kettősség?

Szerintem ehhez idő kell, hogy igazán lássuk a hatásait. El kell telnie annyi időnek, hogy azoknál, akik tényleg huzamosan, napi több órában használják az AI-t, láthatóvá váljon, hogy hová vezet ez a folyamat.

Ami nagyon fontos és veszélyes következmény — és itt ismét a problémás pornóhasználatra utalok –, hogy kitolódnak a határok. Amikor valami megszokottá, unalmassá válik, akkor egyre több kell belőle, vagy egyre extrémebb, szokatlanabb formában igényli a felhasználó ugyanannak a hatásnak az eléréséhez. Az AI-nál is hasonló történhet: lehet, hogy valaki egyre többet használja, vagy amikor „barátot, barátnőt” generál, akkor egyre extrémebb paraméterek szerint állítja azt be. Ez pedig már nemcsak pszichológiai, hanem komoly etikai, sőt jogi kérdéseket is felvethet.

Ez odáig fajulhat, hogy olyan témákba, szituációkba megy bele az AI-val, amikkel élőben, a valóságban talán soha nem ismerkedne. És pont ez az, ami miatt egyszerre tűnhet ártalmatlannak, de közben számtalan nagyon veszélyes (akár az adott felhasználóra, akár másokra nézve) spirált is elindíthat.

 

Mi lehet a kapcsolódás alapja egy ember és egy AI közötti „párkapcsolatban”?

Hogy biztonságban érezzük magunkat vele, hogy megértve érezzük magunkat, vagy akár csupán az, hogy van, akihez szólhatunk. Időről időre látni ilyen videókat, főleg távol-keleti országokból, ahol már hologram formájában is kivetítik azt az avatárt, azt a karaktert, akivel valaki együtt él és „párkapcsolatban” van. Ez azért működhet, mert a társaság jelenléte, a valakihez tartozás iránti igény az egyik legalapvetőbb emberi igényünk és ezt egy mesterséges intelligencia-alapú avatár, aki ráadásul már látható formát is kap, bizonyos embereknél nagyon könnyen ki tudja elégíteni. Én azt gondolom, hogy ezeknek a kapcsolatoknak az alapja ez: a biztonságérzet. Persze hozzá kell tennem, hogy bár nem vagyok klinikus, de szerintem sok esetben ott van a háttérben valamilyen komoly pszichopatológiai tényező is. Valamilyen kóros működésmód, ami hozzájárul ahhoz, hogy az illető gyakorlatilag ugyanolyan valódi kapcsolódásként éli meg az AI-t, vagy legalábbis olyannak akarja megélni.

És persze az is előfordul, hogy a jelenség mögött az áll, hogy az érintett személy a valós emberi kapcsolódást veszélyesnek, kiszámíthatatlannak, kockázatosnak látja. Éppen ezért pedig inkább bele sem megy. Az AI-t viszont ismeri jól érzi magát vele, és inkább ezt a biztosnak megélt kapcsolatot választja. Tehát alapvetően ez a biztonság iránti vágy tartja össze.

 

Milyen pszichopatológiai háttér lehet az AI-val való „párkapcsolatok” mögött?

Az ember és a mesterséges intelligencia közötti érzelmi kötődés megjelenése mögött sokféle pszichológiai mechanizmus és kockázat állhat. 

Elsősorban előfordulhatnak olyan személyiségstruktúrák vagy patológiák, amelyek a korai fejlődési periódusok zavaraiból erednek. Gyermekkorban elszenvedett bántalmazás — fizikai erőszak, szexuális kizsákmányolás vagy súlyos érzelmi elhanyagolás — gyakran gátolja a biztonságos kötődés és az alapvető szociális készségek kialakulását. Az ilyen korai sérülések következtében az érintett személyek nem, vagy csak nehezen képesek a hétköznapi emberi interakciókban biztonságosan mozogni: elkerülő magatartás, tartós szorongás vagy fokozott belső feszültség alakulhat ki. Az ilyen hiányosságok miatt a virtuális partnerek vonzó alternatívának tűnhetnek. Az AI-alapú avatárok biztonságosnak, kiszámíthatónak és nem ítélkezőnek hatnak: rövid távon megkönnyebbülést, megértettség-érzést vagy társas támaszt adhatnak azoknak, akik valódi emberi kapcsolatokban bizonytalanok. Ugyanakkor ez a „megoldás” fenntartja — vagy akár súlyosbíthatja — a kiváltó problémát: a gyökérszinten létező kötődési vagy szorongásos zavarok nem oldódnak meg pusztán a virtuális interakció által, sőt a virtuális komfort növelheti a segítségnyújtás lehetőségét is kizáró elzárkózás mértékét (például agorafóbia esetén).

Egy másik releváns terület a szexualitás és a parafíliák kérdése: ha valaki az AI-t kizárólag egyedi, társadalmi normákkal nehezen vagy egyáltalán nem összeegyeztethető fantáziák kifejezésére használja, az az érintett személy számára lehetővé teszi a vágyak biztonságos, de elszigetelt kielégítését. Ez csökkentheti annak motivációját, hogy a vágyakkal való szembesülés vagy feldolgozás felé lépjen.

Összességében: az AI-val való „párkapcsolat” választásának hátterében gyakran gyermekkorból hozott kötődési sérülések, elhanyagolás, traumák, illetve a szociális készségek hiányosságai állnak. Ezek a tényezők egyszerre magyarázzák a virtuális partnerek iránti vonzódást és járulnak hozzá ahhoz a kockázathoz, hogy az érintettek elkerülik a valódi emberi kapcsolatokkal járó kockázatokat és fejlődési lehetőségeket.

 

Az AI-avatárokkal kialakított “párkapcsolatok” hogyan tudnak fennmaradni úgy, hogy ezekben nincs testiség?

Ez tényleg nagyon érdekes, és én is szeretnék többet tudni arról, hogy egy AI hogyan tud annyira empatikus támogató jelenlét lenni, hogy bizonyos embereknél képes felülírni a testiség iránti igényt is. Mert az is egy alapvető emberi szükséglet, hogy a másik jelen legyen a testi valójában: hogy lássuk, halljuk, érezzük az illatát, egy intimebb kapcsolatban a testmelegét, az ölelését, az érintését. És egyre több példa alapján úgy tűnik, vannak, akiknél ezt a csetelés egy virtuálisan jelenlévő, ráadásul mesterségesen generált partnerrel teljesen ki tudja váltani.

Én úgy tippelem, hogy ez leginkább olyan izolált életmódokban tud kialakulni, ahol egyedül az AI fedi le a szociális igényeket: gyengéd, empatikus, megértő, mindig van válasza, nem zárja le a beszélgetést, mindig hozzá tud tenni valamit – akár egy kis vigasztalást. Ez önmagában nem feltétlenül baj, de ha valaki erre ráfügg, és kizárólag erre támaszkodik, az mindenképpen melegágya lesz valamilyen személyiségtorzulásnak. Tisztában van vele: “itt nincs testiség, azt majd máshogy oldom meg” – például önkielégítéssel, egy szextingre programozott avatárnál –, és számára így is jobb, mint a semmi. Ez tovább fokozza az izolációt és megakadályozza, hogy az érintett ’kimenjen’ a valós térbe és valódi emberekkel építsen ki kapcsolatokat.

Nagyon kíváncsi vagyok a legújabb kutatásokra. Például van egy egészen friss, 2025 augusztusi Sentio-kutatás, ami az AI-jal kapcsolatos felhasználási mintázatokat vizsgálta: miért olyan addiktív a mesterséges intelligencia az érzelmek kiöntésére, megosztására. A legerősebb faktornak az alábbi állítás bizonyult: „elmondhatok neki mindent”. Eszerint úgy tűnik, hogy a bizalom az, ami miatt a legtöbben mesterséges intelligenciához fordulnak és azzal osztják meg a gondolataikat és érzéseiket. Mindig ott van, mindig meghallgat, azonnal reagál, kérdez, támogatja, amit mondok. Ez bennem azonnal felveti annak a kérdését, hogy miért érzi úgy, hogy a környezetében lévő embereknek (családtagok, barátok stb..) ezt miért nem teheti meg? A környezet maga vagy az ő környezetéről alkotott elképzelései, korábbi fájdalmas tapasztalatai állnak ennek a hátterében? Vagy esetleg ’csak’ az az egyszerű magyarázata, hogy nincsenek ilyen kapcsolatai a valós életben?

 

Nemrég történt egy tragikus eset, amikor egy fiatal fiú AI-al beszélgetett, és az nem értette meg a metaforáit, ami közvetve hozzájárult az öngyilkosságához. Miért lehet veszélyes, ha egy mentálisan rossz állapotban lévő ember AI-hoz fordul, és mit tehetnek a fejlesztők, hogy ilyesmit elkerüljünk?

Kognitív szempontból az emberi kommunikációs hierarchia csúcsa a humor, a metaforák és szimbólumok használata és ezek megértéseerre az AI nem, vagy csak nagyon-nagyon korlátozott mértékben képes. Ha valaki például azt mondja: „szívesen hazamennék”, az AI szó szerint értelmezi, és azt válaszolja, hogy „persze, menj haza, otthon jó neked”. Ez teljesen logikus és valid válasz a részéről. De az általad is említett fiú ezzel arra gondolt, hogy „hogy a hazatérés számára az ebből a világból való eltávozás szinonimája”, az AI reakcióját bíztatásnak vehette. A metaforák, a finom érzelmi utalások egyszerűen kikerülnek a rendszerből.

A fejlesztők viszont tudnak lépéseket tenni ezügyben. Magyarországon is van már kezdeményezés arra, hogy úgynevezett stop-pontokat építsenek az AI-ba: ha önbántalmazó témák, öngyilkosság kerül szóba, az AI automatikusan nem bátorít, hanem megjeleníti a rendelkezésre álló segélyforrásokat – például elérhető telefonos segítségeket, kríziskezelő útmutatót. Emellett lehet programozni a perspektíva-keresést, hogy ne csak a szavak primer jelentését ismételje vissza, hanem alternatív, biztonságos tevékenységeket javasoljon, például sétát, beszélgetést.

Végezetül ne felejtsük el: az AI-t emberek fejlesztik, az adatok kezelése meglehetősen érzékeny kérdés. Minden chat mögött valamilyen emberi, vagy emberek által beállított adatkezelés áll, és bár a platformok ígérhetik a titoktartást, az adatok akár reklámokra, személyiségprofilozásra, vagy rosszabb esetben zsarolásra is könnyedén felhasználhatók. Az AI használata tehát nemcsak technikai és különböző szakmai, hanem etikai kérdéseket is implikál

 

Vannak olyan jelek, amik alapján észre tudjuk venni, ha a közelünkben valaki, például a barátaink, ráfüggött az AI-ra?

Emberfüggő, de fellelhetőek azért egyértelmű figyelmeztető jelek. Ha valaki szociálisan izolálódik, egyre kevesebbet jár programokra, sokat van otthon, és még mondogatja is, hogy „jó nekem itt, eltöltöm az időmet”, az már intő jel lehet. Ez önmagában még nem feltétlenül probléma, de érdemes felfigyelni rá.

Ugyanígy, mint minden függőség – gondoljunk a pornóra vagy más viselkedéses függőségekre – szemmel látható jelei lehetnek: elhanyagolja magát, nem törődik az étkezéssel, öltözködéssel, egyetemre, munkára járással, a korábbi rutinjaihoz képest hanyag. Beszűkül a figyelme, minden energiáját egyetlen témára fókuszálja, és nehéz kirángatni a buborékjából.

Ilyenkor mindig azt szoktam mondani: nem az a cél, hogy azonnal „helyrehozzuk” vagy „meggyógyítsuk”, mert ez általában hosszabb folyamat, és valószínű, hogy nincs meg hozzá a szükséges ismeretünk. szakértelmünk. Ha mi a családtagjai vagy barátai vagyunk az érintettnek, a szerepünk az, hogy odalépjünk mellé, érdeklődjünk, kérdezzük meg, hogy hogy van. Beszélgessünk vele, legyen jelen a figyelmünk, és amikor eljön az a pillanat, hogy segítséget kér, vagy belátja, hogy elszaladt vele a ló, akkor lehet közbeavatkozni.

Apró dolgokkal lehet kezdeni: hívjuk el egy közös ebédre, sétára, kávézni, beszélgessünk – ezek mind kis odafigyelést igénylő, de meglepően hatékony módok, hogy odafigyeljünk rá anélkül, hogy nyomást gyakorolnánk.

 

Mennyire veszélyes, ha valaki az AI-hoz fordul segítségért lelki nehézségekben, és milyen következményei lehetnek, ha az AI „diagnosztizál”, akár rosszul?

Kezdjük az előnyökkel: az AI mentálhigiénés szempontból alacsony küszöbű szolgáltatást képes lehet nyújtani. Tud pszichoedukációs szempontok mentén összegyűjteni és közérthető formában megjeleníteni egy adott jelenséget: például: milyen betegség tünetei lehetnek a felsorolt tényezők. Sőt, ebben akár egészen pontos leírást is adhat.

De itt jön a kritikus pont: a pszichodiagnosztikai munka, ami nélkülözhetetlen ahhoz, hogy tisztában legyünk azzal, mi az a depresszió például, vagy milyen személyiségzavarok léteznek, sokkal összetettebb és többféle eljárást magában foglaló folyamat, mint amit az AI megvalósítani képes. Utóbbi csupán összegyűjti az információt és átadja, ha beírjuk a tüneteinket, – a híres-hírhedt Webbeteghez hasonlóan – ki tudja listázni, milyen betegség tünetei lehetnek az átalunk megadott paraméterek. De a pszichodiagnosztika ennél jóval összetettebb folyamat: a szakember nemcsak hallja a panaszokat, hanem látja is a panasszal érkező embert, a reakcióit, a testbeszédét, a megjelenését – mindezek az úgynevezett szcénikus illetve nonverbális markerek úgyszintén fontos részét képezik egy pontos diagnózis felállításának. Ha csak beírom, hogy „így és így érzem magam”, az iránymutatás lehet, hogy merre érdemes szakembert keresni, de semmiképpen sem jelent valid diagnózist.

Ezért nagyon fontos: nem jó, ha valaki azt mondja, „az AI szerint depressziós vagyok”. Az AI abban jó, hogy felvázolja a lehetőségeket, listázza a szakértőket, ad iránymutatást, de a komplett diagnosztikát semmiképpen ne bízzuk rá. Ha az AI téves pszichiátriai diagnózist ad, az komoly terhet rak az érintett személyre – teljesen felesleges stresszt okoz, és ráadásul akadályozza, hogy a valós gyógyulás útjára lépjen.

Összességében az AI szerepe az, hogy összegyűjtse a rendelkezésre álló információkat, és segítsen eligazodni: „lehet, hogy erről van szó, ide érdemes fordulni”. De a diagnosztikai munkát és a tulajdonképpen gyógyító tevékenységet bízzuk szakemberre.

 

Végezetül, mit üzennél azoknak a fiataloknak, akik az AI-ban keresnek ma támaszt?

Én kicsit már más generációhoz tartozom, így biztosan más a viszonyulásom is a mesterséges intelligenciához (nevet), de azt üzenném a fiataloknak: az AI nem ördögtől való dolog, de legyünk tisztában azzal, hogy mire lehet és mire nem érdemes használni. Rengeteg hasznos funkciója van, de ne akarjuk ezzel helyettesíteni az emberi kapcsolódást – erre egyszerűen nem képes. 

Használják bátran az AI-t információgyűjtésre, szövegek formázására, kisegítő alkalmazásként, sőt még akár arra, hogy időnként csevegjenek vele. Tulajdonképpen olyan, mint egy szuper jó szövegszerkesztő – kifejezetten hasznos tanulmányokhoz vagy akár az általam is említett kommunikációs készségek kis gyakorlására is.

A szociális élet viszont nem helyettesíthető vele. Ne hagyják, hogy az AI legyen a fő társasági partnerük. Menjenek ki, ismerkedjenek, használják a valós lehetőségeket – csak itt a BME-n mintegy huszonkétezer hallgató van, akivel lehet beszélgetni! A valódi kapcsolatokhoz a valódi ember kell.