Az AI-rendszerek egyre gyorsabban terjednek, de vajon lépést tudunk-e tartani a velük járó kockázatokkal? Turányi Tatjána, a Quadron AI szabályozási szakértője szerint az AI nemcsak technológiai áttörés, hanem hatalmas felelősség is – különösen akkor, ha az etikai dilemmákat is figyelembe vesszük. Interjúnkban arról beszélgettünk, hogyan alakítja át az AI a kiberbiztonsági szabályozást, milyen veszélyekkel kell szembenéznünk, és mi az a szemléletváltás, amely nélkülözhetetlen ahhoz, hogy az AI valóban az ember szolgálatába álljon.
Hogyan kerültél kapcsolatba a kiberbiztonsággal és az AI területével? Hogyan kerültél a Quadronhoz?
Turányi Tatjána: A kiberbiztonsággal és a kiberpszichológiával 4-5 éve kezdtem foglalkozni. A Covid alatt kezdett érdekelni, hogyan formálja az online tér a viselkedésünket, és hogyan védekezhetünk a digitális fenyegetésekkel szemben. A Quadronhoz oktatási tanácsadóként kerültem, ahol a kiberpszichológiai megközelítést is bevittem a munkába. Nemcsak a technikai kockázatokra, például az adathalászatra fókuszáltunk, hanem arra is, hogyan reagálunk mentálisan ezekre a fenyegetésekre. Idővel a tanácsadás felé fordultam, mert rájöttem, hogy a kockázatelemzésnek már a rendszerek tervezésénél el kell kezdődnie – különösen az AI térnyerése óta. Főleg compliance-szel kapcsolatos témákkal foglalkozom: például az AI-hoz kapcsolódó kockázatkezelés, vagy az üzletmenet-folytonosság kérdéseivel.
Emellett önkénteskedem a Nemzetközi Gyermekmentő Szolgálatnál, ahol iskolásoknak és szülőknek tartok oktatásokat internetbiztonságról és AI-ról. Holnap például Ukrajnába utazom, ahol a Beregszászi Máltai Szeretetszolgálat szervezésében tartok előadásokat.
Mesélj nekünk a tanulmányi hátteredről.
Turányi Tatjána: Kárpátaljáról származom, és társadalomtudományi háttérrel rendelkezem. Ukrajnában politikatudományból diplomáztam, majd 10-11 évvel ezelőtt érkeztem Budapestre, hogy az ELTE Szociológia Doktori Iskolájában folytassam tanulmányaimat.
Mindig is érdekelt, hogyan hatnak egymásra az emberek a társadalmi folyamatokban, ezért a szociálpszichológia vonzott. Ahogy a kiberpszichológia felé fordultam, elkezdtem élénken érdeklődni a veszélyérzetünk és a döntéseink hátterében meghúzódó pszichológiai mechanizmusok iránt. Az ISAC (Information Sharing and Analysis Center) kiberpszichológiai kurzusát követően elvégeztem az ISACA és az ISC2 információbiztonsági alapozó kurzusait.
Milyen irányokban gyorsította fel az AI a kiberbiztonsági kockázatokat, és milyen veszélyeket hozott magával?
Turányi Tatjána: Az AI térnyerése teljesen új szintre emelte a kiberbiztonsági fenyegetéseket. Ma már nem kell programozónak lenni ahhoz, hogy valaki rosszindulatú kódot készítsen – elég egy AI-eszköz, ami akár deepfake tartalmakat is létrehozhat.
Nemrég olvastam egy tanulmányt, amelyben virológusok mértek fel AI-alapú rendszereket: egyes AI modellek már 93%-kal jobban teljesítenek bizonyos kutatási területeken, mint az emberi szakértők. Ez hatalmas előnyt jelenthet például új betegségek azonosításában vagy járványok leküzdésében. Ugyanakkor ez a tudás fegyverként is használható. Ma már nem csak az a kérdés, hogy az AI képes-e a legjobb kutatókat felülmúlni, hanem az is, hogy ezek az eszközök milyen könnyen kerülhetnek rossz kezekbe.
Ráadásul a dezinformációs kampányok is erősödtek. Az AI eszközök olyan gyorsan és hatékonyan képesek hamis narratívákat terjeszteni, hogy akár társadalmi destabilizációt is előidézhetnek – vagy egy meglévőt eszkalálhatnak. Ma már nemcsak az a veszély, hogy leáll egy rendszer, hanem az is, hogy a valóságérzetünket manipulálják, és ezzel olyan káoszt okoznak, ami megágyazhat akár egy hatalomátvételnek is.
Az orosz-ukrán háború kapcsán tapasztaltuk az első igazán nagy, nyilvánosan is látható kiberháborút. Már a háború kezdetén, sőt, azt megelőzően is célzott támadások érték Ukrajna közműhálózatát, mobilszolgáltatóit és más kritikus infrastruktúrákat.
A civilek ebből elsősorban az áramszolgáltatás, az internet vagy az alapvető közszolgáltatások kiesését érzékelik. Azonban legalább ilyen veszélyes a dezinformáció, amely tömegesen jelenik meg a közösségi médiában. A félretájékoztatás és a manipuláció sokszor súlyosabb következményekkel járhat, mint a hálózatok ideiglenes leállása. Ez a jelenség pedig nemcsak Ukrajnára korlátozódik, hanem globális problémává vált.
Milyen keretrendszerek és módszerek mentén dolgoztok az AI kockázatértékelés és kockázatelemzés terén?
Turányi Tatjána: Az AI kockázatkezelésben az AI Act, vagyis az Európai Uniós mesterséges intelligencia rendelet az elsődleges sorvezetőnk. Ez az uniós szabályozás nemcsak ajánlásokat fogalmaz meg, hanem kötelező érvényű előírásokat is. A NIS2-hez hasonlóan itt is konkrét megfelelési követelmények vannak, amelyeket minden AI-rendszer használójának és szolgáltatójának be kell tartania.
A kockázatértékelés technikai részéhez az amerikai NIST AI RMF (Risk Management Framework) keretrendszert használjuk. Ez részletes útmutatást ad arra, hogyan kell egy AI-rendszer kockázatait felmérni, milyen paramétereket kell figyelembe venni, és hogyan kezeljük az azonosított kockázatokat. Emellett a keretrendszer erősen fókuszál a governance területére, vagyis arra, hogy az AI-rendszerek irányítását és működtetését hogyan lehet felelősen megszervezni.
A harmadik támpont az ISO 42001, ami az AI menedzsment rendszerek szabványa. Ez a keretrendszer segít abban, hogy a szervezetek a fejlesztéstől egészen az AI-rendszerek bevezetéséig következetesen és felelősen kezeljék a mesterséges intelligencia használatát.
Ezek az alapvető keretrendszerek, de mindhárom esetben a gyakorlati megvalósítás sokszor egyedi megközelítést igényel, hiszen az AI-rendszerek felhasználási területei és kockázatai nagyon eltérőek lehetnek.
Hogyan alakította át az EU AI Act a Quadron kockázatkezelési megközelítését?
Turányi Tatjána: Az EU AI Act tavaly augusztusban lépett életbe, de a szabályozás kidolgozása már 2021-ben elkezdődött. A rendelet a mesterséges intelligencia rendszereket kockázati szintek alapján kategorizálja, és ezekhez igazítja a követelményeket. Ez egy új, kockázatalapú megközelítést hozott be a Quadron számára is, hiszen most már nemcsak a fejlesztőknek és szolgáltatóknak kell megfelelniük bizonyos előírásoknak, hanem a felhasználóknak is.
A rendelet életbe lépése előtt sok cég nem foglalkozott mélyebben az AI rendszerek kockázataival, de mostanra már szinte mindenhol ott van valamilyen AI-eszköz – kimondva vagy kimondatlanul. Mi a Quadronnál most azon dolgozunk, hogy ezeknek az eszközöknek a használatát összehangoljuk az új követelményekkel. A cél az, hogy az AI rendszerek használata ne csak technikailag, hanem szabályozási szempontból is biztonságos legyen.
Milyen konkrét feladatokat jelent a mindennapokban az AI szabályozás és kockázatelemzés? Hogyan különböztethető meg a kettő egymástól?
Turányi Tatjána: Az AI szabályozás lényege, hogy az EU AI Act előírásait ültessük át a gyakorlatba. Elsősorban arra fókuszálunk, hogy az ügyfelek tisztában legyenek azzal, milyen kötelezettségeik vannak – akár szolgáltatóként, akár felhasználóként. A szabályozási keretrendszer most három szakaszban lép életbe: idén februártól a tiltott gyakorlatokra vonatkozó előírások már kötelezők, jövő augusztustól pedig a magas kockázatú AI rendszerekre vonatkozó passzusokat is be kell tartani. 2027-re kell mindenkinek teljes mértékben megfelelni a rendeletnek.
A szabályozás során segítünk kialakítani az AI használatára vonatkozó irányelveket: milyen feltételekkel használhatók az AI-eszközök, milyen tiltott gyakorlatokra kell figyelni, és hogyan kezeljék az ügyfelek az AI rendszerekből fakadó kockázatokat.
A kockázatelemzés már egy sokkal technológiaibb terület. Itt a rendszerek működését vizsgáljuk meg részletesen: milyen adatokkal tanítják a modellt, milyen kiberbiztonsági veszélyek fenyegetik, mennyire átlátható a működés. Ez a rész gyakran programozói szintű elemzést igényel. Tavaly például egy ügyfelünk számára olyan szabályzatot készítettünk, amelybe a kockázatelemzést is beépítettük. Ott a fő fókusz az volt, hogy az ügyfél által tervezett AI-rendszer milyen felhasználási területekre készül, és ezek milyen potenciális kockázatokat hordoznak.
Mivel ez a terület még viszonylag új, sokszor a legnagyobb kihívás az, hogy az ügyfelek sem mindig tudják pontosan, mire is akarják használni az AI-t. Ezért különösen fontos a folyamatos együttműködés és az őszinte kommunikáció.
Milyen tiltott gyakorlatokat határoz meg az AI Act, és kikre vonatkoznak ezek az előírások?
Turányi Tatjána: Az AI Act február óta már kötelező érvénnyel tilt bizonyos gyakorlatokat, amelyek mind a fejlesztőkre, mind a felhasználókra vonatkoznak. A legfontosabb tiltott gyakorlatok:
- Szubliminális, megtévesztő vagy manipulatív technikák alkalmazása: nem alkalmazhatók olyan technikák, amelyek a felhasználó tudta nélkül befolyásolják a viselkedését vagy olyan mértékben torzítják a döntéshozásra való képességét, aminek következtében olyan döntést hoznak, amelyet egyébként nem hoztak volna meg. Például egy videojáték nem használhat olyan rejtett képkockákat, amelyek az agressziót vagy más viselkedésformát váltanak ki.
- Személyes sebezhetőség kihasználása: nem lehet olyan rendszereket fejleszteni vagy használni, amelyek a felhasználó életkorából, szociális vagy egészségügyi helyzetéből eredő sebezhetőségét használják fel a viselkedés megváltoztatására. P Például egy játék nem bombázhatja lootbox ajánlatokkal a 9 éves gyereket, hogy rávegye a szülők pénzének elköltésére.
- Társadalmi pontozás: az AI nem állíthat össze olyan profilokat, amelyek az embereket szociális helyzetük, viselkedésük vagy múltjuk alapján rangsorolják, pontozzák, és amely pontozás rájuk nézve kedvezőtlen bánásmódot eredményezhet az eredeti adatgyűjtés kontextusától eltérő helyzetekben– például hitelkérelmek elbírálásánál vagy szociális támogatások megítélésénél.
- Profilozás bűnelkövetők azonosítására: az AI nem használható arra, hogy az embereket bűnelkövetői profillal lássa el pusztán az előéletük vagy viselkedési mintáik alapján.
- Arcfelismerő adatbázisok gyűjtése: tilos olyan AI-rendszereket alkalmazni, amelyek az internetről összegyűjtöttadatokból arcfelismerő adatbázisokat hoznának létre.
- Érzelemfelismerés: az AI nem használható arra, hogy egy személy érzelmeit munkahelyen vagy oktatási intézményben monitorozza, kivéve ha az adott helyzet közvetlen veszélyhelyzetet jelent (pl. valaki ön- vagy közveszélyes).
- Biometrikus kategorizálás: az AI nem használhatja fel a biometrikus adatokat arra, hogy például az írisz vagy az arc alapján következtetéseket vonjon le az egészségi állapotról vagy más érzékeny információról.
- Nyilvános biometrikus azonosítás valós időben: a nyilvános helyeken történő valós idejű biometrikus megfigyelést is tiltja a rendelet, kivéve, ha hatósági engedéllyel történik, például egy emberrablás vagy más súlyos bűncselekmény felderítése érdekében.
A szabályozás nemcsak a fejlesztőket érinti, hanem a felhasználókat is. Ha egy cég tudomására jut, hogy az általa használt AI-rendszer tiltott gyakorlatot folytat, köteles azonnal jelezni a piacfelügyeleti hatóságnak és leállítani a rendszer használatát. Ezért a cégeknek folyamatosan monitorozniuk kell az AI-rendszereik működését, hogy elkerüljék a szabályszegést.
Az AI kapcsán gyakran előkerülnek etikai kérdések. Szerinted mi az a szemléletváltás, ami nélkülözhetetlen ahhoz, hogy biztonságosan használjuk ezeket a rendszereket?
Turányi Tatjána: Sokan félnek attól, hogy az AI kiszorítja őket a munkából, hiszen naponta jelennek meg hírek arról, hogy az AI egyre több területen jobb teljesítményt nyújt, mint az ember. Ez azonban nem jelenti azt, hogy az emberi tapasztalat és a kritikai gondolkodás értéktelenné válik. Az AI rendszerek adatokat dolgoznak fel, de az adatok minősége, az összefüggések felismerése és az etikai megfontolások továbbra is emberi felelősség.
Az IT és az AI kockázatkezelés között az a legnagyobb különbség, hogy az AI rendszerek fejlődnek, tanulnak, és sokszor kiszámíthatatlanul viselkednek. Ezért nem elég az IT-biztonság klasszikus kereteire támaszkodni. Az AI rendszereknél a társadalmi hatásokat is figyelembe kell venni: milyen adatokat használnak fel, milyen döntéseket hoznak, és ezek hogyan befolyásolják az embereket, emberek csoportjait.
Az AI esetében különösen fontos az elfogultság kérdése. Ha a rendszert nem megfelelő adatokkal tanítják, az eredmények torzítottak lesznek – és ezek a torzítások akár társadalmi szintű károkat is okozhatnak. Ezért a fejlesztők és a döntéshozók felelőssége, hogy az AI ne csak pontosan, hanem etikusan is működjön.
Milyen kérdésekkel és kihívásokkal szembesülnek most az ügyfelek az AI-rendelet kapcsán? Miben kell őket leginkább támogatni?
Turányi Tatjána: Az AI-rendelet kapcsán az egyik legnagyobb kihívás az, hogy sokan még mindig nem is hallottak róla, vagy ha igen, nem értik, mit is jelent ez a gyakorlatban. A NIS2 már elég nagy sokkot okozott a szervezeteknek, és most még ott az AI Act is, amivel meg kell birkózniuk.
A nagyobb szervezeteknél, például pénzügyi intézményeknél már kezdenek kialakulni AI-csoportok, amelyek kimondottan ezzel a területtel foglalkoznak. De sok cég még mindig a zavarosban halászik – nincs tiszta képük arról, hogy pontosan milyen rendszereket használnak, mire kell figyelniük, és milyen kockázatokkal járhat az AI alkalmazása.
A mi feladatunk most az, hogy lefordítsuk az AI-rendeletet a döntéshozók nyelvére. Nem elég a technológiai kockázatokat elmagyarázni – meg kell mutatni azt is, hogy az AI használatának milyen hosszú távú üzleti és etikai következményei lehetnek. Az AI nemcsak egy üzleti lehetőség, hanem komoly felelősség is. És ezt a szemléletet még sok helyen nem sikerült átültetni a gyakorlatba.
Hogyan segíted a döntéshozókat abban, hogy az AI-rendelet követelményeit mélységében megértsék?
Turányi Tatjána: A legnagyobb kihívás az, hogy a technikai szakemberek és a felsővezetők között hidat képezzünk. Az AI-rendelet kapcsán sokan csak a technikai oldalra koncentrálnak, pedig ez nemcsak egy lehetőség, hanem kötelezettség is lesz – és ezt az üzleti döntéshozóknak is meg kell érteniük.
A rendelet előírja a folyamatos együttműködést a szolgáltatókkal, a piacfelügyeleti hatóságokkal és a felhasználókkal. Ez nem arról szól, hogy kipipálunk egy szabályzatot és végeztünk is, hanem arról, hogy a cégeknek folyamatos tájékoztatási kötelezettségük lesz. Sok vezető viszont elsősorban arra fókuszál, hogy az AI milyen technikai előnyöket hoz, és nem gondolnak bele, hogy mindez jogi és etikai kötelezettségekkel is jár.
A feladatom az, hogy ezt a kettőt összehangoljam. Fontos, hogy az AI ne az emberek kiváltásáról, hanem a munkájuk támogatásáról szóljon. És ha ezt a szemléletet sikerül megértetni a döntéshozókkal, akkor hosszú távon sokkal eredményesebben tudják majd használni az AI-rendszereket.
Hogyan zajlik egy AI szabályzat kidolgozása a gyakorlatban?
Turányi Tatjána: Az egyik legnagyobb mérföldkő számomra az volt, amikor tavaly novemberre sikerült összeraknunk az első AI szabályzatot egy ügyfélnek.
Az egész projekt úgy indult, hogy az ügyfél jelezte, hogy egy leánycégük fejlesztene nekik egy AI rendszert. Az első lépés az volt, hogy tisztázzuk a szerepkörüket: szolgáltatóként vagy felhasználóként vannak jelen? Mivel a rendszer az ő igényeik alapján készült, ezért ebben az esetben szolgáltatónak minősültek – ami komolyabb felelősséget jelent a szabályozás szempontjából.
A következő lépés az volt, hogy feltérképezzük, milyen felhasználási területei lesznek az AI rendszernek. Az egyik legfontosabb kérdés az volt, hogy a rendszer csak belső folyamatokat támogat-e, vagy külső ügyfelek számára is elérhető lesz. Ez azért lényeges, mert a rendelet eltérő követelményeket fogalmaz meg a két esetben.
Ezek után elkezdtük összeállítani az AI szabályzatot, ami gyakorlatilag egy 50 oldalas dokumentum lett. Ebben szerepeltek a tiltott gyakorlatokra vonatkozó előírások, az adatkezelési elvek, a felhasználói tájékoztatási kötelezettségek, valamint az, hogy milyen outputokat generálhat a rendszer és melyeket nem.
Párhuzamosan Gál Henrik kollégám, a Quadron mesterséges intelligencia szakértője egy kockázatelemzést is végzett, ahol a rendszer működését és az esetleges kockázatokat vizsgáltuk. Ez egy nagyon intenzív együttműködés volt az ügyféllel, mert sokszor számukra sem volt világos, hogy pontosan milyen célokra és hogyan akarják használni az AI-t.
Az egész projekt több hónapon át zajlott, folyamatos egyeztetésekkel, de végül sikerült létrehozni az alapdokumentumot, amit az ügyfél azóta is iránytűként használ.