A mesterséges intelligencia (MI) lehet a kulcs a jövő legnagyobb kihívásainak a megoldásában, de rossz kezekben sima plágiumszoftverré silányulhat, súlyos etikai kérdéseket felvetve.

Hogy ne ez az utóbbi forgatókönyv valósuljon meg, az EU Mesterséges Intelligencia Törvényt alkotott (EU AI Act). Miért, milyen előnyöket és milyen veszélyeket rejt az MI? Terjedelmi korlátok miatt lehetetlen ezt most részletesen kifejteni, de teszünk egy próbát a probléma körüljárására legalább nagy vonalakban.

 

A mesterséges intelligencia (MI) fejlesztése terén az utóbbi években elért forradalmi fejlődés aggodalomra és optimizmusra adhat okot egyszerre. Optimizmusra, mert az intelligencia általános értelemben a problémák megoldásának eszköze, az MI pedig lényegesen felgyorsítja a releváns tudásbankok szűrését és a lehetséges megoldások közötti rangsor felállítását. Aggodalomra, mert attól tartunk, hogy az MI legnépszerűbb felhasználási módja – a gépi tanulás – rövid távon zárójelbe teheti a tudományt és bizony etikai problémákat generál azáltal, hogy a mások által egyszer már leírt és kitalált tudás viszonteladójává teszi a felhasználót.

Noam Chomsky neves amerikai nyelvész professzor és kognitív elme kutató szerint – „a mesterséges intelligenciát ne is nevezzük többé így, hanem nevezzük annak ami, plágium szoftvernek. Nem hoz létre semmit, csak lemásolja a meglévő műveket, a meglévő művészeti alkotásokat, eléggé módosítva ahhoz, hogy el lehessen kerüni a szerzői jogi felelősségre vonást. Ez a legnagyobb szellemi tulajdonlopás, amit valaha feljegyeztek, mióta az európai telepesek megérkeztek az amerikai őslakosok földjére” (Noam Chomsky: The False Promise of ChatGPT, New York Times, 2023. március).

Jogos a kérdés, hogy miért pont a Klímapolitikai Intézet foglalkozik az MI körüli problémákkal?

Az M1 Kékbolygó műsorában nem régen szó volt egy olyan magyar részvétellel megvalósított fejlesztésről (OPT4SOL), ami elhozhatja naperőművek MI-alapú telepítésének új, minden eddiginél hatékonyabb szintjét. Az OPT4SOL konzorcium által kifejlesztett rendszer célja, hogy térinformatikai adatok, űrfelvételek, és a mesterséges intelligencia kombinációjával támogatást nyújtson a napelemes erőművek helyválasztásában és a helyszínek rangsorolásában. Az OPT4SOL MI-adatbázisa hazai és európai forrásokból közel 70 különböző térinformatikai adatot tartalmaz, amelyek befolyásolhatják egy naperőmű optimális elhelyezését, mint például a népességi adatok, ipari területek, aszály-index, földárak, nagy- és középfeszültségű hálózatok, védett területek, stb. A térinformatikai eszközökre és a gépi tanulási modellekre épülő módszer más európai országokba is adaptálható a helyi szabályozások függvényében, később pedig más technológiákra, például a szélerőművekre is kiterjeszthető lesz.

De nem csak az ipari méretű naperőművek tervezésénél jelent hatékony eszközt az MI, hanem a háztartási méretű napelemek telepítésének optimalizációjához is. A www.napenergiaterkep.hu oldal fejlesztői (Solar ViewPoint Kft. és az Envirosense Hungary Kft.) tavaly decemberben már közel 100 település benapozottsági és napenergia potenciál adatait tették elérhetővé, mely szolgáltatás idén újabb településekkel bővült. Az év elején Pápa, Kaposvár, Siófok, Szentes, majd néhány napja Sopron, Baja, Mosonmagyaróvár, Cegléd és

Dunaújváros napenergiával kapcsolatos adatai kerültek ki az oldalra. Az érdeklődők a kiválasztott épületre kattintva megtekinthetik az épületek besugárzási értékeit, illetve azt, hogy az adott tetőfelületen telepítendő napelemes rendszerekkel hozzávetőlegesen mekkora összeget tud megtakarítani a beruházó (teljes napenergia potenciál kihasználtság esetén érvényes értékek). Így több információval felvértezve vághatnak bele a napelemes rendszerek beszerzésébe.

Az MI segítségével tehát a napenergia felhasználása felgyorsulhat és hatékonyabbá válhat, ami lényegi módon járulhat hozzá a klímasemlegesség eléréséhez.

A mesterséges intelligencia tehát lehet csodafegyver a társadalmi haladásban, de ezzel arányosak a benne rejlő veszélyek is. Minden a törvényi szabályozáson, illetve a végrehajtás szigorúságán múlik majd. Felismerve a történelmi szükségszerűséget, az EU MI-törvényét 2024. július 12-én tették közzé az Európai Unió Hivatalos Lapjában (HL). Már a hivatalos elnevezése is sugallja, hogy nem egyszerű a szabályozó helyzete: „A mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról, valamint a 300/2008/EK, a 167/2013/EU, a 168/2013/EU, az (EU) 2018/858, az (EU) 2018/1139 és az (EU) 2019/2144 rendelet, továbbá a 2014/90/EU, az (EU) 2016/797 és az (EU) 2020/1828 irányelv módosításáról, azaz a mesterséges intelligenciáról szóló Európai Parlament és a Tanács (EU) 2024/1689 sz. rendelet (röviden: MI-törvény).

Az MI-törvény a mesterséges intelligencia használat szabályozásának első olyan jogi kerete, amely foglalkozik a mesterséges intelligencia kockázataival. Az MI-törvény egyértelmű követelményeket és kötelezettségeket ír elő a mesterséges intelligencia fejlesztői és telepítői számára a mesterséges intelligencia konkrét felhasználásaival kapcsolatban.

Az MI-törvényben foganatosított új szabályok:

  • kezelik a kifejezetten a MI-alkalmazások által létrehozott kockázatokat,
  • tiltják az elfogadhatatlan kockázatot jelentő mesterséges intelligencia gyakorlatokat,
  • meghatározzák a magas kockázatú alkalmazások listáját,
  • egyértelmű követelményeket támasztanak a MI-rendszerekkel szemben a magas kockázatú alkalmazások esetén,
  • kötelezettségeket szab a magas kockázatú MI-alkalmazások telepítői és szolgáltatói számára,
  • megfelelőség-értékelést ír elő adott mesterséges intelligencia rendszerek üzembe helyezése vagy forgalomba hozatala előtt
  • európai és nemzeti szintű irányítási struktúrát kell létrehozni

A szabályozási keretrendszer 4 kockázati szintet határoz meg az MI-rendszerek számára (kockázatalapú megközelítés):

Elfogadhatatlan kockázat: betiltja az összes olyan MI-rendszert, amely egyértelműen veszélyezteti az emberek biztonságát, megélhetését és jogait.

Magas kockázat: ilyenek a kritikus infrastruktúrát (pl. közlekedést, energiaszolgáltatás kezelő MI-rendszerek), oktatást, szakképzést (előmenetelt, szakmai besorolást, személyi adatokat kezelő MI rendszerek), robotizáció orvosi alkalmazásait vezérlő MI-rendszerek (pl. sebészeti robotok által támogatott sebészet, MI-alapú hatóanyagtervezés), a HR-tevékenységben használt MI-rendszerek (önéletrajzokhoz, motivációs levelekhez és egyéb személyes adatokhoz való hozzáférés), a bűnüldözésben használt MI-rendszerek (amely túlterjeszkedve a jogszabályi kereteken megzavarhatja az emberek alapvető jogait, lásd a bizonyítékok megbízhatóságának

értékelése), a migrációs és az igazságszolgáltatási adatbázisokat kezelő MI rendszerek (lásd vízumkérelmek automatizált vizsgálata, MI alkalmazások használata bírósági precedensek keresésére). A magas kockázatú mesterséges intelligencia rendszerekre már alkalmazásuk megkezdése előtt is szigorú kötelezettségeket kell majd teljesíteni: kockázatértékelési- és csökkentési előírásokat kell alkalmazni, a tevékenységeket automatikusan naplózni kell az eredmények nyomon követhetőségének biztosítása érdekében, szabályozott emberi felügyeleti intézkedéseket kell foganatosítani a kockázat minimalizálása érdekében. Mindezeken túl, a magas kockázatú MI-rendszerek alkalmazásához bírósági vagy más független testület általi engedélyeztetés lesz szükséges, az alkalmazási körülmények pontos lehatárolásával (idő, földrajzi hatókör, a keresett adatbázisok körének megadása).

Korlátozott kockázat: korlátozott kockázat abból adódhat, ha az egyébként alacsony kockázatú MI-használat nem átláthatóan történik. Az MI-törvény konkrét átláthatósági kötelezettségeket vezet be annak biztosítására, hogy a felhasználókat szükség esetén tájékoztassák, erősítve ezzel a bizalmat. Például, amikor MI-rendszereket, chatbotokat használnak, ismertetni kell a felhasználókkal, hogy géppel kommunikálnak, hogy megalapozott döntést hozhassanak a folytatásról vagy a visszalépésről. A szolgáltatóknak azt is biztosítaniuk kell, hogy az MI által generált tartalom azonosítható legyen. Emellett a mesterséges intelligencia által generált szöveget, amelyet azzal a céllal tesznek közzé, hogy tájékoztassák a nyilvánosságot a közérdekű kérdésekről, mesterségesen generáltként kell feltüntetni. Ez vonatkozik az audio- és videotartalmakra is.

Minimális vagy semmi kockázat: az MI-törvény lehetővé teszi a minimális kockázatú mesterséges intelligencia ingyenes és nem-korlátozott használatát. Ide tartoznak az olyan alkalmazások, mint az MI-kompatibilis videójátékok vagy a spamszűrők. Az EU-ban jelenleg használt MI-rendszerek túlnyomó többsége ebbe a kategóriába tartozik.

Kérdés lesz még persze, hogy mekkora mozgásteret érvényesítenek majd az egyes tagállamok, amikor az MI-törvényt adaptálják a saját jogrendszerükbe. De azt hiszem, itt sehol sem a rendelkezések fellazítása lesz az irány. A potenciális veszélyek nem szabadna, hogy a könnyebb irányba tereljék a jogalkalmazókat. Kérdés lesz, hogy milyen következetesek lesznek a tagállamok az MI-törvény végrehajtásában? Hiszen itt nagyon fontos lesz az EU-s szintű, sőt a globális összefogás, mert az MI – épp úgy, mint az internet - nem ismeri az országhatárokat. Egyelőre, így papíron, minden rendben lévőnek tűnik, de a puding próbája az evés, azaz a gyakorlati működés lesz. Mindezzel együtt olyan nagyok az MI-alkalmazások által nyújtott előnyök, hogy így is megéri belevágni.

Lásd még:

  • Már hatályba lépett az AI Act, Rab Árpád (vezető, innovációs labor NMHH) és Ződi Zsolt (tudományos főmunkatárs NKE)
  • Török Bernát–Ződi Zsolt (szerk.): A mesterséges intelligencia szabályozási kihívásai:(Budapest, Ludovika Egyetemi Kiadó, 2021. 538 oldal ISBN: 978 963 531 483 6)