Illusztráció (Fotó: pixabay.com)

Isteni teremtés – emberi produkció

Mára közszájon forgó, gyakorlatból leszűrt közmondás: “Ha lemaradsz, kimaradsz”. Olyan alapvető életszemléletet tükröz ez, ami a keresztyének számára is elgondolkodtató, ösztönző.

Akár ez is lehetne eszmefuttatásunk keretmondata, aminek célja, hogy felekezeti határainkon túltekintő, felelős keresztyénekként próbáljuk megfogalmazni azokat a gondokat és gondolatokat, önmagunkkal és a közgondolkodással kapcsolatos elvárásainkat, amelyek a digitális világkorszak, a 04 ipari forradalom, illetve a mesterséges intelligencia egyre nagyobb térhódítása láttán fogalmazódik meg. Azaz értelmezzük, megszólaltatjuk a keresztyén világjelenlétből adódó bibliai üzeneteket, istenképűségünk őrzésének szükségességét, emberképünk követelményeit, erkölcsi értékrendünket. Az állandó kihívások közben új fogalmakat tanulunk, esetleg alkotunk is, mint például a címbe emelt tech-etika, a korábbi írásaimban már szereplő etikai globealance, világegyensúly vagy a következőkben kifejtésre váró transzhumán, és egyéb fogalmak.

Nemrég történt, hogy beszélgetve ismerősökkel, többen ezt az egybehangzó kérdést tették fel: ha a mesterséges intelligencia (=MI) már ma is annyi pozitív módon segíti életünket a gyógyászatban, a közlekedésben,  az oktatásban, a banki világban, a kommunikációban, a személyes kapcsolattartásban, jogosan vetődik fel a kérdés: kell-e félnünk az MI-től? 

Az utóbbi években hatalmassá duzzadt szakirodalom néhány főbb vonulatát valamennyire átszemlézve, a válaszom röviden ennyi: önmagában véve az MI-től, az Algoritmustól nincs mit félnünk. De azoktól igen, akik képesek rosszra programozni, táplálni a gépet, s olyan céllal, ami valójában  emberellenes, etikátlan eredményhez vezet a gépnek rendelkezésre álló big data, hatalmas információhalmaz révén. Mivel a mesterséges intelligencia értéksemleges, nincs erkölcsi tudata, egyelőre öntudata sem, de istentudata vagy istenhite sincs, csak információi mind erről, tehát az infók nem állnak össze személyes meggyőződéssé, mert hiányzik a teremtés isteni szikrája vagy Lelke belőle. Alapvető faktum, hogy az igen csak tiszteletre méltó, okos mérnökök, informatikusok nem teremtettek mesterséges intelligenciát, hanem „csak” megtervezték, megkonstruálták és folyamatosan tervezik, programozzák gépi, technikai csúcsproduktumaikat.

Isten embert teremtett, a bibliai antropológia alapaktusaként „az élet leheletét lehelte az orrába, így lett az ember élőlény” (1Móz 1,7).

Isten kreált, teremtett, az ember viszont produkál, létrehoz, tervez MI-t és robotot. S ki tudja, még mit. Ez a lényegi, esszenciális különbség az isteni teremtés és az emberi alkotás között. Az ember a fejével, gondolataival produkál, Isten a Lelkéből lehel, lényéből juttat az embernek, szívéből ad nekünk értelmi-érzelmi kultúrát. És ez az alapvető különbség az ember teremtése és a mesterséges intelligencia, a robotok megalkotása között. 

Mindazonáltal a második kérdés is nagyon izgalmas: a jónak teremtett ember és a reményeink szerint jónak alkotott robot, MI mégis félelmetes tud lenni. Ezt az Isten elleni édeni lázadás, az önállósulás, sőt az istenhasonulás sugalmazott vágya és eltökéltsége („olyanokká lesztek, mint az Isten, tudni fogjátok, mi a jó és mi a rossz” – 1Móz 3,5) már kőkeményen felvetette. Ez a minden emberre szétterjedt istenhasonulás-vágy, ami nem az istenképűség szép lehetőségével, szabadságával, hanem a konkurrencia, a lázadás mélységes sebzettségével,  engedetlenségi ösztönéből táplálkozik,  megírta a maga véres-könnyes-fájdalmas históriáját a földön. Az ember tragédiáját évezredekkel Madách remeklése előtt. A bűntől átvérzett történelemlapokat (Pilinszky) hagyva ránk. A mesterséges intelligenciával kapcsolatosan ezért alapvetően fontos és döntő kérdés:

megismétlődik-e az első bűnbeesés vagy sikerül kiküszöbölni, elkerülni ezt a kígyómérgű, kígyóravasz csapdát az emberi szellem alkotásával, az MI-vel?

Itt van a legmélyebb gyökere a közös keresztyén felelősségetika mindennemű és halaszthatatlan összefogásának, az MI-vezérelte, a többes szám első személyű közös keresztyén válaszkeresésnek a mesterséges intelligencia Sitz im Lebenjével, létünkben, sorsunkban elfoglalt helyével és szerepével kapcsolatban. A közös keresztyén szellemi-erkölcsi küzdelem az algoritmus, az MI jövősegítő, emberiségsegítő alkalmazásáért éppen ezért napjaink elsőrendű kihívásai között szerepel.

***

Felelős keresztyén tech-etika a közérdekért

Mi is a tech-etika vagy első hallásra talán érthetőbben: a digitális etika?  A fogalmat a szakirodalom szintjére a svájci, zürichi alapítású etikai világháló, a globethics.net alapítója, a református szociáletika tudós, dr. Chr. Stückelberger és a digitális jogban tudós munkatársa, Pavan Duggal idén megjelent közös munkája emelte fel. A már évekkel ezelőtt körvonalazódott fogalomnak világszerte növekvő ismertséget adott a DATA ETHICS: Building Trust (Adat-etika: Bizalom-építés – Hogyan szolgálják a digitális technológiák az emberiséget) című könyvük.

Ennek 45 fejezete etikai reflexiók és ajánlások széles skáláját tartalmazza. Ezek nyolc igen fontos területet ölelnek fel:

a) értékek, bizalom és jog összefüggéseit,
b) a mesterséges intelligencia, robotok és emberek etikus viszonyát,
c) egészség és idegtudomány területén az MI felhasználását,
d) a vallások a digitális igazságosságért kiemelten fontos akcióterületét,
e) mezőgazdaság, üzlet, pénzügy és az MI,
f) biztonság, háború, béke és az MI,
g) adatkormányzás, geopolitika és az MI,
h) média, oktatás, kommunikáció és az MI etikus összefüggéseit.

Ma már Zürichben és Genfben folyik egy új hivatás, a technikai etikusok képzése. Főként akadémiai körökben már korábban felvetődött az a követelmény, miként lehet az ultramodern technológiákat, így az MI-t is, erkölcsi kontroll alatt tartani. Így jutottak el a kulcsig: a kutatások és az alkalmazás jogi, etikai normalizálásához. Gyakorlatilag egy teljesen új iparág körvonalazódik a láthatáron, a tech-etikusok új hivatásköre, ami új típusú, felelősen gondolkodó technikai munkaerőt képez a jövőnek. Olyan tanulókat, akik speciális képzésben részesülnek, ennek eredményeként érettségivel, s így etikus technológusok lehetnek. A képzők képzése már a világ több helyén, így Svájcban és az USA-ban megkezdődött, és távoktatás formájában már multiplikálva történik az oktatás. A program egyik eleme a „Technically Human” kurzus, a technikai humán-kurzus.

Arra összpontosít, hogy olyan történeteket dolgozzon fel, tegyen ismertté, amelyekben az emberek mesélnek a technológiáról, amibe még a szépirodalmi narratívák is bekerülnek.

Ezek a digitális-technológiai Odüsszeiák, történetek ráirányítják a diákok figyelmét és megértését olyan témákra, mint például, hol vannak az etikai kérdések a technológiában, új technikákban,  ki a felelős értük, és kreatív együtt gondolkodásra serkentenek, ha ők lesznek a jövőbeli technológusok, akiknek célja: miként tudnának jobb technológiákat létrehozni. A jövő szakemberei így a technológia ártalmainak csökkentésére kötelezik el magukat. Már most is sok diák és fiatal szakember van, aki készséggel tevékenykedik a közérdekű technológia területén, és rengeteg kutatást végez. Már vannak intézetek és tudományos programok, melyek jelentős tudásbankot építenek.

***

Nyolc veszély, ami kiált a tech-etikáért és a tech-etikus közgondolkodásért

A mesterséges intelligencia (AI) nem olyan veszélyes, mint gondolnánk. Ugyanakkor a mesterséges intelligencia nem tökéletes. Ezt mutatja a mesterséges intelligencia nyolc hátránya. Pontosan ez indokolja a fokozott tech-etikai odafigyelést és a közérdekű tudatosságot.

1. A mesterséges intelligencia nem empatikus. Az empátia az a képesség, hogy megértsük és megosszuk egy másik személy érzéseit. Ezzel az emberek rendelkeznek, a robotok pedig nem.

2. A mesterséges intelligencia manipulálhatja az embereket és a technológiát. Az autonóm járművek manipulálása a közvélemény egyik fő aggodalma. Ez azért van, mert az MI-AI-alapú technológiák nem tökéletesek. A manipuláció első típusa az, amikor az MI-AI-kompatibilis technológiát emberek manipulálják, és ez kárt okoz az embernek. A manipuláció második típusa akkor fordul elő, amikor az MI-AI-kompatibilis technológia más AI-kompatibilis technológiákat manipulál, ami kárt okozhat az embereknek.

3. Az AI-kompatibilis technológiák nem képesek megérteni a kontextust, és nem tudnak döntést hozni szokatlan helyzetekben. Az AI-alapú technológiák által a döntések meghozatalához használt algoritmusok gyakran elfogultak. Ez azért van, mert az adatok, amelyekből tanulnak, valamilyen módon torzulhatnak. Az algoritmikus torzítás akkor is előfordulhat, amikor az adatokat elfogult módon gyűjtik és táplálják be nekik. Például, ha egy algoritmus úgy tanul meg bizonyos témákat, hogy csak a politikai összképnek egyik oldaláról olvas híreket, akkor elfogult lesz a politikai spektrum többi szereplőjével.

4. A mesterséges intelligencia révén történő döntéshozatal terén hiányzik az átláthatóság és az elszámoltathatóság. A mesterséges intelligenciával kapcsolatos döntéshozatal átláthatóságának és elszámoltathatóságának hiánya jelentős probléma. Ez azért van, mert ezek a rendszerek gyakran átláthatatlanok, ami megnehezíti annak megértését, hogyan hoznak döntéseket és mi az indokuk. Ez elfogultsághoz, tisztességtelenséghez vagy más nem kívánt következményekhez vezethet.

5. Erkölcsi kérdések a szuperintelligencia építésében. A mesterséges intelligenciával kapcsolatos erkölcsi problémák kérdése, mint feljebb már részleteztük, nagyon fontos. Az autonóm fegyverek lehetősége nagyon jó példa erre. Mi van, ha nincsenek törvények vagy rendeletek, amelyek megállítanák ezeknek a fegyvereknek a fejlesztését? Lehetséges, hogy a hadsereg felhasználja őket az ellenség megölésére anélkül, hogy aggódnia kellene a járulékos károk miatt. Sok más hasonló példa is van, így világos, hogy már most el kell kezdenünk gondolkodni ezeken az erkölcsi kérdéseken, a tech-etikai képzésen minél szélesebb körben.  A jövőbeni komoly károk így előzhetők meg vagy csökkenthetők.  

6. Az MI-AI negatív hatással van az emberek foglalkoztatására és a gazdasági növekedésére. A mesterséges intelligencia munkahelyi használata exponenciális növekedést mutatott. A becslések szerint 2025-re a mesterséges intelligencia az összes munkahely egyharmadát fogja átvenni. Nem meglepő, hogy az emberek félnek attól, hogy ez mit jelent a jövőjükre és a megélhetésükre nézve. A félelem jogos, mivel számos iparág már látja az automatizálás munkahelyekre és gazdasági növekedésre gyakorolt hatását, a mezőgazdaság és a feldolgozóipar pedig két olyan ágazat, amelyet súlyosan megzavarhatnak a mesterséges intelligencián alapuló technológiák.

7. A mesterséges intelligencia biztonsági kockázatot jelent. A mesterséges intelligencia egy feltörekvő technológia, amely képes volt megoldani olyan problémákat, amelyek korábban megoldhatatlanok voltak. Hozzájárult új termékek, szolgáltatások és folyamatok kifejlesztéséhez. Ahogy a mesterséges intelligencia egyre fejlettebbé válik, a jövőben számos problémára megoldást kínálhat. A mesterséges intelligencia azonban nem kockázatmentes. Az AI-alapú algoritmusok érzékenyek a hacker támadásokra. Ez azt jelenti, hogy a hackerek hamis profilokat hozhatnak létre a közösségi médiában vagy a csevegő alkalmazásokban, hogy információkat lopjanak a gyanútlan felhasználóktól. Ha egy hackernek sikerül ellopnia valamelyikünk személyes adatait, azokat olyan módon használhatja fel, ami árthat valamennyi „meglopottnak”.

8. Sok helyen, országban hiányoznak azok az etikai iránymutatások, jogszabályok, amelyek garantálnák, hogy ezek a rendszerek biztonságosak maradjanak. Komoly problémát jelent az etikai iránymutatások hiánya, a közérdekű tájékoztatás, iskolai oktatás arról, hogy ezek a rendszerek biztonságosak legyenek. (A 8 veszély forrásról ITT lehet bővebben olvasni).

Keresztyén felelősségünk a digitális világban kiterjed a mesterséges intelligencia szemléletére, felhasználásának emberséges, bizalomépítő hatására. Vannak jó példák, amelyek ösztönöznek minket is, hogy a katolikus-protestáns, s a világvallások  összefogásában még számos és szükséges, sürgető teendő rejlik. Írnunk, beszélnünk kell ezekről. Hiszen ez a keresztyén/keresztény írástudók felelőssége is!

(Dr. Békefy Lajos)