Illusztráció (pixbay.com)

Ki ne olvasta volna St. Exupéry elbájolóan bölcs, filozofikus példázatát, s benne a róka érvelését. A kis hercegnek ezt mondja: – Nem játszhatom veled. Nem vagyok megszelídítve. – De mit jelent az, hogy megszelídíteni? – kérdi a kis herceg. – Azt jelenti: kapcsolatokat teremteni – válaszolja a róka. – Ha megszelídítesz, szükségünk lesz egymásra…. Nos, a 21. század egyetemes erkölcse vagy a szelídség lesz, a kommunikáció, a kapcsolatteremtés etikája – vagy az agresszió lesz úrrá a mindenségen, amely már ma is minden szinten tombol. Ez felemésztheti a posztmodern kultúrát, nemzeti kincsestül együtt. John Lennox, a világhírű oxfordi hívő matematika professzor pontosan erről beszél legutóbbi interjújában, amit eredetileg az Eternity News tett közzé, de a svájci Livenet.ch is közölt.

Keresztyéneket a mesterséges intelligencia (AI) fejlesztői közé!

Istenhívő fiatal tudósoknak is részt kell venniük az AI, a mesterséges intelligencia továbbfejlesztésében. Ők vihetik bele a jövő agytrösztjeibe az etikai dimenziót. Ezt az a John Lennox nyilatkozza, aki legutóbb magyarul is megjelent világsikerré vált könyvében erre a kérdésre keresi a választ: „Hol van Isten a koronavírus világában?”. Lennox az etikai megkésettség felszámolása mellett érvel:

„A technológia sokkal gyorsabban rohan előre, mint az etikai vagy etikus gondolkodás”.

Emlékeztet a vele készített interjúban arra, hogy 2017-ben sok száz tudós, filozófus és nemzetközi nagyvállalati vezető kidolgozta a magas szintű alkalmazási forgatókönyvet, amiben 23 ajánlás van. Ezek célja, hogy az AI, a mesterséges intelligenciával ne történhessen visszaélés, mert annak beláthatatlan következményei lehetnek az emberiség egész földi létezése szempontjából. A mintegy 1200 tudós három gondolati csoportban fejtette ki nézeteit. Ezek: a kutatás, az etika és az értékek helye a mesterséges intelligencia világában, illetve a hosszútávú fenntartható felhasználás kérdésköre.

Asilomari Etikai Alapelvek – 2017 – mesterséges intelligencia és felhasználói megszelídítése

Kutatási alapelvek. Az algoritmusos, artificial/mesterséges intelligencia (AI) fejlesztésével kapcsolatosan ilyen gondolatok fogalmazódtak meg: az AI kutatás célja nem valamiféle irányítatlan intelligencia létrehozása, működtetése, hanem hasznos intelligencia létrehozása. A mesterséges intelligenciába történő beruházásokat nemzetközi finanszírozással kell biztosítani. Tudomány-politikai célkitűzés, hogy a mesterséges intelligencia (AI – MI) kutatói és a döntéshozók, valamint az alkalmazók között konstruktív és egészséges véleménycsere jöjjön létre. A kutatási kultúra területén az együttműködés, a bizalom és az átláthatóság kultúráját kell támogatni a mesterséges intelligencia kutatói és fejlesztői között. Versenyelkerülés: az AI rendszert fejlesztő csapatoknak aktívan együtt kell működniük a biztonsági előírások védelme érdekében, nem pedig az előnyszerzésnek kell vezérelnie őket.

Etikai elvek és értékek. Kulcsszó az átláthatóság, a transzparencia mint etikai alapelv. Biztonság: a mesterséges intelligencia-rendszereknek biztonságosnak kell lenniük egész működési élettartamuk alatt, és ellenőrizhető módon kell működniük. A meghibásodás átláthatósága: ha egy mesterséges intelligencia-rendszer kárt okoz, meg kell tudni állapítani, hogy miért. Igazságszolgáltatási átláthatóság:

ennek a rendszernek a részvétele a bírósági döntéshozatalban minden tekintetben kielégítő magyarázatot kell, hogy adjon minden döntés esetében, amelyet az illetékes emberi hatóság ellenőrizhet is.

Felelősség: a fejlett mesterséges intelligencia rendszerek tervezői és kivitelezői érdekeltek a használat, a visszaélések elkerülése morális elveinek betartásában, felelősséggel a következmények alakulására, de nem az emberiség ellen, hanem javára.

Értékek. Érték-összehangolás: a nagymértékben autonóm mesterséges intelligencia-rendszereket úgy kell megtervezni, hogy céljaik és magatartásuk működése során biztosíthassák az emberi értékekhez való igazodásukat. Emberi értékek: az AI-rendszereket úgy kell megtervezni és működtetni, hogy összeegyeztethetők legyenek az emberi méltóság, a jogok, a szabadságjogok és a kulturális sokszínűség eszméivel. Személyes adatvédelem: az embereknek joguk van hozzáférni az AI által generált adatokhoz, kezelni és ellenőrizni azokat, mivel az AI rendszerek képesek elemezni és felhasználni ezeket az adatokat. Szabadság és magánélet: az AI alkalmazása a személyes adatokra nem korlátozhatja indokolatlanul az emberek valódi vagy vélt szabadságát. Közös előny: az AI technológiáknak minél több ember számára előnyöket kell nyújtaniuk. Közös jólét: a mesterséges intelligencia által létrehozott gazdasági jólétet széles körben meg kell osztani, az egész emberiség érdekében. Emberi irányítás:

az embereknek meg kell választaniuk, hogyan delegálják a döntéseket az AI rendszerekre, hogy megvalósítsák az emberek által választott célokat.

A felforgatás elkerülése: a magasan fejlett mesterséges intelligencia-rendszerek irányításával felruházott hatalomnak tiszteletben kell tartania és javítania kell, nem pedig rombolnia azokat a társadalmi és polgári folyamatokat, amelyektől a társadalom egészsége függ. AI fegyverkezési verseny: el kell kerülni a halálos autonóm fegyverekkel folytatott fegyverkezési versenyt.

Kép: pixabay.com

Hosszabb távú fenntarthatóság. A kapacitás óvatosságra int: kerülni kell az erős feltételezéseket a jövőbeni mesterséges intelligencia képességeinek felső határaira-határtalanságára vonatkozóan. Fontosság: a fejlett mesterséges intelligencia mély változást jelenthet a Föld élettörténetében, és arányos gondozással és erőforrásokkal kell megtervezni és kezelni a változtatásokat. Kockázatok: az AI rendszerek által jelentett kockázatokat, különösen a környezeti katasztrófát okozó vagy egzisztenciális kockázatokat, tervezési és mérséklési erőfeszítéseknek kell alávetni, arányosan szabad alkalmazni a várható hatásukat. Rekurzív önfejlesztés:

szigorú biztonsági és ellenőrzési intézkedéseknek kell alávetni azokat a mesterséges intelligencia-rendszereket, amelyeket rekurzív önfejlesztésre vagy önismétlésre terveztek oly módon, ami a minőség vagy mennyiség gyors növekedéséhez vezethet, s kikerülhet az emberi megszelídítés, kontroll alól..

Közjó: a szuper intelligenciát csak a széles körben megosztott etikai eszmék szolgálatában szabad fejleszteni, és az egész emberiség érdekében, nem pedig egyetlen állam vagy szervezet érdekében szabad alkalmazni.

Hosszú út áll előttünk – a megmaradás útja a technicizmus elvtelensége közben

A felsorolt 2017-ből származó etikai alapelvek jó kiindulást jelentenek Lennox szerint, de még nagyon hosszú tanulási folyamat áll az emberiség előtt. Két különböző dolog az, hogy ha a mesterséges intelligencia ábrázolások az irodák falán látható posztereken szerepelnek, s megint más, ha ez megragadta a vezetői pozíciókban lévők fantáziáját és szívét. A nagy problémát éppen az jelenti, hogy nagyon sokan vannak a világon, akik szerint a technikai fejlesztéseket etikai szempontok kizárásával kell felgyorsítani és komplikáció mentessé tenni. Csakhogy az igazi,

mély komplikációk a technicizmus miatt szakadnak majd az emberiségre, amikor a technikai lehetőségek öncéllá, posztmodern bálványokká válnak.

Vicky Lorrimar ausztrál akadémikusnő az emberek és a mesterséges technológiák teológiai értelmezésével foglalkozik. Visszatérő tétele: a technológiák soha nem lehetnek etikailag semlegesek. A fő kérdés ez: ki fejleszti tovább a mesterséges intelligenciát és milyen céllal? És itt már elválnak a vizek!

Vak vezet világtalant? Édeni és bábeli kísértések

Jézus példázata szerint ha vak vezet világtalant, mind a kettő a gödörbe esik (Máté 15,14). A technológiai lehetőségek bűvöletébe esett tudósok, alkalmazók nagy kísértése pontosan ez, hogy maguk is, mások is általuk a falnak mehetnek, gödörbe eshetnek. Ezért a világhírű oxfordi matematikus figyelmeztet: a lehetőség még nem minden! Pál utalt arra:

mindent szabad nékem, de nem minden használ (1Kor 10,23).

Ez ma a tudományra hatványozottan érvényes. Minden szabad, de nem minden használ. Ezért kellenek keresztyén tudósok a világ élvonalát jelentő mesterséges intelligenciát fejlesztők közé. Hogy az ember és jövő érdekű etikai szempontokra állandóan emlékeztessék a saját intelligenciájukat messze felül múló, mesterséges intelligencia produktumuk bálványozásába szédülőket.

Éberen figyelnünk kell, s még időben szólni teremtésbeli szabadságunk és méltóságunk megőrzéséért, az emberi mindenhatóság megszelídítéséért, a hamis és önvesztő édeni és bábeli mindenhatósági téveszme és tévtudat kialakulása veszélyeinek a felismeréséért és az időben történő korrekciók megtételére. Hiszen nagyon valószínű, hogy még egy édeni bukást és bábeli végzetes lépést az emberiség nem élne túl… Mesterséges intelligenciát tehát – de erős és állandó szakmai és erkölcsi kontrollal. Csak így lesz jövőnk…