Brian Patrick Green a Markkula Center for Applied Ethics technológiai etikai igazgatója. Ez a cikk egy korábbi cikk frissítése, amely itt olvasható . A nézetek az ő sajátjai.

A mesterséges intelligencia és a gépi tanulási technológiák gyorsan átalakítják a társadalmat, és ez a folyamat a következő évtizedekben is folytatódni fog. Ennek a társadalmi átalakulásnak mély etikai hatásai lesznek, mivel ezek az erőteljes új technológiák egyszerre javítják és zavarják meg az emberi életet. A mesterséges intelligencia, mint az emberi intelligencia externalizációja, felerősített formában kínálja nekünk mindazt, ami az emberiség már most is, jót és rosszat egyaránt. Sok minden forog kockán. A történelemnek ezen a válaszútján nagyon alaposan át kell gondolnunk, hogyan valósítsuk meg ezt az átmenetet, különben azt kockáztatjuk, hogy természetünk zordabb oldalát erősítjük meg, nem pedig a fényesebbet.”

Miért válik most problémává az AI etikája? A neurális hálózatokon keresztül történő gépi tanulás (ML) három okból is rohamosan fejlődik: 1) Az adathalmazok méretének óriási növekedése; 2) A számítási teljesítmény óriási növekedése; 3) Az ML-algoritmusok óriási fejlődése és a megírásukhoz szükséges több emberi tehetség. Mindhárom trend a hatalom központosítását jelenti, és “A nagy hatalommal nagy felelősség is jár” .

A Markkula Center for Applied Ethics intézményként már évek óta mélyen elgondolkodik a mesterséges intelligencia etikáján. Ez a cikk tudományos konferenciákon elhangzott előadásokkal kezdődött, és azóta tudományos értekezéssé bővült (linkek alább), legutóbb pedig a “Mesterséges intelligencia és etika: Tizenhat kérdés” című előadásomra, amelyet az Egyesült Államokban és nemzetközi szinten tartottam. Ennek szellemében ajánlom ezt a jelenlegi listát:

1. Műszaki biztonság

Az első kérdés minden technológiával kapcsolatban az, hogy az rendeltetésszerűen működik-e. A mesterséges intelligencia rendszerek úgy fognak működni, ahogy ígérik, vagy meghibásodnak? Ha és amikor kudarcot vallanak, mi lesz a kudarcok következménye? És ha függünk tőlük, képesek leszünk-e túlélni nélkülük?

Például több ember halt meg félautonóm autóbalesetben, mert a járművek olyan helyzetekbe kerültek, amelyekben nem tudtak biztonságos döntéseket hozni. Bár a felelősséget korlátozó, nagyon részletes szerződések megírása jogilag csökkentheti a gyártó felelősségét, erkölcsi szempontból nemcsak a felelősség marad a vállalatnál, hanem maga a szerződés is tekinthető a jogos felelősség elkerülésének etikátlan rendszerének.

A technikai biztonság és a kudarc kérdése elkülönül attól a kérdéstől, hogy egy megfelelően működő technológiát hogyan lehet jóra vagy rosszra használni (3. és 4. kérdés, alább). Ez a kérdés csupán a működésre vonatkozik, mégis ez az alap, amelyre az elemzés többi részének épülnie kell.

2. Átláthatóság és magánélet

Ha már megállapítottuk, hogy a technológia megfelelően működik, vajon valóban meg tudjuk-e érteni, hogyan működik, és megfelelően tudunk-e adatokat gyűjteni a működéséről? Az etikai elemzés mindig attól függ, hogy először a tényeket ismerjük meg – csak ezután kezdődhet az értékelés.

Kiderül, hogy egyes gépi tanulási technikáknál, például a neurális hálózatok mélytanulásánál nehéz vagy lehetetlen valóban megérteni, hogy a gép miért hozza meg azokat a döntéseket, amelyeket meghoz. Más esetekben előfordulhat, hogy a gép meg tud magyarázni valamit, de a magyarázat túl bonyolult ahhoz, hogy az ember megértse.

2014-ben például egy számítógép bebizonyított egy matematikai tételt, olyan bizonyítással, amely legalábbis akkoriban hosszabb volt, mint a teljes Wikipedia enciklopédia . Az ilyen jellegű magyarázatok lehet, hogy igaz magyarázatok, de az emberek soha nem tudhatják meg biztosan.

Egy további szempont, hogy általában minél hatalmasabb valaki vagy valami, annál átláthatóbbnak kellene lennie, míg minél gyengébb valaki, annál több joga kellene, hogy legyen a magánélethez. Ezért az a gondolat, hogy az erős mesterséges intelligenciák eredendően átláthatatlanok lehetnek, nyugtalanító.

3. Hasznos felhasználás & Képesség a jóra

A mesterséges intelligencia fő célja, mint minden más technológiának, hogy segítsen az embereknek hosszabb, virágzóbb, teljesebb életet élni. Ez jó, és ezért amennyiben a mesterséges intelligencia ilyen módon segíti az embereket, örülhetünk és értékelhetjük az általa nyújtott előnyöket.

A további intelligencia valószínűleg az emberi törekvések szinte minden területén javulást fog hozni, beleértve például a régészetet, az orvosbiológiai kutatást, a kommunikációt, az adatelemzést, az oktatást, az energiahatékonyságot, a környezetvédelmet, a mezőgazdaságot, a pénzügyeket, a jogi szolgáltatásokat, az orvosi diagnosztikát, az erőforrás-gazdálkodást, az űrkutatást, a közlekedést, a hulladékgazdálkodást és így tovább.

Csak egy konkrét példa a mesterséges intelligencia előnyeire: egyes mezőgazdasági gépek ma már olyan számítógépes rendszerekkel rendelkeznek, amelyek képesek vizuálisan azonosítani a gyomokat, és apró, célzott gyomirtószeradagokkal permetezni őket. Ez nemcsak a környezetet védi azáltal, hogy csökkenti a vegyszerek használatát a növényeken, hanem az emberi egészséget is védi azáltal, hogy csökkenti az ilyen vegyszereknek való kitettséget.

4. Rosszindulatú felhasználás & Gonoszságra való képesség

Egy tökéletesen jól működő technológia, például egy nukleáris fegyver, ha rendeltetésszerűen használják, mérhetetlen gonoszságot okozhat. A mesterséges intelligenciát, akárcsak az emberi intelligenciát, rosszindulatúan fogják használni, efelől nincs kétség.

A mesterséges intelligencia által vezérelt megfigyelés például már most is széles körben elterjedt, megfelelő (pl. repülőtéri biztonsági kamerák), talán nem megfelelő (pl. állandóan bekapcsolt mikrofonokkal ellátott termékek az otthonunkban) és egyértelműen nem megfelelő (pl. olyan termékek, amelyek segítenek az önkényuralmi rezsimeknek azonosítani és elnyomni polgáraikat) környezetben egyaránt. További rosszindulatú példák lehetnek a mesterséges intelligenciával támogatott számítógépes behatolás és a halálos autonóm fegyverrendszerek (LAWS), más néven “gyilkos robotok”. További, különböző mértékben hihető félelmek közé tartoznak a “2001: Űrodüsszeia”, a “Wargames” és a “Terminator” című filmekben szereplő forgatókönyvek.”

Míg a filmek és a fegyvertechnológiák szélsőséges példáknak tűnhetnek arra, hogy az AI hogyan erősítheti meg a gonoszt, ne feledjük, hogy a verseny és a háború mindig a technológiai fejlődés elsődleges mozgatórugói, és hogy a hadseregek és a vállalatok már most is dolgoznak ezeken a technológiákon. A történelem azt is mutatja, hogy a nagy gonoszságok nem mindig teljesen szándékosak (pl. az I. világháborúba botlás és a hidegháború különböző nukleáris közelharcai), és így a pusztító erő birtoklása, még ha nem is áll szándékunkban használni, akkor is katasztrófával jár. Emiatt a technológia bizonyos típusainak tiltása, betiltása és lemondása lenne a legmegfontoltabb megoldás.

5. Elfogultság az adatokban, a képzési halmazokban stb.

A neurális hálózatok, a mesterséges intelligencia jelenlegi munkagépeinek egyik érdekessége, hogy gyakorlatilag egy számítógépes programot egyesítenek a neki adott adatokkal. Ez számos előnnyel jár, de azzal a kockázattal is jár, hogy az egész rendszert váratlan és potenciálisan káros módon torzítja.

Már felfedeztek algoritmikus torzításokat, például a bűnügyi büntetéstől a fényképek feliratozásáig terjedő területeken. Ezek az elfogultságok nem csupán kínosak az ilyen hibás termékeket előállító vállalatok számára; konkrét negatív és káros hatásuk van azokra az emberekre, akik ezen elfogultságok áldozatai, valamint csökkentik a bizalmat a vállalatok, a kormányzat és más intézmények iránt, amelyek esetleg ezeket az elfogult termékeket használják. Az algoritmikus elfogultság jelenleg a mesterséges intelligencia egyik legnagyobb problémája, és ez a jövőben is így marad, hacsak nem törekszünk arra, hogy technológiai termékeinket jobbá tegyük, mint amilyenek vagyunk. Ahogy egy személy mondta az AI Partnerség első találkozóján: “Minden emberi hibánkat mesterséges formában fogjuk reprodukálni, hacsak nem törekszünk már most arra, hogy ez ne így legyen.”

6. Munkanélküliség / céltalanság & Jelentés

Már most is sokan érzékelik, hogy az AI veszélyt jelent majd a munkahelyek bizonyos kategóriáira. Valóban, az ipar automatizálása az ipari forradalom kezdete óta jelentős mértékben hozzájárult a munkahelyek megszűnéséhez. Az AI egyszerűen kiterjeszti ezt a tendenciát több területre, beleértve olyan területeket is, amelyekről hagyományosan úgy gondolták, hogy biztonságosabbak az automatizálással szemben, például a jog, az orvostudomány és az oktatás. Nem világos, hogy a munkanélküliek végül milyen új szakmákba tudnak majd átmenni, bár minél több köze van a munkának a másokról való gondoskodáshoz, annál valószínűbb, hogy az emberek más emberekkel akarnak majd foglalkozni, nem pedig mesterséges intelligenciával.

A foglalkoztatással kapcsolatos aggodalomhoz kapcsolódik az az aggodalom, hogy az emberiség hogyan tölti az idejét, és mitől lesz egy jól eltöltött élet. Mit fognak csinálni a munkanélküliek milliói? Milyen jó céljaik lehetnek? Mivel járulhatnak hozzá a társadalom jólétéhez? Hogyan fogja a társadalom megakadályozni, hogy kiábránduljanak, megkeseredjenek, és olyan gonosz mozgalmakba sodródjanak, mint a fehér felsőbbrendűség és a terrorizmus?

7. Növekvő társadalmi-gazdasági egyenlőtlenségek

A munkanélküliség problémájához kapcsolódik az a kérdés, hogyan fognak az emberek túlélni, ha a munkanélküliség nagyon magas szintre emelkedik. Honnan fognak pénzt szerezni önmaguk és családjuk fenntartására? Miközben az árak csökkenhetnek a termelési költségek csökkenése miatt, azok, akik a mesterséges intelligenciát irányítják, valószínűleg annak a pénznek a nagy részét is learatják, amely egyébként a most munkanélküliek bérére ment volna, és ezért a gazdasági egyenlőtlenség növekedni fog. Ez kihatással lesz a nemzetközi gazdasági egyenlőtlenségekre is, és ezért valószínűleg komoly fenyegetést jelent a kevésbé fejlett nemzetekre.

Egyes vélemények szerint az egyetemes alapjövedelem (UBI) lenne a probléma megoldása, de ehhez a nemzetgazdaságok jelentős átalakítására lenne szükség. Különböző más megoldások is lehetségesek erre a problémára, de ezek mind az emberi társadalom és a kormányzat potenciálisan jelentős változtatásával járnak. Végső soron ez egy politikai probléma, nem pedig technikai, ezért ezt a megoldást, mint az itt leírtak közül sok más problémára, politikai szinten kell megoldani.

8. Környezeti hatások

A gépi tanulási modellek betanításához óriási mennyiségű energiára van szükség, olyannyira, hogy a költségek több tízmillió dollárra vagy annál is többre rúghatnak. Mondanom sem kell, hogy ha ez az energia fosszilis tüzelőanyagokból származik, akkor ez nagy negatív hatással van az éghajlatváltozásra, nem beszélve arról, hogy a szénhidrogén-ellátási lánc más pontjain is káros lehet.

A gépi tanulás az elektromos áram elosztását és felhasználását is sokkal hatékonyabbá teheti, valamint a biodiverzitás, a környezetvédelmi kutatás, az erőforrás-gazdálkodás stb. problémáinak megoldásán is dolgozhat. A mesterséges intelligencia néhány nagyon alapvető módon a hatékonyságra összpontosító technológia, és az energiahatékonyság az egyik módja annak, hogy a képességeit irányítani lehessen.

Összességében úgy tűnik, hogy a mesterséges intelligencia nettó pozitív hatással lehet a környezetre – de csak akkor, ha valóban erre a pozitív célra irányul, és nem csak az energia más célokra történő felhasználására.

9. Az etika automatizálása

A mesterséges intelligencia egyik erőssége, hogy automatizálhatja a döntéshozatalt, ezáltal csökkentve az emberre nehezedő terheket és felgyorsítva – potenciálisan jelentősen felgyorsítva – bizonyos típusú döntéshozatali folyamatokat. A döntéshozatal automatizálása azonban hatalmas problémákat fog jelenteni a társadalom számára, mert ha ezek az automatizált döntések jók, akkor a társadalom jól jár, ha viszont rosszak, akkor a társadalom kárt szenved.

Amint az AI-ügynökök egyre több döntési jogkört kapnak, valamilyen etikai normákat kell beléjük kódolni. Ezt egyszerűen nem lehet megkerülni: az etikus döntéshozatali folyamat lehet olyan egyszerű, mint egy program követése egy juttatás igazságos elosztása érdekében, amelyben a döntést emberek hozzák és algoritmusok hajtják végre, de lehet, hogy sokkal részletesebb etikai elemzéssel is jár, még akkor is, ha mi, emberek azt szeretnénk, ha nem így lenne – ez azért van, mert az AI olyan sokkal gyorsabban fog működni, mint az emberek, hogy bizonyos körülmények között az emberek az emberi lassúság miatt “kimaradnak” az ellenőrzésből. Ez már most is előfordul a kibertámadásoknál és a nagyfrekvenciás kereskedésnél (mindkettő tele van etikai kérdésekkel, amelyeket általában figyelmen kívül hagynak), és ez csak rosszabb lesz, ahogy az AI egyre nagyobb szerepet kap a társadalomban.

Mivel az AI ilyen erős lehet, jobb, ha az etikai normák, amelyeket adunk neki, jók lesznek.

10. Morális leépülés & Debilitás

Ha átadjuk döntéshozatali képességeinket a gépeknek, kevésbé leszünk jártasak a döntéshozatalban. Ez például jól ismert jelenség a repülőgép-pilóták körében: a robotpilóta mindent el tud végezni a repülőgép vezetésével kapcsolatban, a felszállástól a leszállásig, de a pilóták szándékosan úgy döntenek, hogy kritikus pillanatokban kézzel irányítják a gépet (pl.,

Mivel a mesterséges intelligencia egyik felhasználási területe az lesz, hogy bizonyos típusú döntések (pl. helyesírás, vezetés, tőzsdei kereskedés stb.) meghozatalában segítse vagy helyettesítse az embert, tisztában kell lennünk azzal, hogy az ember rosszabbá válhat ezekben a képességekben. A legszélsőségesebb formában, ha a mesterséges intelligencia elkezd helyettünk etikai és politikai döntéseket hozni, akkor mi is rosszabbak leszünk az etikában és a politikában. Lehet, hogy éppen akkor csökkentjük vagy visszafogjuk erkölcsi fejlődésünket, amikor hatalmunk a legnagyobb, döntéseink pedig a legfontosabbak lesznek.

Ez azt jelenti, hogy az etika tanulmányozása és az etikai képzés most fontosabb, mint valaha. Meg kell határoznunk azokat a módokat, amelyekkel a mesterséges intelligencia ténylegesen javíthatja etikai tanulásunkat és képzésünket. Soha nem szabad megengednünk magunknak, hogy az etikában íróasztalhoz kerüljünk és legyengüljünk, vagy amikor a technológiánk végül nehéz döntések elé állít minket, és olyan problémákat kell megoldanunk – olyan döntéseket és problémákat, amelyeket talán már az őseink is képesek lettek volna megoldani -, a jövő embere nem biztos, hogy képes lesz rá.

Az íróasztalhoz kerülésről bővebben lásd ezt a cikket és Shannon Vallor eredeti cikkét a témában.

11. A mesterséges intelligencia tudata, személyiség és “robotjogok”

Egyes gondolkodók azon tűnődnek, hogy a mesterséges intelligenciák végül öntudatra ébredhetnek-e, elérhetik-e saját akaratukat, vagy más módon megérdemlik-e a hozzánk hasonló személyként való elismerést. Jogi értelemben a személyiséget már megadták a vállalatoknak és (más országokban) a folyóknak, így bizonyára nincs szükség tudatosságra még azelőtt sem, hogy jogi kérdések felmerülnének.

Morális értelemben előre láthatjuk, hogy a technológusok megpróbálják majd a lehető legemberibb mesterséges intelligenciákat és robotokat létrehozni, és talán egy nap olyan jó utánzatok lesznek, hogy elgondolkodunk azon, vajon lehetnek-e öntudatuk és érdemelnek-e jogokat – és ezt talán nem tudjuk majd véglegesen megállapítani. Ha a jövő embere arra a következtetésre jut, hogy a mesterséges intelligenciák és robotok méltóak lehetnek az erkölcsi státuszra, akkor az óvatosság oldalára kell állnunk, és meg kell adnunk azt.

A teremtményeink státuszával kapcsolatos bizonytalanság közepette azt fogjuk tudni, hogy nekünk, embereknek erkölcsi jellemünk van, és hogy – egy nem pontos arisztotelészi idézetet követve – “azzá válunk, amit ismételten teszünk”. Nem szabad tehát rosszul bánnunk a mesterséges intelligenciával és a robotokkal, különben hozzászoktatjuk magunkat ahhoz, hogy hibás jellemek legyenek, függetlenül a mesterséges lények erkölcsi státuszától, akikkel kapcsolatba kerülünk. Más szóval, függetlenül a mesterséges intelligenciák és robotok státuszától, saját erkölcsi karakterünk érdekében jól kell bánnunk velük, vagy legalábbis nem szabad visszaélnünk velük.

12. AGI és szuperintelligencia

Ha vagy amikor az AI eléri az emberi intelligencia szintjét, és mindent olyan jól csinál, amit az emberek is tudnak, mint az átlagember, akkor az egy Mesterséges Általános Intelligencia lesz – egy AGI -, és ez lesz az egyetlen másik ilyen intelligencia, amely emberi szinten létezik a Földön.

Ha vagy amikor az AGI meghaladja az emberi intelligenciát, akkor szuperintelligenciává válik, egy olyan entitássá, amely potenciálisan sokkal okosabb és képzettebb, mint mi vagyunk: olyasmivé, amivel az emberek eddig csak a vallásokban, mítoszokban és történetekben foglalkoztak.

Az itt fontos, hogy az AI technológia rendkívül gyorsan fejlődik. A globális vállalatok és kormányok versenyfutásban vannak, hogy magukénak vallják a mesterséges intelligencia hatalmát. Ugyanilyen fontos, hogy nincs ok arra, hogy a mesterséges intelligencia fejlődése miért állna meg az AGI-nél. A mesterséges intelligencia skálázható és gyors. Az emberi aggyal ellentétben, ha több hardvert adunk az AI-nak, az egyre többet és többet fog tenni, egyre gyorsabban és gyorsabban.

Az AGI vagy a szuperintelligencia megjelenése az emberiség trónfosztását fogja jelenteni, mint a legintelligensebb dolog a Földön. Még soha nem találkoztunk (az anyagi világban) nálunk okosabb dologgal. Valahányszor a Homo sapiens a földi élet történetében más intelligens emberi fajjal találkozott, a másik faj vagy genetikailag összeolvadt velünk (mint a neandervölgyiek), vagy kihalt. Ahogy az AGI-vel és a szuperintelligenciával találkozunk, ezt szem előtt kell tartanunk; bár mivel a mesterséges intelligencia egy eszköz, talán vannak még módszerek az ember és a gép közötti etikai egyensúly fenntartására.

13. Az AI-tól való függés

Az ember függ a technológiától. Mindig is így volt, amióta csak “emberek” vagyunk; a technológiai függőségünk szinte az, ami fajként meghatároz bennünket. Ami azonban korábban csak sziklák, botok és bundaruhák voltak, mára sokkal összetettebbé és törékenyebbé vált. Az áram vagy a mobilkapcsolat elvesztése komoly problémát jelenthet, pszichológiai vagy akár orvosi szempontból is (ha vészhelyzet van). És nincs olyan függőség, mint az intelligenciafüggőség.

Az intelligenciafüggőség egy olyan függőségi forma, mint a gyermeké a felnőtté. A gyerekek sokszor a felnőttekre támaszkodnak, hogy gondolkodjanak helyettük, és idősebb korunkban, amikor egyeseknél kognitív hanyatlás tapasztalható, az idősek is a fiatalabb felnőttekre támaszkodnak. Most képzeljük el, hogy a gyermekekről és az idősekről gondoskodó középkorú felnőttek maguk is a mesterséges intelligenciától függenek, hogy irányítsa őket. Nem maradnának emberi “felnőttek”, csak “AI felnőttek”. Az emberiség a mesterséges intelligencia gondozóink gyermekeivé válna.

Ez persze felveti a kérdést, hogy mit tenne egy infantilizált emberi faj, ha a mesterséges intelligencia szüleink valaha is meghibásodnának. Az AI nélkül, ha függnénk tőle, olyanok lehetnénk, mint az elveszett gyerekek, akik nem tudják, hogyan vigyázzanak magukra vagy a technológiai társadalmunkra. Ez az “elveszettség” már most is megtörténik, amikor például az okostelefonok navigációs alkalmazásai meghibásodnak (vagy egyszerűen lemerül az akkumulátor).

Már most jócskán elindultunk a technológiai függőség felé vezető úton. Hogyan tudunk már most felkészülni, hogy elkerüljük a kifejezetten az intelligenciától való függés veszélyeit?

14. AI-alapú függőség

Az okostelefonos alkalmazások készítői tudományt csináltak a függőségből, és az AI-alapú videojátékok és alkalmazások a drogokhoz hasonlóan függőséget okozhatnak. Az AI számos emberi vágyat és gyengeséget képes kihasználni, beleértve a célkeresést, a szerencsejátékot, a kapzsiságot, a libidót, az erőszakot és így tovább.

A függőség nemcsak manipulál és irányít bennünket, hanem más, fontosabb dolgoktól is visszatart minket – oktatási, gazdasági és társadalmi dolgoktól. Rabszolgasorba taszít minket, és elpazarolja az időnket, amikor valami érdemlegeset tehetnénk. Azzal, hogy a mesterséges intelligencia folyamatosan többet tud meg rólunk, és egyre keményebben dolgozik azon, hogy tovább kattintgassunk és görgessünk, milyen reményünk van arra, hogy kiszabaduljunk a karmai közül? Vagy inkább az alkalmazások készítőinek karmai közül, akik ezeket a mesterséges intelligenciákat hozzák létre, hogy csapdába ejtsenek minket – mert nem a mesterséges intelligenciák döntenek úgy, hogy így bánnak az emberekkel, hanem más emberek.

Amikor erről a témáról beszélek a diákok bármelyik csoportjával, azt tapasztalom, hogy mindegyikük “rabja” egyik vagy másik alkalmazásnak. Lehet, hogy nem klinikai függőségről van szó, de a diákok így definiálják, és tudják, hogy kihasználják és ártanak nekik. Ezt az alkalmazásgyártóknak abba kell hagyniuk: A mesterséges intelligenciát nem szabadna úgy tervezni, hogy szándékosan kihasználja az emberi pszichológia sebezhetőségeit.

15. Elszigeteltség és magány

A társadalom a magány válságában van. Nemrég például egy tanulmány megállapította, hogy “200 000 idősebb ember az Egyesült Királyságban több mint egy hónapja nem beszélgetett barátjával vagy rokonával” . Ez szomorú helyzet, mert a magány szó szerint ölni tud. Ez egy közegészségügyi rémálom, nem beszélve arról, hogy rombolja a társadalom szerkezetét: az emberi kapcsolatainkat. A technológiának annyi negatív társadalmi és pszichológiai tendenciát tulajdonítanak, beleértve a magányt, az elszigeteltséget, a depressziót, a stresszt és a szorongást, hogy könnyű elfelejteni, hogy a dolgok másképp is alakulhatnának, sőt, néhány évtizeddel ezelőtt még egészen másképp alakultak.

Az ember azt gondolhatná, hogy a “közösségi” média, az okostelefonok és az AI segíthet, de valójában ezek a magány fő okozói, mivel az emberek egymás helyett képernyőkkel néznek szembe. Ami segít, azok az erős személyes kapcsolatok, pontosan azok a kapcsolatok, amelyeket a függőséget okozó (gyakran AI-alapú) technológia kiszorít.

A magányon segíthetünk, ha eldobjuk az eszközöket és minőségi személyes kapcsolatokat építünk. Más szóval: törődés.

Ez nem biztos, hogy könnyű munka lesz, és bizony társadalmi szinten nagyon nehéz lehet ellenállni az eddig követett trendeknek. De ellen kell állnunk, mert egy jobb, emberibb világ lehetséges. A technológiának nem kell a világot kevésbé személyessé és gondoskodóvá tennie – az ellenkezőjét is megteheti, ha akarjuk.

16. Az emberi szellemre gyakorolt hatások

A fenti területek mindegyike hatással lesz arra, hogy az emberek hogyan érzékelik magukat, hogyan viszonyulnak egymáshoz, és hogyan élik az életüket. De van egy egzisztenciálisabb kérdés is. Ha az emberiség céljának és identitásának köze van az intelligenciánkhoz (ahogyan például számos kiemelkedő görög filozófus hitte), akkor azzal, hogy az intelligenciánkat külsővé tesszük és az emberi intelligencián túlmutatóan fejlesztjük, vajon másodrangú lényekké tesszük-e magunkat saját teremtményeinkkel szemben?

Ez egy mélyebb kérdés a mesterséges intelligenciával kapcsolatban, amely az emberségünk magjáig hatol, olyan területekre, amelyek hagyományosan a filozófia, a spiritualitás és a vallás számára vannak fenntartva. Mi fog történni az emberi szellemmel, ha vagy amikor a saját teremtményeink mindenben felülmúlnak minket? Elveszíti-e az emberi élet értelmét? Eljutunk-e az intelligenciánkon túli identitásunk új felfedezéséhez?

Talán az intelligencia nem is olyan fontos az identitásunk szempontjából, mint gondolnánk, és talán az intelligencia gépekre való átruházása segít majd ennek felismerésében. Ha ehelyett nem az agyunkban, hanem a szívünkben találjuk meg az emberségünket, talán felismerjük, hogy a törődés, az együttérzés, a kedvesség és a szeretet az, ami végső soron emberré tesz minket, és ami miatt érdemes élni. Talán azáltal, hogy az élet unalmának egy részét elveszi, a mesterséges intelligencia segíthet nekünk egy emberibb világ víziójának megvalósításában.

Következtetés

A mesterséges intelligencia etikájával kapcsolatban több kérdés is felmerül; itt csak néhány fontosabbat próbáltam kiemelni. Sokkal több időt lehetne fordítani olyan témákra, mint az AI által működtetett megfigyelés, az AI szerepe a félretájékoztatás és dezinformáció előmozdításában, az AI szerepe a politikában és a nemzetközi kapcsolatokban, az AI irányítása és így tovább.

Az új technológiákat mindig valami jó érdekében hozzák létre – és az AI elképesztő új képességeket kínál számunkra, hogy segítsük az embereket és jobbá tegyük a világot. De ahhoz, hogy a világot jobb hellyé tegyük, az etikával összhangban kell ezt választanunk.

Sok egyén és szervezet összehangolt erőfeszítése révén remélhetjük, hogy az AI technológia segít nekünk egy jobb világot teremteni.

Ez a cikk a következő korábbi munkákra épül: “(2017. okt.) , “Néhány etikai és teológiai megfontolás a mesterséges intelligenciáról”, (2017. nov.) , Mesterséges intelligencia és etika: Ten areas of interest (2017. nov.) , “AI and Ethics” (2018. márc.) , “Ethical Reflections on Artificial Intelligence” (2018. aug.) , és több előadás: “Artificial Intelligence and Ethics: Tizenhat kérdés” (2019-20) .

Brian Patrick Green, “Mesterséges intelligencia és etika: Ten areas of interest of interest,” Markkula Center for Applied Ethics website, Nov 21, 2017, elérhető a következő címen: : https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics/

Eredetileg parafrazálva: Stan Lee és Steve Ditko, “Spider-Man”, Amazing Fantasy vol. 1, #15 (1962. augusztus), pontos mondat Ben bácsitól: J. Michael Straczynski, Amazing Spider-Man vol. 2, #38 (2002. február). További információ: https://en.wikipedia.org/wiki/With_great_power_comes_great_responsibility

Brian Patrick Green, “Mesterséges intelligencia és etika: Tizenhat kérdés”, különböző helyszíneken és időpontokban: Los Angeles, Mexikóváros, San Francisco, Santa Clara University (2019-2020).

Bob Yirka, “Computer generated math proof is too large for humans to check,” Phys.org, 2014. február 19., elérhető: Phys.org, 2014. február 19., elérhető a következő címen: https://phys.org/news/2014-02-math-proof-large-humans.html

The Partnership on AI to Benefit People and Society, Inaugural Meeting, Berlin, Németország, 2017. október 23-24.

Leila Scola, “AI and the Ethics of Energy Efficiency,” Markkula Center for Applied Ethics website, 2020. május 26., elérhető az alábbi linken: https://www.scu.edu/environmental-ethics/resources/ai-and-the-ethics-of-energy-efficiency/

Brian Patrick Green, “Artificial Intelligence, Decision-Making, and Moral Deskilling,” Markkula Center for Applied Ethics website, 2019. március 15., elérhető a következő címen: https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/artificial-intelligence-decision-making-and-moral-deskilling/

Shannon Vallor, “Moral Deskilling and Upskilling in a New Machine Age: Reflections on the Ambiguous Future of Character (Gondolatok a jellem kétértelmű jövőjéről)”. Philosophy of Technology 28 (2015):107-124., elérhető a következő címen:: https://link.springer.com/article/10.1007/s13347-014-0156-9

Brad Sylvester, “Fact Check: Mondta Arisztotelész, hogy ‘Azok vagyunk, amit ismételten teszünk’?”. Check Your Fact weboldal, 2019. június 26., elérhető a következő címen:: https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/

Lee Mannion, “Britain appointoints minister for loneliness amid growing isolation,” Reuters, 2018. január 17., elérhető a következő címen: https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/

Lee Mannion, “Britain appointins minister for loneliness amid growing isolation,” Reuters, 2018. január 17., elérhető a következő címen: https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/

: https://www.reuters.com/article/us-britain-politics-health/britain-appoints-minister-for-loneliness-amid-growing-isolation-idUSKBN1F61I6

Julianne Holt-Lunstad, Timothy B. Smith, Mark Baker,Tyler Harris és David Stephenson, “Loneliness and Social Isolation as Risk Factors for Mortality: A Meta-Analytic Review,” Perspectives on Psychological Science 10(2) (2015): 227-237, elérhető a következő címen: https://journals.sagepub.com/doi/full/10.1177/1745691614568352

Markkula Center for Applied Ethics Staff, “AI: Ethical Challenges and a Fast Approaching Future: A panelbeszélgetés a mesterséges intelligenciáról”, Maya Ackerman, Sanjiv Das, Brian Green és Irina Raicu részvételével, Santa Clara University, Kalifornia, 2017. október 24., felkerült az All About Ethics Blogra, 2017. október 31., a videó elérhető a következő címen: https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/

Brian Patrick Green, “Some Ethical and Theological Reflections on Artificial Intelligence,” Pacific Coast Theological Society (PCTS) meeting, Graduate Theological Union, Berkeley, 2017. november 3-4., elérhető a következő címen: https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/

Brian Patrick Green, “Some Ethical and Theological Reflections on Artificial Intelligence,” Pacific Coast Theological Society (PCTS) meeting, Graduate Theological Union, Berkeley, 2017. november 3-4., elérhető a következő címen: http://www.pcts.org/meetings/2017/PCTS2017Nov-Green-ReflectionsAI.pdf

Brian Patrick Green, “AI and Ethics”, vendégelőadás a PACS003-ban: What is an Ethical Life?, University of the Pacific, Stockton, 2018. március 21.

Brian Patrick Green, “Ethical Reflections on Artificial Intelligence”, Scientia et Fides 6(2), 2018. augusztus 24. Elérhető a következő címen: http://apcz.umk.pl/czasopisma/index.php/SetF/article/view/SetF.2018.015/15729

Köszönöm sokaknak a hasznos visszajelzéseket, amelyek segítettek a lista kialakításában, köztük Maya Ackermann, Kirk Bresniker, Sanjiv Das, Kirk Hanson, Brian Klunk, Thane Kreiner, Angelus McNally, Irina Raicu, Leila Scola, Lili Tavlan, Shannon Vallor, több technológiai cég munkatársainak, a PCTS 2017 őszi találkozójának résztvevőinek, a szükséges.oktatási találkozókat, több névtelen bírálót, a University of the Pacific PACS003 professzorait és hallgatóit, az ENGR 344 című kurzusom hallgatóit: AI and Ethics kurzus tanulói, valamint még sokan mások.

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.