Brian Patrick Green este directorul departamentului de etică tehnologică la Markkula Center for Applied Ethics. Acest articol este o actualizare a unui articol anterior, care poate fi găsit aici . Opiniile îi aparțin.
Inteligența artificială și tehnologiile de învățare automată transformă rapid societatea și vor continua să facă acest lucru în următoarele decenii. Această transformare socială va avea un impact etic profund, aceste noi tehnologii puternice îmbunătățind și perturbând în același timp viețile umane. Inteligența artificială, ca externalizare a inteligenței umane, ne oferă, într-o formă amplificată, tot ceea ce umanitatea este deja, atât binele, cât și răul. Sunt multe în joc. La această răscruce a istoriei ar trebui să ne gândim foarte bine cum să facem această tranziție, altfel riscăm să împuternicim partea cea mai sumbră a naturii noastre, mai degrabă decât cea mai luminoasă.
De ce devine etica IA o problemă acum? Învățarea automată (ML) prin intermediul rețelelor neuronale avansează rapid din trei motive: 1) Creșterea uriașă a mărimii seturilor de date; 2) Creșterea uriașă a puterii de calcul; 3) Îmbunătățirea uriașă a algoritmilor ML și mai mult talent uman pentru a-i scrie. Toate aceste trei tendințe reprezintă o centralizare a puterii, iar „Odată cu o mare putere vine și o mare responsabilitate” .
Ca instituție, Centrul Markkula pentru Etică Aplicată se gândește profund la etica inteligenței artificiale de mai mulți ani. Acest articol a început sub forma unor prezentări susținute în cadrul unor conferințe academice și, de atunci, s-a extins la o lucrare academică (linkurile de mai jos) și, cel mai recent, la o prezentare a lucrării „Inteligența artificială și etica: Sixteen Issues” pe care am susținut-o în SUA și la nivel internațional . În acest spirit, ofer această listă actuală:
1. Siguranța tehnică
Prima întrebare pentru orice tehnologie este dacă aceasta funcționează așa cum a fost concepută. Sistemele de inteligență artificială vor funcționa așa cum au fost promise sau vor eșua? Dacă și când vor eșua, care vor fi rezultatele acestor eșecuri? Și dacă depindem de ele, vom fi capabili să supraviețuim fără ele?
De exemplu, mai multe persoane au murit într-un accident de mașină semiautonomă, deoarece vehiculele s-au confruntat cu situații în care nu au reușit să ia decizii sigure. În timp ce scrierea unor contracte foarte detaliate care limitează răspunderea ar putea reduce din punct de vedere legal responsabilitatea unui producător, din punct de vedere moral, nu numai că responsabilitatea rămâne în continuare a companiei, dar contractul în sine poate fi văzut ca o schemă lipsită de etică pentru a evita responsabilitatea legitimă.
Cererea siguranței tehnice și a eșecului este separată de problema modului în care o tehnologie care funcționează în mod corespunzător ar putea fi folosită pentru bine sau pentru rău (întrebările 3 și 4, de mai jos). Această întrebare este pur și simplu una de funcționare, dar este fundamentul pe care trebuie să se bazeze tot restul analizei.
2. Transparență și confidențialitate
După ce am stabilit că tehnologia funcționează în mod adecvat, putem înțelege efectiv cum funcționează și putem colecta în mod corespunzător date privind funcționarea sa? Analiza etică depinde întotdeauna de obținerea mai întâi a faptelor – numai atunci poate începe evaluarea.
Se pare că, în cazul anumitor tehnici de învățare automată, cum ar fi învățarea profundă în rețelele neuronale, poate fi dificil sau imposibil să înțelegem cu adevărat de ce mașina face alegerile pe care le face. În alte cazuri, se poate întâmpla ca mașina să poată explica ceva, dar explicația este prea complexă pentru ca oamenii să o înțeleagă.
De exemplu, în 2014, un computer a demonstrat o teoremă matematică, folosind o demonstrație care era, cel puțin la momentul respectiv, mai lungă decât întreaga enciclopedie Wikipedia . Explicațiile de acest tip ar putea fi explicații adevărate, dar oamenii nu vor ști niciodată cu siguranță.
Ca un punct suplimentar, în general, cu cât cineva sau ceva este mai puternic, cu atât mai transparent ar trebui să fie, în timp ce cu cât cineva este mai slab, cu atât mai mult ar trebui să aibă dreptul la intimitate. Prin urmare, ideea că inteligențele artificiale puternice ar putea fi intrinsec opace este deconcertantă.
3. Utilizarea benefică & Capacitatea de a face bine
Scopul principal al inteligenței artificiale este, ca orice altă tehnologie, de a ajuta oamenii să ducă o viață mai lungă, mai înfloritoare și mai satisfăcătoare. Acesta este un lucru bun și, prin urmare, în măsura în care IA îi ajută pe oameni în aceste moduri, putem să ne bucurăm și să apreciem beneficiile pe care ni le oferă.
Inteligența suplimentară va aduce probabil îmbunătățiri în aproape toate domeniile de activitate umană, incluzând, de exemplu, arheologia, cercetarea biomedicală, comunicarea, analiza datelor, educația, eficiența energetică, protecția mediului, agricultura, finanțele, serviciile juridice, serviciile de diagnosticare medicală, gestionarea resurselor, explorarea spațială, transportul, gestionarea deșeurilor și așa mai departe.
Ca un exemplu concret al unui beneficiu al inteligenței artificiale, unele echipamente agricole au acum sisteme computerizate capabile să identifice vizual buruienile și să le stropească cu mici doze țintite de erbicid. Acest lucru nu numai că protejează mediul înconjurător prin reducerea utilizării de substanțe chimice asupra culturilor, dar protejează și sănătatea umană prin reducerea expunerii la aceste substanțe chimice.
4. Utilizarea răuvoitoare & Capacitatea de a face rău
O tehnologie perfect funcțională, cum ar fi o armă nucleară, poate, atunci când este folosită conform destinației sale, să provoace un rău imens. Inteligența artificială, ca și inteligența umană, va fi folosită în mod rău intenționat, nu există nicio îndoială.
De exemplu, supravegherea cu ajutorul inteligenței artificiale este deja larg răspândită, atât în contexte adecvate (de exemplu, camerele de securitate din aeroporturi), cât și în contexte poate nepotrivite (de exemplu, produse cu microfoane mereu active în casele noastre) și în contexte categoric nepotrivite (de exemplu, produse care ajută regimurile autoritare să își identifice și să își oprimă cetățenii). Alte exemple nefaste pot include pirateria informatică asistată de inteligență artificială și sistemele de arme autonome letale (LAWS), cunoscute și sub numele de „roboți ucigași”. Temeri suplimentare, cu diferite grade de plauzibilitate, includ scenarii precum cele din filmele „2001: Odiseea spațială”, „Wargames” și „Terminator”.”
În timp ce filmele și tehnologiile de armament ar putea părea exemple extreme ale modului în care IA ar putea împuternici răul, ar trebui să ne amintim că concurența și războiul sunt întotdeauna principalele motoare ale progresului tehnologic și că armatele și corporațiile lucrează la aceste tehnologii chiar acum. Istoria arată, de asemenea, că marile rele nu sunt întotdeauna complet intenționate (de exemplu, poticnirea în Primul Război Mondial și diversele apropieri nucleare din Războiul Rece) și, prin urmare, a avea putere distructivă, chiar dacă nu intenționăm să o folosim, riscă totuși o catastrofă. Din această cauză, interzicerea, interzicerea și renunțarea la anumite tipuri de tehnologie ar fi soluția cea mai prudentă.
5. Biasarea datelor, a seturilor de antrenament, etc.
Unul dintre lucrurile interesante despre rețelele neuronale, actualii cai de bătaie ai inteligenței artificiale, este că ele îmbină efectiv un program de calculator cu datele care îi sunt furnizate. Acest lucru are multe beneficii, dar riscă, de asemenea, să influențeze întregul sistem în moduri neașteptate și potențial dăunătoare.
Au fost deja descoperite influențe algoritmice, de exemplu, în domenii care variază de la pedepsele penale la legendele fotografiilor. Aceste prejudecăți sunt mai mult decât jenante pentru corporațiile care produc aceste produse defectuoase; ele au efecte negative și dăunătoare concrete asupra persoanelor care sunt victimele acestor prejudecăți, precum și reducerea încrederii în corporații, guvern și alte instituții care ar putea utiliza aceste produse prejudiciate. Prejudecata algoritmică este una dintre preocupările majore în IA în acest moment și va rămâne așa și în viitor, dacă nu ne vom strădui să facem produsele noastre tehnologice mai bune decât suntem. Așa cum a spus o persoană la prima reuniune a Parteneriatului privind IA, „Vom reproduce toate defectele noastre umane în formă artificială, dacă nu ne străduim chiar acum să ne asigurăm că nu o facem” .
6. Șomaj / lipsă de scop & Semnificație
Mulți oameni au perceput deja că IA va fi o amenințare pentru anumite categorii de locuri de muncă. Într-adevăr, automatizarea industriei a fost un factor major care a contribuit la pierderea locurilor de muncă încă de la începutul revoluției industriale. IA nu va face decât să extindă această tendință la mai multe domenii, inclusiv la domenii considerate în mod tradițional ca fiind mai ferite de automatizare, de exemplu dreptul, medicina și educația. Nu este clar în ce noi cariere vor putea face tranziția în cele din urmă șomerii, deși cu cât munca are mai mult de-a face cu îngrijirea altora, cu atât este mai probabil ca oamenii să dorească să aibă de-a face cu alți oameni și nu cu IA.
Anexată la preocuparea pentru ocuparea forței de muncă este preocuparea pentru modul în care omenirea își petrece timpul și pentru ceea ce face ca o viață să fie bine petrecută. Ce vor face milioane de șomeri? Ce scopuri bune pot avea ei? Cu ce pot contribui ei la bunăstarea societății? Cum îi va împiedica societatea să devină deziluzionați, amărâți și atrași în mișcări malefice precum supremația albă și terorismul?
7. Creșterea inegalității socio-economice
În legătură cu problema șomajului se pune problema modului în care oamenii vor supraviețui dacă șomajul ajunge la niveluri foarte ridicate. De unde vor face rost de bani pentru a se întreține pe ei și familiile lor? În timp ce prețurile pot scădea datorită reducerii costurilor de producție, cei care controlează IA vor încasa, de asemenea, probabil, o mare parte din banii care altfel ar fi intrat în salariile celor care acum sunt șomeri și, prin urmare, inegalitatea economică va crește. Acest lucru va afecta, de asemenea, disparitatea economică internațională și, prin urmare, este probabil o amenințare majoră pentru națiunile mai puțin dezvoltate.
Câțiva au sugerat un venit de bază universal (UBI) pentru a aborda problema, dar acest lucru va necesita o restructurare majoră a economiilor naționale. Diferite alte soluții la această problemă ar putea fi posibile, dar toate acestea implică schimbări potențial majore ale societății umane și ale guvernului. În cele din urmă, aceasta este o problemă politică, nu una tehnică, astfel încât această soluție, ca și cele pentru multe dintre problemele descrise aici, trebuie abordată la nivel politic.
8. Efecte asupra mediului
Modelurile de învățare mecanică necesită cantități enorme de energie pentru a fi antrenate, atât de multă energie încât costurile pot ajunge la zeci de milioane de dolari sau mai mult. Inutil să mai spunem că, dacă această energie provine din combustibili fosili, acest lucru are un mare impact negativ asupra schimbărilor climatice, ca să nu mai vorbim de faptul că este dăunător în alte puncte din lanțul de aprovizionare cu hidrocarburi.
Învățarea prin mașini poate face, de asemenea, ca distribuția și utilizarea energiei electrice să fie mult mai eficiente, precum și să lucreze la rezolvarea problemelor din domeniul biodiversității, cercetării de mediu, gestionării resurselor etc. Inteligența artificială este, în unele moduri foarte elementare, o tehnologie axată pe eficiență, iar eficiența energetică este unul dintre modurile în care pot fi direcționate capacitățile sale.
Pe ansamblu, se pare că inteligența artificială ar putea fi un beneficiu net pentru mediu – dar numai dacă este direcționată cu adevărat spre acest scop pozitiv, și nu doar spre consumul de energie pentru alte utilizări.
9. Automatizarea eticii
Un punct forte al IA este că poate automatiza procesul de luare a deciziilor, reducând astfel povara asupra oamenilor și accelerând – potențial accelerând foarte mult – unele tipuri de procese decizionale. Cu toate acestea, această automatizare a procesului de luare a deciziilor va prezenta probleme uriașe pentru societate, deoarece dacă aceste decizii automatizate sunt bune, societatea va beneficia, dar dacă sunt proaste, societatea va fi afectată.
Pe măsură ce agenților de inteligență artificială li se dau mai multe puteri de a lua decizii, aceștia vor trebui să aibă un fel de standarde etice codificate în ei. Pur și simplu nu există nici o modalitate de a ocoli acest lucru: procesul de luare a deciziilor etice ar putea fi la fel de simplu ca și cum ar urma un program pentru a distribui în mod echitabil un beneficiu, în care decizia este luată de oameni și executată de algoritmi, dar ar putea, de asemenea, să implice o analiză etică mult mai detaliată, chiar dacă noi, oamenii, am prefera să nu o facă – acest lucru se datorează faptului că AI va funcționa atât de mult mai rapid decât o pot face oamenii, încât, în anumite circumstanțe, oamenii vor fi lăsați „în afara buclei” de control din cauza lentoarei umane. Acest lucru se întâmplă deja în cazul atacurilor cibernetice și al tranzacțiilor de înaltă frecvență (ambele pline de întrebări etice care sunt de obicei ignorate) și se va înrăutăți pe măsură ce IA își va extinde rolul în societate.
Din moment ce IA poate fi atât de puternică, ar fi bine ca standardele etice pe care i le dăm să fie bune.
10. Deskilling moral & Debilitate
Dacă vom preda mașinilor capacitățile noastre de luare a deciziilor, vom deveni mai puțin experimentați în luarea deciziilor. De exemplu, acesta este un fenomen bine cunoscut în rândul piloților de avion: pilotul automat poate face totul în ceea ce privește pilotarea unui avion, de la decolare până la aterizare, dar piloții aleg în mod intenționat să controleze manual aeronava în momente cruciale (de ex, decolarea și aterizarea) pentru a-și menține abilitățile de pilotaj.
Pentru că una dintre utilizările IA va fi fie să asiste, fie să înlocuiască oamenii în luarea anumitor tipuri de decizii (de exemplu, ortografie, conducere, tranzacționare la bursă etc.), trebuie să fim conștienți că oamenii pot deveni mai slabi la aceste abilități. În forma sa cea mai extremă, dacă IA începe să ia decizii etice și politice în locul nostru, vom deveni mai slabi la etică și politică. S-ar putea să ne reducem sau să ne încetinim dezvoltarea morală tocmai în momentul în care puterea noastră a devenit cea mai mare și deciziile noastre cele mai importante.
Acest lucru înseamnă că studiul eticii și formarea în domeniul eticii sunt acum mai importante ca niciodată. Ar trebui să determinăm modalitățile prin care IA poate îmbunătăți de fapt învățarea și formarea noastră etică. Nu ar trebui să ne permitem niciodată să devenim decriptați și debilitați în domeniul eticii, sau atunci când tehnologia noastră ne va pune în cele din urmă în fața unor alegeri dificile de făcut și a unor probleme pe care trebuie să le rezolvăm – alegeri și probleme pe care, poate, strămoșii noștri ar fi fost capabili să le rezolve – viitorii oameni ar putea să nu fie capabili să o facă.
Pentru mai multe informații despre decriptare, consultați acest articol și articolul original al lui Shannon Vallor pe această temă.
11. Conștiința IA, calitatea de persoană și „drepturile roboților”
Câțiva gânditori s-au întrebat dacă IA ar putea în cele din urmă să devină conștiente de sine, să își atingă propria voință sau să merite în alt mod recunoașterea ca persoane ca și noi. Din punct de vedere juridic, calitatea de persoană a fost acordată corporațiilor și (în alte țări) râurilor, așa că, cu siguranță, nu este nevoie de conștiință chiar și înainte de a putea apărea întrebări juridice.
Din punct de vedere moral, putem anticipa faptul că tehnologii vor încerca să creeze IA și roboți cât mai asemănători cu oamenii, și poate că într-o zi vor fi imitații atât de bune încât ne vom întreba dacă ar putea fi conștienți și dacă merită drepturi – și s-ar putea să nu putem determina acest lucru în mod concludent. Dacă oamenii din viitor vor ajunge la concluzia că inteligențele artificiale și roboții ar putea fi demni de un statut moral, atunci ar trebui să fim precauți și să le acordăm acest statut.
În mijlocul acestei incertitudini cu privire la statutul creațiilor noastre, ceea ce vom ști este că noi, oamenii, avem caractere morale și că, pentru a urma un citat inexact al lui Aristotel, „devenim ceea ce facem în mod repetat” . Așadar, nu ar trebui să ne purtăm urât cu inteligența artificială și cu roboții, altfel ne-am putea obișnui să avem caractere defectuoase, indiferent de statutul moral al ființelor artificiale cu care interacționăm. Cu alte cuvinte, indiferent de statutul AI-urilor și al roboților, de dragul propriilor noastre caractere morale, ar trebui să le tratăm bine sau cel puțin să nu abuzăm de ele.
12. AGI și superinteligența
Dacă sau când IA va atinge nivelul uman de inteligență, făcând tot ceea ce pot face oamenii la fel de bine ca și omul obișnuit, atunci va fi o Inteligență Generală Artificială – o AGI – și va fi singura altă inteligență de acest fel care va exista pe Pământ la nivel uman.
Dacă sau când AGI va depăși inteligența umană, va deveni o superinteligență, o entitate potențial mult mai inteligentă și mai capabilă decât noi: ceva cu care oamenii s-au raportat vreodată doar în religii, mituri și povești.
Important aici este faptul că tehnologia IA se îmbunătățește extrem de rapid. Corporațiile globale și guvernele sunt într-o cursă pentru a revendica puterile IA ca fiind ale lor. La fel de important, nu există niciun motiv pentru care îmbunătățirea IA să se oprească la AGI. IA este scalabilă și rapidă. Spre deosebire de un creier uman, dacă îi dăm IA mai mult hardware, aceasta va face din ce în ce mai mult, din ce în ce mai repede.
Avântul AGI sau al superinteligenței va marca detronarea umanității ca fiind cel mai inteligent lucru de pe Pământ. Nu ne-am mai confruntat niciodată (în lumea materială) cu ceva mai inteligent decât noi. De fiecare dată când Homo sapiens a întâlnit alte specii umane inteligente în istoria vieții pe Pământ, cealaltă specie fie a fuzionat genetic cu noi (așa cum au făcut oamenii de Neanderthal), fie a dispărut. Pe măsură ce ne întâlnim cu AGI și superinteligența, ar trebui să ținem cont de acest lucru; totuși, deoarece IA este un instrument, ar putea exista încă modalități de a menține un echilibru etic între om și mașină.
13. Dependența de IA
Oamenii depind de tehnologie. Întotdeauna am făcut-o, de când suntem „oameni”; dependența noastră tehnologică este aproape ceea ce ne definește ca specie. Cu toate acestea, ceea ce obișnuia să fie doar pietre, bețe și haine de blană a devenit acum mult mai complex și mai fragil. Pierderea curentului electric sau a conectivității celulare poate fi o problemă serioasă, din punct de vedere psihologic sau chiar medical (dacă există o urgență). Și nu există o dependență ca dependența de inteligență.
Dependența de inteligență este o formă de dependență precum cea a unui copil față de un adult. În cea mai mare parte a timpului, copiii se bazează pe adulți care să gândească în locul lor, iar la bătrânețe, pe măsură ce unii oameni se confruntă cu un declin cognitiv, persoanele în vârstă se bazează și ele pe adulții mai tineri. Acum imaginați-vă că adulții de vârstă mijlocie care au grijă de copii și de vârstnici sunt ei înșiși dependenți de IA pentru a-i ghida. Nu ar mai exista „adulți” umani – ci doar „adulți AI”. Omenirea ar fi devenit o rasă de copii pentru îngrijitorii noștri AI.
Acest lucru, desigur, ridică întrebarea ce ar face o rasă umană infantilizată dacă părinții noștri AI s-ar defecta vreodată. Fără acea IA, dacă am fi dependenți de ea, am putea deveni ca niște copii rătăciți, neștiind cum să avem grijă de noi înșine sau de societatea noastră tehnologică. Această „rătăcire” se întâmplă deja atunci când aplicațiile de navigație pentru smartphone-uri se defectează (sau pur și simplu se termină bateria), de exemplu.
Suntem deja pe drumul cel bun spre dependența tehnologică. Cum ne putem pregăti acum, astfel încât să putem evita pericolele dependenței specifice inteligenței artificiale?
14. Dependența de inteligența artificială
Fabricanții de aplicații pentru smartphone-uri au transformat dependența într-o știință, iar jocurile video și aplicațiile bazate pe inteligența artificială pot crea dependență ca și drogurile. IA poate exploata numeroase dorințe și slăbiciuni umane, inclusiv căutarea unui scop, jocurile de noroc, lăcomia, libidoul, violența și așa mai departe.
Adicția nu numai că ne manipulează și ne controlează; de asemenea, ne împiedică să facem alte lucruri mai importante – educaționale, economice și sociale. Ea ne înrobește și ne irosește timpul atunci când am putea face ceva valoros. Având în vedere că inteligența artificială învață în mod constant mai multe despre noi și lucrează din ce în ce mai mult pentru a ne face să dăm click și să derulăm, ce speranță există pentru noi de a scăpa din ghearele sale? Sau, mai degrabă, din ghearele creatorilor de aplicații care creează aceste AI pentru a ne prinde în capcană – pentru că nu AI-urile sunt cele care aleg să trateze oamenii în acest fel, ci alți oameni.
Când vorbesc despre acest subiect cu orice grup de studenți, descopăr că toți sunt „dependenți” de o aplicație sau alta. Poate că nu este o dependență clinică, dar acesta este modul în care elevii o definesc, iar ei știu că sunt exploatați și că li se face rău. Este un lucru pe care producătorii de aplicații trebuie să înceteze să îl mai facă: IA nu ar trebui să fie proiectată pentru a exploata în mod intenționat vulnerabilitățile din psihologia umană.
15. Izolarea și singurătatea
Societatea se află într-o criză de singurătate. De exemplu, recent, un studiu a constatat că „200.000 de persoane în vârstă din Marea Britanie nu au avut o conversație cu un prieten sau o rudă de mai bine de o lună” . Aceasta este o stare de lucruri tristă, deoarece singurătatea poate ucide la propriu . Este un coșmar pentru sănătatea publică, ca să nu mai spunem că distruge însăși structura societății: relațiile noastre umane. Tehnologia a fost implicată în atât de multe tendințe sociale și psihologice negative, inclusiv singurătatea, izolarea, depresia, stresul și anxietatea, încât este ușor de uitat că lucrurile ar putea fi diferite și, de fapt, au fost destul de diferite cu doar câteva decenii în urmă.
S-ar putea crede că mediile „sociale”, smartphone-urile și inteligența artificială ar putea ajuta, dar, de fapt, acestea sunt cauze majore ale singurătății, deoarece oamenii se confruntă cu ecrane în loc să se confrunte unii cu alții. Ceea ce ajută sunt relațiile puternice în persoană, tocmai relațiile care sunt înlăturate de tehnologia care creează dependență (adesea alimentată de AI).
Singurătatea poate fi ajutată prin renunțarea la dispozitive și construirea unor relații de calitate în persoană. Cu alte cuvinte: grija.
Aceasta s-ar putea să nu fie o muncă ușoară și, cu siguranță, la nivel de societate ar putea fi foarte dificil să rezistăm tendințelor pe care le-am urmat deja până acum. Dar ar trebui să rezistăm, pentru că o lume mai bună, mai umană, este posibilă. Tehnologia nu trebuie să facă din lume un loc mai puțin personal și mai puțin grijuliu – ar putea face contrariul, dacă am dori acest lucru.
16. Efecte asupra spiritului uman
Toate domeniile de interes de mai sus vor avea efecte asupra modului în care oamenii se percep pe ei înșiși, relaționează unii cu alții și își trăiesc viața. Dar există și o întrebare mai existențială. Dacă scopul și identitatea umanității are ceva de-a face cu inteligența noastră (așa cum credeau, de exemplu, mai mulți filosofi greci proeminenți), atunci, prin externalizarea inteligenței noastre și îmbunătățirea ei dincolo de inteligența umană, ne facem noi înșine ființe de mâna a doua față de propriile noastre creații?
Este o întrebare mai profundă cu privire la inteligența artificială, care atinge miezul umanității noastre, în domenii rezervate în mod tradițional filosofiei, spiritualității și religiei. Ce se va întâmpla cu spiritul uman dacă sau când vom fi depășiți de propriile noastre creații în tot ceea ce facem? Își va pierde viața umană sensul? Vom ajunge la o nouă descoperire a identității noastre dincolo de inteligența noastră?
Poate că inteligența nu este chiar atât de importantă pentru identitatea noastră pe cât am putea crede că este, și poate că predarea inteligenței către mașini ne va ajuta să realizăm acest lucru. Dacă, în schimb, ne găsim umanitatea nu în creierele noastre, ci în inimile noastre, poate că vom ajunge să recunoaștem că grija, compasiunea, bunătatea și dragostea sunt, în cele din urmă, ceea ce ne face umani și ceea ce face ca viața să merite să fie trăită. Poate că, eliminând o parte din plictiseala vieții, IA ne poate ajuta să realizăm această viziune a unei lumi mai umane.
Concluzie
Există mai multe probleme în etica IA; aici am încercat doar să subliniez câteva dintre cele mai importante. Mult mai mult timp ar putea fi dedicat unor subiecte precum supravegherea cu ajutorul IA, rolul IA în promovarea dezinformării și dezinformării, rolul IA în politică și în relațiile internaționale, guvernanța IA și așa mai departe.
Tehnologiile noi sunt întotdeauna create de dragul a ceva bun – iar IA ne oferă noi abilități uimitoare de a ajuta oamenii și de a face lumea un loc mai bun. Dar, pentru a face lumea un loc mai bun, trebuie să alegem să facem acest lucru, în acord cu etica.
Prin efortul concertat al multor persoane și organizații, putem spera că tehnologia IA ne va ajuta să facem o lume mai bună.
Acest articol se bazează pe următoarele lucrări anterioare: „AI: Provocări etice și un viitor care se apropie cu pași repezi” (oct. 2017) , „Câteva reflecții etice și teologice despre inteligența artificială” (nov. 2017) , Inteligența artificială și etica: Zece domenii de interes (nov. 2017) , „Inteligența artificială și etica” (mart. 2018) , „Reflecții etice privind inteligența artificială”(aug. 2018) , și mai multe prezentări ale lucrării „Inteligența artificială și etica: Șaisprezece aspecte” (2019-20) .
Brian Patrick Green, „Inteligența artificială și etica: Zece domenii de interes”, site-ul web al Centrului Markkula pentru etică aplicată, 21 noiembrie 2017, disponibil la adresa : https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics/
Parafrazat inițial în Stan Lee și Steve Ditko, „Spider-Man”, Amazing Fantasy vol. 1, #15 (august 1962), fraza exactă a Unchiului Ben în J. Michael Straczynski, Amazing Spider-Man vol. 2, #38 (februarie 2002). Pentru mai multe informații: https://en.wikipedia.org/wiki/With_great_power_comes_great_responsibility
Brian Patrick Green, „Artificial Intelligence and Ethics: Sixteen Issues”, diverse locații și date: Los Angeles, Mexico City, San Francisco, Santa Clara University (2019-2020).
Bob Yirka, „Computer generated math proof is too large for humans to check”, Phys.org, 19 februarie 2014, disponibil la:
Bob Yirka, „Computer generated math proof is too large for humans to check”, Phys.org, 19 februarie 2014, disponibil la https://phys.org/news/2014-02-math-proof-large-humans.html
The Partnership on AI to Benefit People and Society, Inaugural Meeting, Berlin, Germania, 23-24 octombrie 2017.
Leila Scola, „AI and the Ethics of Energy Efficiency” (Inteligența artificială și etica eficienței energetice), site-ul web al Centrului Markkula pentru Etică Aplicată, Markkula Center for Applied Ethics, 26 mai 2020, disponibil la adresa:
: https://www.scu.edu/environmental-ethics/resources/ai-and-the-ethics-of-energy-efficiency/
Brian Patrick Green, „Artificial Intelligence, Decision-Making, and Moral Deskilling”, site-ul web al Markkula Center for Applied Ethics, 15 martie 2019, disponibil la adresa https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/artificial-intelligence-decision-making-and-moral-deskilling/
Shannon Vallor, „Moral Deskilling and Upskilling in a New Machine Age: Reflections on the Ambiguous Future of Character”. Philosophy of Technology 28 (2015):107-124., disponibil la adresa https://link.springer.com/article/10.1007/s13347-014-0156-9
Brad Sylvester, „Fact Check: A spus Aristotel: „Suntem ceea ce facem în mod repetat”?”. Website-ul Check Your Fact, 26 iunie 2019, disponibil la adresa: <: https:>
Lee Mannion, „Britain appoints minister for loneliness amid growing isolation” (Marea Britanie numește un ministru pentru singurătate pe fondul creșterii gradului de izolare), Reuters, 17 ianuarie 2018, disponibil la adresa https://www.reuters.com/article/us-britain-politics-health/britain-appoints-minister-for-loneliness-amid-growing-isolation-idUSKBN1F61I6
Julianne Holt-Lunstad, Timothy B. Smith, Mark Baker,Tyler Harris și David Stephenson, „Loneliness and Social Isolation as Risk Factors for Mortality: A Meta-Analytic Review”, Perspectives on Psychological Science 10(2) (2015): 227-237, disponibil la adresa: (în engleză): https://journals.sagepub.com/doi/full/10.1177/1745691614568352
Markkula Center for Applied Ethics Staff, „AI: Ethical Challenges and a Fast Approaching Future: A panel discussion on artificial intelligence”, cu Maya Ackerman, Sanjiv Das, Brian Green și Irina Raicu, Universitatea Santa Clara, California, 24 octombrie 2017, postat pe blogul All About Ethics, 31 octombrie 2017, video disponibil la adresa https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/
Brian Patrick Green, „Some Ethical and Theological Reflections on Artificial Intelligence” (Câteva reflecții etice și teologice cu privire la inteligența artificială), reuniunea Pacific Coast Theological Society (PCTS), Graduate Theological Union, Berkeley, 3 și 4 noiembrie 2017, disponibil la adresa http://www.pcts.org/meetings/2017/PCTS2017Nov-Green-ReflectionsAI.pdf
Brian Patrick Green, „AI and Ethics”, conferință invitată în PACS003: What is an Ethical Life?”, University of the Pacific, Stockton, 21 martie 2018.
Brian Patrick Green, „Ethical Reflections on Artificial Intelligence”, Scientia et Fides 6(2), 24 august 2018. Disponibilă la adresa: „The Humanity of the Humanity”: http://apcz.umk.pl/czasopisma/index.php/SetF/article/view/SetF.2018.015/15729
Mulțumesc multor persoane pentru toate comentariile utile care m-au ajutat să dezvolt această listă, inclusiv Maya Ackermann, Kirk Bresniker, Sanjiv Das, Kirk Hanson, Brian Klunk, Thane Kreiner, Angelus McNally, Irina Raicu, Leila Scola, Lili Tavlan, Shannon Vallor, angajaților mai multor companii de tehnologie, participanților la reuniunea PCTS din toamna anului 2017, participanților la reuniunea necesară.education meetings, mai mulți recenzenți anonimi, profesorii și studenții de la PACS003 de la University of the Pacific, studenții cursului meu ENGR 344: AI and Ethics course, precum și mulți alții.
.