Brian Patrick Green jest dyrektorem ds. etyki technologii w Markkula Center for Applied Ethics. Ten artykuł jest aktualizacją wcześniejszego artykułu, który można znaleźć tutaj. Poglądy są jego własne.

Technologie sztucznej inteligencji i uczenia maszynowego szybko przekształcają społeczeństwo i będą to robić w nadchodzących dekadach. Ta transformacja społeczna będzie miała głęboki wpływ etyczny, z tymi potężnymi nowymi technologiami zarówno poprawiającymi, jak i zakłócającymi ludzkie życie. AI, jako eksternalizacja ludzkiej inteligencji, oferuje nam we wzmocnionej formie wszystko to, czym ludzkość już jest, zarówno dobro, jak i zło. Stawka jest wysoka. Na tym rozdrożu historii powinniśmy bardzo uważnie zastanowić się, jak dokonać tej transformacji, w przeciwnym razie ryzykujemy wzmocnienie ponurej strony naszej natury, a nie tej jaśniejszej.

Dlaczego etyka AI staje się teraz problemem? Uczenie maszynowe (ML) za pomocą sieci neuronowych postępuje szybko z trzech powodów: 1) Ogromny wzrost wielkości zbiorów danych; 2) Ogromny wzrost mocy obliczeniowej; 3) Ogromna poprawa algorytmów ML i więcej ludzkich talentów do ich pisania. Wszystkie te trzy trendy centralizują władzę, a „Z wielką władzą wiąże się wielka odpowiedzialność” .

Jako instytucja, Markkula Center for Applied Ethics od kilku lat głęboko zastanawia się nad etyką AI. Ten artykuł rozpoczął się jako prezentacje wygłaszane na konferencjach akademickich i od tego czasu rozszerzył się do pracy naukowej (linki poniżej), a ostatnio do prezentacji „Artificial Intelligence and Ethics: Sixteen Issues”, którą wygłosiłem w Stanach Zjednoczonych i na arenie międzynarodowej. W tym duchu, oferuję tę aktualną listę:

1. Bezpieczeństwo techniczne

Pierwszym pytaniem dotyczącym każdej technologii jest to, czy działa ona zgodnie z przeznaczeniem. Czy systemy AI będą działać zgodnie z obietnicami, czy też zawiodą? Jeśli i kiedy zawiodą, jakie będą skutki tych niepowodzeń? A jeśli jesteśmy od nich zależni, czy będziemy w stanie przetrwać bez nich?

Na przykład kilka osób zginęło w wypadku półautonomicznego samochodu, ponieważ pojazdy napotkały sytuacje, w których nie podjęły bezpiecznych decyzji. Podczas gdy pisanie bardzo szczegółowych umów, które ograniczają odpowiedzialność, może prawnie zmniejszyć odpowiedzialność producenta, z moralnego punktu widzenia, nie tylko odpowiedzialność nadal spoczywa na firmie, ale sam kontrakt może być postrzegany jako nieetyczny plan uniknięcia uzasadnionej odpowiedzialności.

Kwestia bezpieczeństwa technicznego i awarii jest oddzielona od pytania o to, jak prawidłowo funkcjonująca technologia może być wykorzystana dla dobra lub zła (pytania 3 i 4, poniżej). To pytanie dotyczy jedynie funkcji, ale jest fundamentem, na którym musi opierać się cała reszta analizy.

2. Przejrzystość i prywatność

Po ustaleniu, że technologia funkcjonuje odpowiednio, czy możemy rzeczywiście zrozumieć, jak działa i właściwie zebrać dane na temat jej funkcjonowania? Analiza etyczna zawsze zależy od tego, czy najpierw poznamy fakty – dopiero wtedy można rozpocząć ocenę.

Okazuje się, że w przypadku niektórych technik uczenia maszynowego, takich jak głębokie uczenie w sieciach neuronowych, trudne lub niemożliwe może być prawdziwe zrozumienie, dlaczego maszyna dokonuje wyborów, których dokonuje. W innych przypadkach może być tak, że maszyna może coś wyjaśnić, ale wyjaśnienie jest zbyt złożone, aby człowiek mógł je zrozumieć.

Na przykład w 2014 roku komputer udowodnił twierdzenie matematyczne, używając dowodu, który był, przynajmniej w tym czasie, dłuższy niż cała encyklopedia Wikipedii . Wyjaśnienia tego rodzaju mogą być prawdziwymi wyjaśnieniami, ale ludzie nigdy nie będą wiedzieć na pewno.

Jako dodatkowy punkt, ogólnie rzecz biorąc, im potężniejszy ktoś lub coś jest, tym bardziej przejrzyste powinno być, podczas gdy słabszy ktoś jest, tym większe prawo do prywatności powinien mieć. Dlatego pomysł, że potężne AI mogą być wewnętrznie nieprzejrzyste jest niepokojący.

3. Pożyteczny użytek & Zdolność do dobra

Głównym celem AI jest, jak każdej innej technologii, pomoc ludziom w prowadzeniu dłuższego, bardziej kwitnącego, bardziej satysfakcjonującego życia. Jest to dobre, a zatem w zakresie, w jakim AI pomaga ludziom w ten sposób, możemy być zadowoleni i doceniać korzyści, jakie nam daje.

Dodatkowa inteligencja prawdopodobnie zapewni ulepszenia w niemal każdej dziedzinie ludzkich dążeń, w tym, na przykład, archeologii, badaniach biomedycznych, komunikacji, analizie danych, edukacji, efektywności energetycznej, ochronie środowiska, rolnictwie, finansach, usługach prawnych, diagnostyce medycznej, zarządzaniu zasobami, eksploracji kosmosu, transporcie, zarządzaniu odpadami i tak dalej.

Jako tylko jeden konkretny przykład korzyści z AI, niektóre urządzenia rolnicze mają teraz systemy komputerowe zdolne do wizualnej identyfikacji chwastów i rozpylania ich za pomocą małych ukierunkowanych dawek herbicydów. To nie tylko chroni środowisko poprzez zmniejszenie użycia chemikaliów na uprawach, ale także chroni ludzkie zdrowie poprzez zmniejszenie narażenia na te chemikalia.

4. Złośliwe użycie & Zdolność do zła

Doskonale funkcjonująca technologia, taka jak broń nuklearna, może, gdy zostanie użyta zgodnie z przeznaczeniem, spowodować ogromne zło. Sztuczna inteligencja, podobnie jak ludzka inteligencja, będzie wykorzystywana w złych zamiarach, nie ma co do tego wątpliwości.

Na przykład, inwigilacja napędzana przez AI jest już szeroko rozpowszechniona, zarówno w odpowiednich kontekstach (np. kamery na lotniskach), być może nieodpowiednich (np. produkty z zawsze włączonymi mikrofonami w naszych domach), jak i zdecydowanie nieodpowiednich (np. produkty, które pomagają autorytarnym reżimom identyfikować i uciskać swoich obywateli). Inne nikczemne przykłady mogą obejmować włamania komputerowe wspomagane przez AI oraz zabójcze autonomiczne systemy uzbrojenia (LAWS), czyli „roboty-zabójcy”. Dodatkowe obawy, o różnym stopniu wiarygodności, obejmują scenariusze takie jak te w filmach „2001: Odyseja kosmiczna”, „Gry wojenne” i „Terminator”.

Choć filmy i technologie zbrojeniowe mogą wydawać się skrajnymi przykładami tego, jak AI może wzmacniać zło, powinniśmy pamiętać, że konkurencja i wojna są zawsze głównymi motorami postępu technologicznego, a wojsko i korporacje pracują nad tymi technologiami już teraz. Historia pokazuje również, że wielkie zło nie zawsze jest do końca zamierzone (np. potknięcie się o I wojnę światową i różne próby nuklearne w czasie zimnej wojny), a więc posiadanie niszczycielskiej siły, nawet jeśli nie zamierza się jej użyć, wciąż grozi katastrofą. Z tego powodu zakazanie, zdelegalizowanie i zrzeczenie się pewnych typów technologii byłoby najrozsądniejszym rozwiązaniem.

5. Bias in Data, Training Sets, etc.

Jedną z interesujących rzeczy dotyczących sieci neuronowych, obecnych koni roboczych sztucznej inteligencji, jest to, że skutecznie łączą one program komputerowy z danymi, które są mu przekazywane. Ma to wiele zalet, ale również stwarza ryzyko uprzedzenia całego systemu w nieoczekiwany i potencjalnie szkodliwy sposób.

Już odkryto uprzedzenia algorytmiczne, na przykład w obszarach od kar kryminalnych do podpisywania zdjęć. Te uprzedzenia są czymś więcej niż tylko wstydliwe dla korporacji, które produkują te wadliwe produkty; mają one konkretne negatywne i szkodliwe skutki dla ludzi, którzy są ofiarami tych uprzedzeń, a także zmniejszają zaufanie do korporacji, rządu i innych instytucji, które mogą korzystać z tych stronniczych produktów. Algorytmiczna stronniczość jest obecnie jednym z głównych problemów AI i pozostanie nim w przyszłości, chyba że postaramy się uczynić nasze produkty technologiczne lepszymi niż jesteśmy. Jak powiedziała jedna osoba na pierwszym spotkaniu Partnerstwa w sprawie AI, „Odtworzymy wszystkie nasze ludzkie wady w sztucznej formie, chyba że już teraz postaramy się, aby tak nie było” .

6. Bezrobocie / brak celu & Znaczenie

Wiele osób już dostrzegło, że AI będzie zagrożeniem dla pewnych kategorii miejsc pracy. Rzeczywiście, automatyzacja przemysłu była głównym czynnikiem przyczyniającym się do utraty miejsc pracy od początku rewolucji przemysłowej. AI po prostu rozszerzy ten trend na więcej dziedzin, w tym na dziedziny, które tradycyjnie uważano za bezpieczniejsze od automatyzacji, na przykład prawo, medycynę i edukację. Nie jest jasne, do jakich nowych zawodów bezrobotni będą mogli ostatecznie przejść, choć im bardziej praca będzie miała związek z opieką nad innymi, tym bardziej prawdopodobne, że ludzie będą chcieli mieć do czynienia z innymi ludźmi, a nie z SI.

Związana z troską o zatrudnienie jest troska o to, jak ludzkość spędza czas i co sprawia, że życie jest dobrze spożytkowane. Co będą robić miliony bezrobotnych? Jakie dobre cele mogą mieć? Co mogą wnieść do dobrobytu społeczeństwa? Jak społeczeństwo zapobiegnie ich rozczarowaniu, zgorzknieniu i wciągnięciu w złe ruchy, takie jak supremacja białych i terroryzm?

7. Rosnące nierówności społeczno-ekonomiczne

Powiązane z problemem bezrobocia jest pytanie, jak ludzie przeżyją, jeśli bezrobocie wzrośnie do bardzo wysokiego poziomu. Skąd będą mieli pieniądze na utrzymanie siebie i swoich rodzin? Podczas gdy ceny mogą spaść z powodu obniżonych kosztów produkcji, ci, którzy kontrolują AI, prawdopodobnie zgarną również większość pieniędzy, które w przeciwnym razie poszłyby na pensje bezrobotnych, a zatem nierówność ekonomiczna wzrośnie. Wpłynie to również na międzynarodową nierówność ekonomiczną, a zatem jest prawdopodobnie głównym zagrożeniem dla mniej rozwiniętych narodów.

Niektórzy zasugerowali uniwersalny dochód podstawowy (UBI), aby rozwiązać ten problem, ale będzie to wymagało poważnej restrukturyzacji gospodarek narodowych. Różne inne rozwiązania tego problemu mogą być możliwe, ale wszystkie one wiążą się z potencjalnie dużymi zmianami w społeczeństwie ludzkim i rządzie. Ostatecznie jest to problem polityczny, a nie techniczny, więc to rozwiązanie, podobnie jak rozwiązania wielu opisanych tu problemów, musi być rozpatrywane na poziomie politycznym.

8. Skutki środowiskowe

Modele uczenia maszynowego wymagają ogromnych ilości energii do szkolenia, tak dużo energii, że koszty mogą sięgać dziesiątek milionów dolarów lub więcej. Nie trzeba dodawać, że jeśli ta energia pochodzi z paliw kopalnych, jest to duży negatywny wpływ na zmiany klimatyczne, nie wspominając o szkodliwości w innych punktach łańcucha dostaw węglowodorów.

Uczenie maszynowe może również sprawić, że dystrybucja energii elektrycznej i jej wykorzystanie będą znacznie bardziej wydajne, jak również praca nad rozwiązywaniem problemów z bioróżnorodnością, badaniami środowiskowymi, zarządzaniem zasobami itp. AI jest w pewien bardzo podstawowy sposób technologią skupioną na wydajności, a wydajność energetyczna jest jednym ze sposobów, w jaki jej możliwości mogą być ukierunkowane.

W sumie wygląda na to, że AI może być pozytywna netto dla środowiska – ale tylko wtedy, gdy jest rzeczywiście ukierunkowana na ten pozytywny cel, a nie tylko na zużywanie energii do innych zastosowań.

9. Automatyzacja etyki

Jedną z mocnych stron AI jest to, że może ona zautomatyzować podejmowanie decyzji, zmniejszając w ten sposób obciążenie ludzi i przyspieszając – potencjalnie znacznie przyspieszając – niektóre rodzaje procesów decyzyjnych. Jednakże, ta automatyzacja podejmowania decyzji będzie stanowić ogromny problem dla społeczeństwa, ponieważ jeśli te zautomatyzowane decyzje będą dobre, społeczeństwo skorzysta, ale jeśli będą złe, społeczeństwo zostanie skrzywdzone.

Jak agenci AI otrzymują więcej uprawnień do podejmowania decyzji, będą musieli mieć zakodowane w sobie standardy etyczne jakiegoś rodzaju. Nie da się tego po prostu obejść: etyczny proces decyzyjny może być tak prosty, jak podążanie za programem, aby sprawiedliwie rozdzielać korzyści, gdzie decyzja jest podejmowana przez ludzi i wykonywana przez algorytmy, ale może również pociągać za sobą znacznie bardziej szczegółową analizę etyczną, nawet jeśli my, ludzie, wolelibyśmy, aby tak nie było – jest tak dlatego, że Ai będą działać o wiele szybciej niż ludzie, że w pewnych okolicznościach ludzie będą pozostawieni „poza pętlą” kontroli z powodu ludzkiej powolności. To już ma miejsce w przypadku ataków cybernetycznych i handlu wysokiej częstotliwości (oba te zjawiska są pełne pytań etycznych, które są zazwyczaj ignorowane) i będzie tylko gorzej, ponieważ AI rozszerza swoją rolę w społeczeństwie.

Ponieważ AI może być tak potężna, standardy etyczne, które jej nadamy, powinny być dobre.

10. Moral Deskilling & Debility

Jeśli przekażemy nasze zdolności decyzyjne maszynom, staniemy się mniej doświadczeni w podejmowaniu decyzji. Na przykład, jest to dobrze znane zjawisko wśród pilotów linii lotniczych: autopilot może zrobić wszystko o lataniu samolotem, od startu do lądowania, ale piloci celowo wybierają ręczne sterowanie samolotem w kluczowych momentach (np, start i lądowanie), aby zachować swoje umiejętności pilotażu.

Ponieważ jednym z zastosowań AI będzie albo wspomaganie, albo zastępowanie ludzi w podejmowaniu pewnych typów decyzji (np. ortografia, prowadzenie samochodu, handel akcjami itp. W najbardziej ekstremalnej formie, jeśli AI zacznie podejmować za nas decyzje etyczne i polityczne, staniemy się gorsi w dziedzinie etyki i polityki. Możemy ograniczyć lub zahamować nasz rozwój moralny dokładnie w momencie, gdy nasza władza stała się największa, a nasze decyzje najważniejsze.

Oznacza to, że studia nad etyką i szkolenia z zakresu etyki są teraz ważniejsze niż kiedykolwiek. Powinniśmy określić sposoby, w jakie AI może faktycznie wzmocnić nasze etyczne uczenie się i szkolenie. Nie powinniśmy nigdy dopuścić do tego, byśmy stali się niewykształceni i osłabieni w etyce, bo kiedy nasza technologia w końcu postawi nas przed trudnymi wyborami do podjęcia i problemami, które musimy rozwiązać – wyborami i problemami, które, być może, nasi przodkowie byliby w stanie rozwiązać – przyszli ludzie mogą nie być w stanie tego zrobić.

Więcej na temat deskillingu, zobacz ten artykuł i oryginalny artykuł Shannon Vallor na ten temat.

11. Świadomość AI, osobowość i „prawa robotów”

Niektórzy myśliciele zastanawiali się, czy AI mogą w końcu stać się samoświadome, osiągnąć własną wolę lub w inny sposób zasłużyć na uznanie za osoby takie jak my. Prawnie rzecz biorąc, osobowość została nadana korporacjom i (w innych krajach) rzekom, więc z pewnością nie ma potrzeby posiadania świadomości, nawet zanim pojawią się pytania prawne.

Moralnie rzecz biorąc, możemy przewidzieć, że technolodzy będą próbowali stworzyć najbardziej podobne do człowieka SI i roboty, jakie to tylko możliwe, i być może pewnego dnia będą one tak dobrymi imitacjami, że będziemy się zastanawiać, czy mogą być świadome i zasługiwać na prawa – i być może nie będziemy w stanie tego rozstrzygnąć. Jeśli przyszli ludzie dojdą do wniosku, że SI i roboty mogą być godne statusu moralnego, to powinniśmy zachować ostrożność i przyznać im ten status.

Pośród tej niepewności co do statusu naszych tworów, będziemy wiedzieć, że my ludzie mamy moralne charaktery i że, podążając za nieścisłym cytatem Arystotelesa, „stajemy się tym, co wielokrotnie robimy”. Nie powinniśmy więc źle traktować SI i robotów, gdyż w przeciwnym razie możemy przyzwyczaić się do posiadania wadliwych charakterów, niezależnie od statusu moralnego sztucznych istot, z którymi wchodzimy w interakcje. Innymi słowy, bez względu na status SI i robotów, dla dobra naszych własnych charakterów moralnych powinniśmy traktować je dobrze, a przynajmniej nie nadużywać ich.

12. AGI i superinteligencja

Jeśli lub kiedy AI osiągnie ludzki poziom inteligencji, robiąc wszystko to, co ludzie mogą robić tak dobrze, jak potrafi to przeciętny człowiek, wtedy będzie to Sztuczna Inteligencja Ogólna – AGI – i będzie to jedyna inna taka inteligencja istniejąca na Ziemi na poziomie ludzkim.

Jeśli lub kiedy AGI przekroczy ludzką inteligencję, stanie się superinteligencją, istotą potencjalnie znacznie mądrzejszą i zdolniejszą od nas: czymś, z czym ludzie kiedykolwiek mieli do czynienia tylko w religiach, mitach i opowieściach.

Co ważne, technologia AI poprawia się niezwykle szybko. Globalne korporacje i rządy ścigają się, aby przypisać sobie moc AI jako własną. Co równie ważne, nie ma powodu, dla którego doskonalenie AI miałoby się zatrzymać na AGI. AI jest skalowalna i szybka. W przeciwieństwie do ludzkiego mózgu, jeśli damy AI więcej sprzętu, będzie ona robić coraz więcej i więcej, coraz szybciej i szybciej.

Nadejście AGI lub superinteligencji będzie oznaczać detronizację ludzkości jako najbardziej inteligentnej rzeczy na Ziemi. Nigdy wcześniej nie zetknęliśmy się (w świecie materialnym) z czymś mądrzejszym od nas. Za każdym razem, gdy w historii życia na Ziemi Homo sapiens napotykał inne inteligentne gatunki ludzkie, gatunki te albo łączyły się z nami genetycznie (jak neandertalczycy), albo wymierały. Gdy napotkamy AGI i superinteligencję, powinniśmy o tym pamiętać; chociaż, ponieważ AI jest narzędziem, mogą istnieć sposoby na utrzymanie etycznej równowagi między człowiekiem a maszyną.

13. Uzależnienie od AI

Ludzie są uzależnieni od technologii. Zawsze tak było, odkąd jesteśmy „ludźmi”; nasza zależność technologiczna jest niemal tym, co definiuje nas jako gatunek. Jednak to, co kiedyś było tylko kamieniami, patykami i futrzanymi ubraniami, stało się teraz o wiele bardziej złożone i kruche. Utrata prądu lub łączności komórkowej może stanowić poważny problem, psychologiczny, a nawet medyczny (w razie nagłego wypadku). I nie ma uzależnienia jak uzależnienie od inteligencji.

Zależność od inteligencji jest formą zależności jak dziecko do dorosłego. Przez większość czasu dzieci polegają na dorosłych, aby myśleli za nie, a w naszych starszych latach, gdy niektórzy ludzie doświadczają spadku zdolności poznawczych, osoby starsze również polegają na młodszych dorosłych. Teraz wyobraźmy sobie, że dorośli w średnim wieku, którzy opiekują się dziećmi i osobami starszymi, sami są zależni od AI, która ich prowadzi. Nie byłoby już żadnych ludzkich „dorosłych”, pozostaliby tylko „dorośli AI”. Ludzkość stałaby się rasą dzieci dla naszych opiekunów z AI.

To, oczywiście, rodzi pytanie, co infantylizowana rasa ludzka zrobiłaby, gdyby nasi rodzice z AI kiedykolwiek ulegli awarii. Bez tej SI, uzależnieni od niej, moglibyśmy stać się jak zagubione dzieci, nie wiedząc, jak dbać o siebie lub nasze technologiczne społeczeństwo. To „zagubienie” już się zdarza, gdy aplikacje nawigacyjne smartfonów ulegają awarii (lub bateria po prostu się wyczerpuje), na przykład.

Jesteśmy już na dobrej drodze do technologicznego uzależnienia. Jak możemy się teraz przygotować, aby uniknąć niebezpieczeństw związanych z uzależnieniem od AI?

14. Uzależnienie napędzane przez AI

Twórcy aplikacji do smartfonów przekształcili uzależnienie w naukę, a gry wideo i aplikacje napędzane przez AI mogą być uzależniające jak narkotyki. AI może wykorzystywać liczne ludzkie pragnienia i słabości, w tym poszukiwanie celu, hazard, chciwość, libido, przemoc i tak dalej.

Uzależnienie nie tylko manipuluje i kontroluje nas, ale także uniemożliwia nam robienie innych ważniejszych rzeczy – edukacyjnych, ekonomicznych i społecznych. To nas zniewala i marnuje nasz czas, kiedy moglibyśmy robić coś wartościowego. Skoro AI nieustannie dowiaduje się o nas coraz więcej i pracuje coraz ciężej, byśmy wciąż klikali i przewijali, jaka jest nadzieja, że uda nam się uciec z jej szponów? Lub, raczej, szpony twórców aplikacji, którzy tworzą te AIs do pułapek nas – bo to nie jest AIs, które zdecydują się traktować ludzi w ten sposób, to inni ludzie.

Gdy rozmawiam o tym temacie z każdej grupy studentów, odkrywam, że wszyscy z nich są „uzależnieni” od tej czy innej aplikacji. To nie może być uzależnienie kliniczne, ale to jest sposób, że studenci definiują to, i wiedzą, że są one wykorzystywane i krzywdzone. To jest coś, co twórcy aplikacji muszą przestać robić: AI nie powinny być zaprojektowane tak, aby celowo wykorzystywać słabości w ludzkiej psychologii.

15. Izolacja i samotność

Społeczeństwo przeżywa kryzys samotności. Na przykład, niedawno badanie wykazało, że „200 000 starszych osób w Wielkiej Brytanii nie rozmawiało z przyjacielem lub krewnym od ponad miesiąca”. Jest to smutny stan rzeczy, ponieważ samotność może dosłownie zabić. Jest to koszmar dla zdrowia publicznego, nie wspominając o niszczeniu samej tkanki społecznej: naszych relacji międzyludzkich. Technologia ma związek z tak wieloma negatywnymi trendami społecznymi i psychologicznymi, w tym samotnością, izolacją, depresją, stresem i lękiem, że łatwo jest zapomnieć, że rzeczy mogłyby być inne, a w rzeczywistości były zupełnie inne tylko kilka dekad temu.

Można by pomyśleć, że media „społeczne”, smartfony i AI mogą pomóc, ale w rzeczywistości są one głównymi przyczynami samotności, ponieważ ludzie stoją przed ekranami zamiast siebie nawzajem. To, co pomaga, to silne relacje w cztery oczy, czyli właśnie te relacje, które są wypierane przez uzależniającą (często napędzaną przez AI) technologię.

Samotności można pomóc, porzucając urządzenia i budując wysokiej jakości relacje w cztery oczy. Innymi słowy: troska.

To może nie być łatwa praca i z pewnością na poziomie społecznym może być bardzo trudno oprzeć się trendom, za którymi podążaliśmy do tej pory. Ale powinniśmy się opierać, ponieważ lepszy, bardziej ludzki świat jest możliwy. Technologia nie musi uczynić świata mniej osobistym i opiekuńczym miejscem – może uczynić coś wręcz przeciwnego, jeśli tylko tego chcemy.

16. Wpływ na ducha ludzkiego

Wszystkie powyższe obszary zainteresowań będą miały wpływ na to, jak ludzie postrzegają siebie, odnoszą się do siebie nawzajem i przeżywają swoje życie. Ale jest też bardziej egzystencjalne pytanie. Jeśli cel i tożsamość ludzkości ma coś wspólnego z naszą inteligencją (jak wierzyło na przykład kilku wybitnych greckich filozofów), to czy uzewnętrzniając naszą inteligencję i doskonaląc ją ponad ludzką inteligencję, nie czynimy z siebie istot drugiej kategorii w stosunku do naszych własnych wytworów?

Jest to głębsze pytanie związane ze sztuczną inteligencją, które sięga sedna naszego człowieczeństwa, do obszarów tradycyjnie zarezerwowanych dla filozofii, duchowości i religii. Co stanie się z ludzkim duchem, jeśli lub kiedy zostaniemy pokonani przez nasze własne twory we wszystkim, co robimy? Czy życie ludzkie straci sens? Czy dojdziemy do nowego odkrycia naszej tożsamości poza naszą inteligencją?

Prawdopodobnie inteligencja nie jest tak ważna dla naszej tożsamości, jak nam się wydaje, i być może przekazanie inteligencji maszynom pomoże nam to sobie uświadomić. Jeśli zamiast tego odnajdziemy nasze człowieczeństwo nie w naszych mózgach, ale w naszych sercach, być może dojdziemy do wniosku, że troska, współczucie, życzliwość i miłość są tym, co ostatecznie czyni nas ludźmi i co sprawia, że warto żyć. Być może odbierając nam część nużącego życia, AI może pomóc nam spełnić tę wizję bardziej humanitarnego świata.

Konkluzja

Kwestii związanych z etyką AI jest więcej; tutaj starałem się jedynie wskazać kilka głównych. Znacznie więcej czasu można by poświęcić na takie tematy, jak inwigilacja napędzana przez AI, rola AI w promowaniu dezinformacji i dezinformacji, rola AI w polityce i stosunkach międzynarodowych, zarządzanie AI i tak dalej.

Nowe technologie są zawsze tworzone w imię czegoś dobrego – a AI oferuje nam niesamowite nowe możliwości pomagania ludziom i czynienia świata lepszym miejscem. Ale aby uczynić świat lepszym miejscem, musimy wybrać, by robić to w zgodzie z etyką.

Dzięki zgodnym wysiłkom wielu jednostek i organizacji możemy mieć nadzieję, że technologia AI pomoże nam uczynić lepszy świat.

Ten artykuł opiera się na następujących wcześniejszych pracach: „AI: Ethical Challenges and a Fast Approaching Future” (Oct. 2017) , „Some Ethical and Theological Reflections on Artificial Intelligence,” (Nov. 2017) , Artificial Intelligence and Ethics: Ten areas of interest (Nov. 2017) , „AI and Ethics” (Mar. 2018) , „Ethical Reflections on Artificial Intelligence”(Aug. 2018) , oraz kilka prezentacji „Artificial Intelligence and Ethics: Sixteen Issues” (2019-20) .

Brian Patrick Green, „Sztuczna inteligencja i etyka: Dziesięć obszarów zainteresowania”, strona internetowa Markkula Center for Applied Ethics, 21 listopada 2017 r., dostępne na: https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics/

Pierwotnie sparafrazowane w Stan Lee i Steve Ditko, „Spider-Man,” Amazing Fantasy vol. 1, #15 (sierpień 1962), dokładna fraza z Uncle Ben w J. Michael Straczynski, Amazing Spider-Man vol. 2, #38 (luty 2002). Więcej informacji: https://en.wikipedia.org/wiki/With_great_power_comes_great_responsibility

Brian Patrick Green, „Artificial Intelligence and Ethics: Sixteen Issues”, różne miejsca i daty: Los Angeles, Mexico City, San Francisco, Santa Clara University (2019-2020).

Bob Yirka, „Computer generated math proof is too large for humans to check,” Phys.org, February 19, 2014, dostępne na: https://phys.org/news/2014-02-math-proof-large-humans.html

The Partnership on AI to Benefit People and Society, Inaugural Meeting, Berlin, Niemcy, 23-24 października 2017 r.

Leila Scola, „AI and the Ethics of Energy Efficiency”, strona internetowa Markkula Center for Applied Ethics, 26 maja 2020 r., dostępne na: https://www.scu.edu/environmental-ethics/resources/ai-and-the-ethics-of-energy-efficiency/

Brian Patrick Green, „Artificial Intelligence, Decision-Making, and Moral Deskilling,” Markkula Center for Applied Ethics website, Mar 15, 2019, dostępne na: https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/artificial-intelligence-decision-making-and-moral-deskilling/

Shannon Vallor, „Moral Deskilling and Upskilling in a New Machine Age: Reflections on the Ambiguous Future of Character.” Philosophy of Technology 28 (2015):107-124, dostępne na: https://link.springer.com/article/10.1007/s13347-014-0156-9

Brad Sylvester, „Fact Check: Did Aristotle Say, 'We Are What We Repeatedly Do’?” Strona internetowa Check Your Fact, 26 czerwca 2019, dostępne na: https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/

Lee Mannion, „Britain appoints minister for loneliness amid growing isolation,” Reuters, 17 stycznia 2018, dostępne na: https://www.reuters.com/article/us-britain-politics-health/britain-appoints-minister-for-loneliness-amid-growing-isolation-idUSKBN1F61I6

Julianne Holt-Lunstad, Timothy B. Smith, Mark Baker,Tyler Harris, and David Stephenson, „Loneliness and Social Isolation as Risk Factors for Mortality: A Meta-Analytic Review,” Perspectives on Psychological Science 10(2) (2015): 227-237, dostępne na: https://journals.sagepub.com/doi/full/10.1177/1745691614568352

Markkula Center for Applied Ethics Staff, „AI: Ethical Challenges and a Fast Approaching Future: A panel discussion on artificial intelligence,” with Maya Ackerman, Sanjiv Das, Brian Green, and Irina Raicu, Santa Clara University, California, October 24, 2017, posted to the All About Ethics Blog, Oct 31, 2017, wideo dostępne pod adresem: https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/

Brian Patrick Green, „Some Ethical and Theological Reflections on Artificial Intelligence,” Pacific Coast Theological Society (PCTS) meeting, Graduate Theological Union, Berkeley, 3-4 November, 2017, dostępne na: http://www.pcts.org/meetings/2017/PCTS2017Nov-Green-ReflectionsAI.pdf

Brian Patrick Green, „AI and Ethics”, wykład gościnny w ramach PACS003: What is an Ethical Life?, University of the Pacific, Stockton, 21 marca 2018.

Brian Patrick Green, „Ethical Reflections on Artificial Intelligence”, Scientia et Fides 6(2), 24 sierpnia 2018. Dostępne na: http://apcz.umk.pl/czasopisma/index.php/SetF/article/view/SetF.2018.015/15729

Dziękuję wielu osobom za wszystkie pomocne informacje zwrotne, które pomogły mi rozwinąć tę listę, w tym Mayi Ackermann, Kirkowi Bresnikerowi, Sanjiv Dasowi, Kirkowi Hansonowi, Brianowi Klunkowi, Thane’owi Kreinerowi, Angelusowi McNally’emu, Irinie Raicu, Leili Scoli, Lili Tavlan, Shannon Vallor, pracownikom kilku firm technologicznych, uczestnikom spotkania PCTS Fall 2017, uczestnikom potrzebnych.spotkań edukacyjnych, kilku anonimowych recenzentów, profesorów i studentów PACS003 na University of the Pacific, studentów mojego kursu ENGR 344: AI and Ethics course, jak również wielu innych.

.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.