Brian Patrick Green is directeur Technologie-ethiek bij het Markkula Center for Applied Ethics. Dit artikel is een update van een eerder artikel dat hier te vinden is. Views are his own.

Artificial intelligence and machine learning technologies are rapidly transforming society and will continue to do so in the coming decades. Deze sociale transformatie zal diepgaande ethische gevolgen hebben, waarbij deze krachtige nieuwe technologieën het leven van mensen zowel verbeteren als verstoren. AI, als de externalisering van menselijke intelligentie, biedt ons in versterkte vorm alles wat de mensheid al is, zowel het goede als het kwade. Er staat veel op het spel. Op dit kruispunt in de geschiedenis moeten we heel zorgvuldig nadenken over hoe we deze overgang maken, of we lopen het risico dat we de grimmigste kant van onze aard bekrachtigen, in plaats van de helderste.

Waarom is AI-ethiek nu een probleem aan het worden? Machine learning (ML) door middel van neurale netwerken gaat snel vooruit om drie redenen: 1) Enorme toename van de omvang van datasets; 2) Enorme toename van rekenkracht; 3) Enorme verbetering van ML-algoritmen en meer menselijk talent om ze te schrijven. Alle drie deze trends zijn centralisatie van macht, en “With great power comes great responsibility” .

Als instelling heeft het Markkula Center for Applied Ethics al een aantal jaren diep nagedacht over de ethiek van AI. Dit artikel begon als presentaties op academische conferenties en is sindsdien uitgegroeid tot een academische paper (links hieronder) en meest recent tot een presentatie van “Artificial Intelligence and Ethics: Sixteen Issues” die ik in de V.S. en internationaal heb gegeven. In die geest bied ik deze huidige lijst aan:

1. Technische veiligheid

De eerste vraag bij elke technologie is of ze werkt zoals bedoeld. Zullen AI-systemen werken zoals ze beloofd zijn of zullen ze falen? Als en wanneer ze falen, wat zijn dan de gevolgen van die mislukkingen? En als we van hen afhankelijk zijn, zullen we dan in staat zijn om zonder hen te overleven?

Er zijn bijvoorbeeld verschillende mensen omgekomen bij een semi-autonoom auto-ongeluk omdat de voertuigen in situaties terechtkwamen waarin ze er niet in slaagden om veilige beslissingen te nemen. Hoewel het schrijven van zeer gedetailleerde contracten die de aansprakelijkheid beperken juridisch gezien de verantwoordelijkheid van een fabrikant zou kunnen verminderen, ligt de verantwoordelijkheid vanuit moreel oogpunt niet alleen nog steeds bij het bedrijf, maar kan het contract zelf worden gezien als een onethisch plan om legitieme verantwoordelijkheid te ontlopen.

De vraag naar technische veiligheid en falen staat los van de vraag hoe een goed functionerende technologie ten goede of ten kwade kan worden gebruikt (vragen 3 en 4, hieronder). Deze vraag heeft slechts betrekking op de functie, maar vormt het fundament waarop de rest van de analyse moet worden gebouwd.

2. Transparantie en privacy

Wanneer we eenmaal hebben vastgesteld dat de technologie naar behoren functioneert, kunnen we dan werkelijk begrijpen hoe zij functioneert en op de juiste wijze gegevens verzamelen over het functioneren ervan? Ethische analyse hangt altijd af van het eerst verkrijgen van de feiten – pas dan kan de evaluatie beginnen.

Het blijkt dat het met sommige technieken voor machinaal leren, zoals diep leren in neurale netwerken, moeilijk of onmogelijk kan zijn om echt te begrijpen waarom de machine de keuzes maakt die ze maakt. In andere gevallen kan het zijn dat de machine iets kan verklaren, maar dat de verklaring te ingewikkeld is voor mensen om te begrijpen.

In 2014 bewees een computer bijvoorbeeld een wiskundige stelling, met behulp van een bewijs dat, op dat moment althans, langer was dan de hele Wikipedia-encyclopedie . Dit soort verklaringen zouden ware verklaringen kunnen zijn, maar de mens zal dat nooit zeker weten.

Een bijkomend punt is dat in het algemeen geldt: hoe machtiger iemand of iets is, hoe transparanter het zou moeten zijn, terwijl hoe zwakker iemand is, hoe meer recht op privacy hij of zij zou moeten hebben. Daarom is het idee dat machtige AI’s intrinsiek ondoorzichtig zouden kunnen zijn, verontrustend.

3. Nuttig gebruik & Capaciteit voor het goede

Het belangrijkste doel van AI is, net als elke andere technologie, mensen te helpen een langer, bloeiender, bevredigender leven te leiden. Dit is goed, en daarom kunnen we, voor zover AI mensen op deze manieren helpt, blij zijn en de voordelen die het ons geeft waarderen.

Toegevoegde intelligentie zal waarschijnlijk verbeteringen opleveren op bijna elk gebied van menselijk streven, waaronder bijvoorbeeld archeologie, biomedisch onderzoek, communicatie, data-analyse, onderwijs, energie-efficiëntie, milieubescherming, landbouw, financiën, juridische diensten, medische diagnostiek, beheer van hulpbronnen, ruimte-exploratie, vervoer, afvalbeheer, enzovoort.

Als slechts één concreet voorbeeld van een voordeel van AI: sommige landbouwmachines beschikken nu over computersystemen die onkruid visueel kunnen identificeren en het kunnen besproeien met kleine gerichte doses herbicide. Dit beschermt niet alleen het milieu door het gebruik van chemicaliën op gewassen te verminderen, maar het beschermt ook de menselijke gezondheid door de blootstelling aan deze chemicaliën te verminderen.

4. Kwaadaardig gebruik & Capaciteit voor kwaad

Een perfect functionerende technologie, zoals een kernwapen, kan, wanneer zij voor het beoogde doel wordt ingezet, immens kwaad veroorzaken. Kunstmatige intelligentie zal, net als menselijke intelligentie, zonder enige twijfel kwaadaardig worden gebruikt.

Zo is door AI aangedreven bewaking al wijdverbreid, zowel in een geschikte context (bijv. beveiligingscamera’s op vliegvelden), als in een wellicht ongepaste (bijv. producten met altijd-microfoons in onze huizen), als in een absoluut ongepaste context (bijv. producten die autoritaire regimes helpen hun burgers te identificeren en te onderdrukken). Andere snode voorbeelden zijn computer-hacking met behulp van AI en autonome dodelijke wapensystemen (LAWS), ook bekend als “killer robots”. Andere angsten, van verschillende mate van plausibiliteit, omvatten scenario’s zoals die in de films “2001: A Space Odyssey,” “Wargames,” en “Terminator.”

Terwijl films en wapentechnologieën misschien extreme voorbeelden lijken van hoe AI het kwaad zou kunnen versterken, moeten we niet vergeten dat concurrentie en oorlog altijd primaire drijfveren van technologische vooruitgang zijn, en dat militairen en bedrijven op dit moment aan deze technologieën werken. De geschiedenis toont ook aan dat grote kwaden niet altijd volledig bedoeld zijn (bv. het uitbreken van de Eerste Wereldoorlog en verschillende nucleaire close-calls in de Koude Oorlog), en dus riskeert het hebben van vernietigende kracht, zelfs als het niet de bedoeling is om het te gebruiken, nog steeds een catastrofe. Daarom zou het verbieden, verbieden en afstaan van bepaalde soorten technologie de meest voorzichtige oplossing zijn.

5. Bias in Data, Training Sets, etc.

Een van de interessante dingen van neurale netwerken, de huidige werkpaarden van de kunstmatige intelligentie, is dat zij in feite een computerprogramma laten samensmelten met de gegevens die eraan worden gegeven. Dit heeft vele voordelen, maar het brengt ook het risico met zich mee dat het hele systeem op onverwachte en potentieel schadelijke manieren wordt beïnvloed.

Er zijn algoritmische vooringenomenheden ontdekt, bijvoorbeeld op gebieden variërend van strafrechtelijke bestraffing tot bijschriften bij foto’s. Deze vooroordelen zijn meer dan alleen gênant voor de bedrijven die deze gebrekkige producten produceren; ze hebben concrete negatieve en schadelijke gevolgen voor de mensen die het slachtoffer zijn van deze vooroordelen, evenals het verminderen van het vertrouwen in bedrijven, de overheid en andere instellingen die deze bevooroordeelde producten zouden kunnen gebruiken. Algoritmische vooringenomenheid is op dit moment een van de grootste problemen bij AI en dat zal in de toekomst zo blijven, tenzij we ons inspannen om onze technologische producten beter te maken dan we zijn. Zoals iemand tijdens de eerste bijeenkomst van het Partnership on AI zei: “We zullen al onze menselijke fouten in kunstmatige vorm reproduceren, tenzij we er nu al naar streven om ervoor te zorgen dat we dat niet doen.”

6. Werkloosheid / Gebrek aan doel & Betekenis

Velen hebben al gemerkt dat AI een bedreiging zal vormen voor bepaalde categorieën banen. De automatisering van de industrie heeft inderdaad sinds het begin van de industriële revolutie in belangrijke mate bijgedragen tot het verlies van banen. AI zal deze trend eenvoudigweg uitbreiden tot meer gebieden, met inbegrip van gebieden die traditioneel veiliger werden geacht voor automatisering, bijvoorbeeld rechten, geneeskunde en onderwijs. Het is niet duidelijk naar welke nieuwe carrières werklozen uiteindelijk zullen kunnen overstappen, hoewel hoe meer arbeid te maken heeft met het zorgen voor anderen, hoe waarschijnlijker het is dat mensen met andere mensen te maken willen hebben en niet met AI’s.

Naast de bezorgdheid over werkgelegenheid is er de bezorgdheid over hoe de mensheid haar tijd doorbrengt en wat een goed besteed leven maakt. Wat zullen miljoenen werklozen doen? Welke goede doelen kunnen zij hebben? Wat kunnen zij bijdragen tot het welzijn van de samenleving? Hoe zal de samenleving voorkomen dat zij gedesillusioneerd en verbitterd raken en meegesleurd worden in kwade bewegingen zoals blanke suprematie en terrorisme?

7. Groeiende sociaal-economische ongelijkheid

Verband met het werkloosheidsprobleem is de vraag hoe mensen zullen overleven als de werkloosheid tot zeer hoge niveaus stijgt. Waar zullen zij het geld vandaan halen om zichzelf en hun gezinnen te onderhouden? Hoewel de prijzen kunnen dalen als gevolg van lagere productiekosten, zullen degenen die AI beheersen waarschijnlijk ook veel van het geld binnenharken dat anders naar de lonen van de nu werklozen zou zijn gegaan, en daarom zal de economische ongelijkheid toenemen. Dit zal ook gevolgen hebben voor de internationale economische ongelijkheid, en is daarom waarschijnlijk een grote bedreiging voor de minder ontwikkelde landen.

Sommigen hebben een universeel basisinkomen (UBI) voorgesteld om het probleem aan te pakken, maar dit zal een ingrijpende herstructurering van de nationale economieën vereisen. Verschillende andere oplossingen voor dit probleem zijn mogelijk, maar zij impliceren alle potentieel grote veranderingen in de menselijke samenleving en de regering. Uiteindelijk is dit een politiek probleem, geen technisch probleem, zodat deze oplossing, zoals die voor veel van de hier beschreven problemen, op politiek niveau moet worden aangepakt.

8. Milieu-effecten

Machine-leermodellen vergen enorme hoeveelheden energie om te trainen, zoveel energie dat de kosten in de tientallen miljoenen dollars of meer kunnen lopen. Het behoeft geen betoog dat, als deze energie afkomstig is van fossiele brandstoffen, dit een groot negatief effect heeft op de klimaatverandering, om nog maar te zwijgen van het feit dat dit schadelijk is op andere punten in de toeleveringsketen van koolwaterstoffen.

Machine-leren kan ook de distributie en het gebruik van elektriciteit veel efficiënter maken, en werken aan de oplossing van problemen op het gebied van biodiversiteit, milieuonderzoek, beheer van hulpbronnen, enz. AI is in een aantal zeer fundamentele opzichten een technologie die gericht is op efficiëntie, en energie-efficiëntie is een van de manieren waarop de mogelijkheden ervan kunnen worden gericht.

Al met al lijkt het erop dat AI een netto positief effect op het milieu zou kunnen hebben – maar alleen als het daadwerkelijk wordt gericht op dat positieve doel, en niet alleen op het verbruik van energie voor andere doeleinden.

9. Automatisering van ethiek

Een sterk punt van AI is dat het de besluitvorming kan automatiseren, waardoor de mens minder wordt belast en sommige besluitvormingsprocessen sneller en mogelijk veel sneller kunnen verlopen. Deze automatisering van de besluitvorming zal de samenleving echter voor enorme problemen stellen, want als deze geautomatiseerde beslissingen goed zijn, zal de samenleving daarvan profiteren, maar als zij slecht zijn, zal de samenleving worden geschaad.

Als AI-agenten meer bevoegdheden krijgen om beslissingen te nemen, zullen zij een of andere vorm van ethische normen in zich moeten hebben gecodeerd. Er is gewoon geen ontkomen aan: het ethische besluitvormingsproces kan zo eenvoudig zijn als het volgen van een programma om een uitkering eerlijk te verdelen, waarbij de beslissing door mensen wordt genomen en door algoritmen wordt uitgevoerd, maar het kan ook een veel gedetailleerdere ethische analyse met zich meebrengen, ook al zouden wij mensen liever hebben dat dit niet het geval was – dit komt omdat AI zoveel sneller zal werken dan mensen kunnen, dat onder sommige omstandigheden mensen “buiten spel” zullen komen te staan als gevolg van de menselijke traagheid. Dit gebeurt nu al bij cyberaanvallen en high-frequency trading (die beide vol ethische vragen zitten die doorgaans worden genegeerd) en het zal alleen maar erger worden naarmate AI zijn rol in de samenleving uitbreidt.

Omdat AI zo machtig kan zijn, kunnen de ethische normen die we eraan geven maar beter goed zijn.

10. Moral Deskilling & Debility

Als we onze besluitvormingscapaciteiten overdragen aan machines, zullen we minder ervaren worden in het nemen van beslissingen. Dit is bijvoorbeeld een bekend verschijnsel onder piloten van luchtvaartmaatschappijen: de automatische piloot kan alles doen wat te maken heeft met het besturen van een vliegtuig, van opstijgen tot landen, maar piloten kiezen er bewust voor om op cruciale momenten het vliegtuig handmatig te besturen (bijv,

Omdat een van de toepassingen van AI zal zijn om mensen te helpen of te vervangen bij het nemen van bepaalde soorten beslissingen (b.v. spelling, autorijden, aandelenhandel, enz.), moeten we ons ervan bewust zijn dat mensen slechter kunnen worden in deze vaardigheden. In zijn meest extreme vorm, als AI ethische en politieke beslissingen voor ons gaat nemen, zullen wij slechter worden in ethiek en politiek. We kunnen onze morele ontwikkeling verminderen of afremmen juist op het moment dat onze macht het grootst is geworden en onze beslissingen het belangrijkst.

Dit betekent dat de studie van ethiek en ethiektraining nu belangrijker zijn dan ooit. We moeten manieren bepalen waarop AI ons ethisch leren en trainen kan verbeteren. We mogen onszelf nooit toestaan om gedesillusioneerd te raken in ethiek, of wanneer onze technologie ons uiteindelijk voor moeilijke keuzes stelt en problemen die we moeten oplossen – keuzes en problemen die onze voorouders misschien hadden kunnen oplossen – zijn toekomstige mensen misschien niet in staat om het te doen.

Voor meer over deskilling, zie dit artikel en het oorspronkelijke artikel van Shannon Vallor over het onderwerp.

11. AI-bewustzijn, persoonlijkheid en “Robot Rechten”

Sommige denkers hebben zich afgevraagd of AI’s uiteindelijk zelfbewust zouden kunnen worden, hun eigen wil zouden kunnen bereiken, of anderszins erkenning zouden verdienen als personen zoals wij. Wettelijk gezien is de persoonlijkheid toegekend aan bedrijven en (in andere landen) rivieren, dus er is zeker geen behoefte aan bewustzijn nog voordat juridische vragen kunnen rijzen.

Moraal gesproken kunnen we verwachten dat technologen zullen proberen zo menselijk mogelijke AI’s en robots te maken, en misschien zullen ze op een dag zulke goede imitaties zijn dat we ons zullen afvragen of ze misschien bewust zijn en rechten verdienen – en misschien zijn we niet in staat om dit onomstotelijk vast te stellen. Als toekomstige mensen tot de conclusie komen dat AI’s en robots een morele status verdienen, dan moeten we het zekere voor het onzekere nemen en die toekennen.

Ter midden van deze onzekerheid over de status van onze scheppingen, zullen we weten dat wij mensen morele karakters hebben en dat, om een onnauwkeurig citaat van Aristoteles te volgen, “we worden wat we herhaaldelijk doen” . We moeten AI’s en robots dus niet slecht behandelen, anders zouden we onszelf kunnen aanwennen om gebrekkige karakters te hebben, ongeacht de morele status van de kunstmatige wezens waarmee we interageren. Met andere woorden, ongeacht de status van AI’s en robots, omwille van onze eigen morele karakters zouden we ze goed moeten behandelen, of op zijn minst niet misbruiken.

12. AGI en Superintelligentie

Als of wanneer AI het menselijke intelligentieniveau bereikt, en alles doet wat mensen even goed kunnen als de gemiddelde mens, dan zal het een Kunstmatige Algemene Intelligentie zijn – een AGI – en het zal de enige andere dergelijke intelligentie zijn die op Aarde bestaat op het menselijke niveau.

Als of wanneer AGI de menselijke intelligentie overtreft, zal het een superintelligentie worden, een entiteit die in potentie veel slimmer en capabeler is dan wij: iets waar mensen alleen ooit mee te maken hebben gehad in religies, mythen en verhalen.

Belangrijk hierbij is dat de AI-technologie buitengewoon snel verbetert. Wereldwijde bedrijven en regeringen zijn in een race om de krachten van AI als de hunne te claimen. Net zo belangrijk is dat er geen reden is waarom de verbetering van AI zou stoppen bij AGI. AI is schaalbaar en snel. In tegenstelling tot een menselijk brein zal AI, als we hem meer hardware geven, steeds meer doen, steeds sneller.

De komst van AGI of superintelligentie zal de onttroning van de mensheid als het intelligentste ding op aarde betekenen. We hebben nog nooit te maken gehad (in de materiële wereld) met iets dat slimmer is dan wij. Elke keer dat Homo sapiens in de geschiedenis van het leven op Aarde andere intelligente menselijke soorten tegenkwam, fuseerde de andere soort genetisch met ons (zoals Neanderthalers deden) of werd uitgestorven. Als we in aanraking komen met AGI en superintelligentie, moeten we dit in gedachten houden; hoewel, omdat AI een instrument is, zijn er misschien nog manieren om een ethisch evenwicht tussen mens en machine te handhaven.

13. Afhankelijkheid van AI

Mensen zijn afhankelijk van technologie. Dat hebben we altijd gedaan, sinds we “mens” zijn; onze technologische afhankelijkheid is bijna wat ons als soort definieert. Wat vroeger gewoon stenen, stokken en bontkleren waren, is nu echter veel complexer en kwetsbaarder geworden. Het verlies van elektriciteit of mobiele connectiviteit kan een ernstig probleem zijn, psychologisch of zelfs medisch (als er een noodgeval is). En er is geen afhankelijkheid zoals intelligentie-afhankelijkheid.

Intelligentie-afhankelijkheid is een vorm van afhankelijkheid zoals die van een kind ten opzichte van een volwassene. Veel van de tijd, kinderen vertrouwen op volwassenen om voor hen te denken, en in onze oudere jaren, als sommige mensen cognitieve achteruitgang ervaren, de ouderen vertrouwen ook op jongere volwassenen. Stel je nu eens voor dat volwassenen van middelbare leeftijd die voor kinderen en bejaarden zorgen, zelf afhankelijk zijn van AI om hen te begeleiden. Er zouden geen menselijke “volwassenen” meer zijn, alleen nog “AI-volwassenen”. De mensheid zou een ras van kinderen zijn geworden voor onze AI verzorgers.

Dit roept natuurlijk de vraag op wat een infantiliserend menselijk ras zou doen als onze AI ouders ooit slecht zouden functioneren. Zonder die AI, als we er afhankelijk van zijn, zouden we als verloren kinderen kunnen worden, niet wetend hoe we voor onszelf of onze technologische samenleving moeten zorgen. Dit “verloren zijn” gebeurt nu al wanneer smartphone navigatie apps slecht functioneren (of de batterij gewoon leeg is), bijvoorbeeld.

We zijn al ver op het pad naar technologische afhankelijkheid. Hoe kunnen we ons nu voorbereiden, zodat we de gevaren van specifiek op intelligentie gebaseerde afhankelijkheid van AI kunnen vermijden?

14. AI-aangedreven verslaving

Makers van smartphone-apps hebben verslaving tot een wetenschap gemaakt, en AI-aangedreven videospelletjes en apps kunnen verslavend zijn zoals drugs. AI kan misbruik maken van talloze menselijke verlangens en zwakheden, waaronder het zoeken naar een doel, gokken, hebzucht, libido, geweld, enzovoort.

Verslaving manipuleert en controleert ons niet alleen; het weerhoudt ons er ook van om andere, belangrijkere dingen te doen – op educatief, economisch en sociaal gebied. Het maakt ons tot slaaf en verspilt onze tijd terwijl we iets waardevols zouden kunnen doen. Nu AI voortdurend meer over ons te weten komt en harder werkt om ons aan het klikken en scrollen te houden, welke hoop is er dan voor ons om aan zijn klauwen te ontsnappen? Of liever gezegd, de klauwen van de app-makers die deze AI’s creëren om ons in de val te lokken – want het zijn niet de AI’s die ervoor kiezen om mensen op deze manier te behandelen, het zijn andere mensen.

Wanneer ik over dit onderwerp praat met een willekeurige groep studenten, ontdek ik dat ze allemaal “verslaafd” zijn aan een of andere app. Het is misschien geen klinische verslaving, maar dat is de manier waarop de studenten het definiëren, en ze weten dat ze worden uitgebuit en geschaad. Dit is iets waar app-makers mee moeten stoppen: AI mag niet worden ontworpen om opzettelijk kwetsbaarheden in de menselijke psychologie uit te buiten.

15. Isolement en eenzaamheid

De samenleving verkeert in een eenzaamheidscrisis. Zo bleek onlangs uit een studie dat “200.000 oudere mensen in het VK al meer dan een maand geen gesprek meer hebben gehad met een vriend of familielid” . Dit is een trieste stand van zaken omdat eenzaamheid letterlijk dodelijk kan zijn. Het is een nachtmerrie voor de volksgezondheid, om nog maar te zwijgen van de destructieve werking van de structuur van de samenleving: onze menselijke relaties. Technologie is betrokken bij zoveel negatieve sociale en psychologische trends, waaronder eenzaamheid, isolatie, depressie, stress en angst, dat het gemakkelijk is om te vergeten dat dingen anders zouden kunnen zijn, en in feite waren ze slechts een paar decennia geleden heel anders.

Je zou kunnen denken dat “sociale” media, smartphones en AI zouden kunnen helpen, maar in feite zijn ze belangrijke oorzaken van eenzaamheid, omdat mensen geconfronteerd worden met schermen in plaats van met elkaar. Wat wel helpt zijn sterke in-person relaties, juist de relaties die worden verdrongen door verslavende (vaak AI-aangedreven) technologie.

Eenzaamheid kan worden verholpen door apparaten te laten vallen en kwalitatieve in-person relaties op te bouwen. Met andere woorden: zorgzaamheid.

Dit is misschien geen gemakkelijk werk en zeker op maatschappelijk niveau kan het heel moeilijk zijn om weerstand te bieden aan de trends die we tot nu toe al hebben gevolgd. Maar weerstand bieden moeten we, want een betere, menselijker wereld is mogelijk. Technologie hoeft de wereld niet minder persoonlijk en zorgzaam te maken – zij kan het tegenovergestelde doen, als wij dat zouden willen.

16. Gevolgen voor de menselijke geest

Alle bovengenoemde aandachtsgebieden zullen gevolgen hebben voor de wijze waarop de mens zichzelf waarneemt, met elkaar omgaat en zijn leven leidt. Maar er is ook een meer existentiële vraag. Als het doel en de identiteit van de mensheid iets te maken heeft met onze intelligentie (zoals verschillende vooraanstaande Griekse filosofen bijvoorbeeld geloofden), maken we onszelf dan, door onze intelligentie te externaliseren en te verbeteren voorbij de menselijke intelligentie, tweederangs wezens ten opzichte van onze eigen scheppingen?

Dit is een diepere vraag bij kunstmatige intelligentie die snijdt tot de kern van ons mens-zijn, op gebieden die traditioneel zijn voorbehouden aan filosofie, spiritualiteit en religie. Wat zal er gebeuren met de menselijke geest als of wanneer we worden overtroffen door onze eigen creaties in alles wat we doen? Zal het menselijk leven zin verliezen? Zullen we tot een nieuwe ontdekking komen van onze identiteit voorbij onze intelligentie?

Misschien is intelligentie niet echt zo belangrijk voor onze identiteit als we misschien denken, en misschien zal het overdragen van intelligentie aan machines ons helpen dat te beseffen. Als we in plaats daarvan onze menselijkheid niet in onze hersenen, maar in ons hart vinden, misschien zullen we komen om te erkennen dat zorg, mededogen, vriendelijkheid en liefde zijn uiteindelijk wat maken ons menselijk en wat maken het leven de moeite waard te leven. Misschien kan AI, door een deel van de verveling van het leven weg te nemen, ons helpen deze visie van een menselijker wereld te vervullen.

Conclusie

Er zijn meer kwesties in de ethiek van AI; hier heb ik slechts getracht enkele belangrijke aan te stippen. Er zou veel meer tijd besteed kunnen worden aan onderwerpen als bewaking met behulp van AI, de rol van AI bij het bevorderen van verkeerde informatie en desinformatie, de rol van AI in de politiek en in internationale betrekkingen, het bestuur van AI, enzovoort.

Nieuwe technologieën worden altijd gecreëerd om iets goeds te doen – en AI biedt ons verbazingwekkende nieuwe mogelijkheden om mensen te helpen en de wereld beter te maken. Maar om van de wereld een betere plaats te maken, moeten we ervoor kiezen om dat te doen, in overeenstemming met de ethiek.

Door de gezamenlijke inspanning van vele individuen en organisaties, kunnen we hopen dat AI-technologie ons zal helpen om een betere wereld te maken.

Dit artikel bouwt voort op de volgende eerdere werken: “AI: Ethische uitdagingen en een snel naderende toekomst” (okt. 2017) , “Some Ethical and Theological Reflections on Artificial Intelligence,” (nov. 2017) , Artificial Intelligence and Ethics: Tien aandachtsgebieden (nov. 2017) , “AI and Ethics” (mrt. 2018) , “Ethical Reflections on Artificial Intelligence”(aug. 2018) , en diverse presentaties van “Artificial Intelligence and Ethics: Sixteen Issues” (2019-20) .

Brian Patrick Green, “Kunstmatige intelligentie en ethiek: Tien aandachtsgebieden,” Markkula Center for Applied Ethics website, 21 nov 2017, beschikbaar op: https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics/

Oorspronkelijk geparafraseerd in Stan Lee en Steve Ditko, “Spider-Man,” Amazing Fantasy vol. 1, #15 (augustus 1962), exacte zinsnede van Uncle Ben in J. Michael Straczynski, Amazing Spider-Man vol. 2, #38 (februari 2002). Voor meer informatie: https://en.wikipedia.org/wiki/With_great_power_comes_great_responsibility

Brian Patrick Green, “Artificial Intelligence and Ethics: Sixteen Issues,” verschillende locaties en data: Los Angeles, Mexico City, San Francisco, Santa Clara University (2019-2020).

Bob Yirka, “Computer generated math proof is too large for humans to check,” Phys.org, 19 februari 2014, beschikbaar op: https://phys.org/news/2014-02-math-proof-large-humans.html

The Partnership on AI to Benefit People and Society, Inaugural Meeting, Berlijn, Duitsland, 23-24 oktober 2017.

Leila Scola, “AI and the Ethics of Energy Efficiency,” Markkula Center for Applied Ethics website, 26 mei 2020, beschikbaar op: https://www.scu.edu/environmental-ethics/resources/ai-and-the-ethics-of-energy-efficiency/

Brian Patrick Green, “Artificial Intelligence, Decision-Making, and Moral Deskilling,” Markkula Center for Applied Ethics website, 15 mrt 2019, beschikbaar op: https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/artificial-intelligence-decision-making-and-moral-deskilling/

Shannon Vallor, “Moral Deskilling and Upskilling in a New Machine Age: Reflections on the Ambiguous Future of Character.” Philosophy of Technology 28 (2015):107-124., beschikbaar op: https://link.springer.com/article/10.1007/s13347-014-0156-9

Brad Sylvester, “Fact Check: Heeft Aristoteles gezegd: ‘We zijn wat we herhaaldelijk doen’?” Check Your Fact website, 26 juni 2019, beschikbaar op: https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/

Lee Mannion, “Groot-Brittannië benoemt minister voor eenzaamheid te midden van groeiend isolement,” Reuters, 17 januari 2018, beschikbaar op: https://www.reuters.com/article/us-britain-politics-health/britain-appoints-minister-for-loneliness-amid-growing-isolation-idUSKBN1F61I6

Julianne Holt-Lunstad, Timothy B. Smith, Mark Baker,Tyler Harris, and David Stephenson, “Loneliness and Social Isolation as Risk Factors for Mortality: A Meta-Analytic Review,” Perspectives on Psychological Science 10(2) (2015): 227-237, beschikbaar op: https://journals.sagepub.com/doi/full/10.1177/1745691614568352

Markkula Center for Applied Ethics Staff, “AI: Ethical Challenges and a Fast Approaching Future: A panel discussion on artificial intelligence,” met Maya Ackerman, Sanjiv Das, Brian Green, en Irina Raicu, Santa Clara University, Californië, 24 oktober 2017, geplaatst op de All About Ethics Blog, 31 okt 2017, video beschikbaar op: https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/

Brian Patrick Green, “Some Ethical and Theological Reflections on Artificial Intelligence,” Pacific Coast Theological Society (PCTS) meeting, Graduate Theological Union, Berkeley, 3-4 november, 2017, beschikbaar op: http://www.pcts.org/meetings/2017/PCTS2017Nov-Green-ReflectionsAI.pdf

Brian Patrick Green, “AI and Ethics,” gastcollege in PACS003: What is an Ethical Life?, University of the Pacific, Stockton, 21 maart 2018.

Brian Patrick Green, “Ethical Reflections on Artificial Intelligence,” Scientia et Fides 6(2), 24 augustus 2018. Beschikbaar op: http://apcz.umk.pl/czasopisma/index.php/SetF/article/view/SetF.2018.015/15729

Bedankt aan veel mensen voor alle nuttige feedback die me heeft geholpen deze lijst te ontwikkelen, waaronder Maya Ackermann, Kirk Bresniker, Sanjiv Das, Kirk Hanson, Brian Klunk, Thane Kreiner, Angelus McNally, Irina Raicu, Leila Scola, Lili Tavlan, Shannon Vallor, de medewerkers van verschillende techbedrijven, de aanwezigen van de PCTS Fall 2017-bijeenkomst, de aanwezigen van de nodig.education meetings, verschillende anonieme reviewers, de professoren en studenten van PACS003 aan de University of the Pacific, de studenten van mijn ENGR 344: AI and Ethics course, evenals vele anderen.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.