Brian Patrick Green on Markkula Center for Applied Ethicsin teknologian etiikan johtaja. Tämä artikkeli on päivitys aiemmasta artikkelista, joka löytyy täältä . Näkemykset ovat hänen omiaan.

Tekoäly- ja koneoppimisteknologiat muuttavat yhteiskuntaa nopeasti ja tulevat muuttamaan sitä edelleen tulevina vuosikymmeninä. Tällä yhteiskunnallisella muutoksella on syviä eettisiä vaikutuksia, sillä nämä tehokkaat uudet teknologiat sekä parantavat että häiritsevät ihmisten elämää. Tekoäly inhimillisen älykkyyden ulkoistamisena tarjoaa meille vahvistetussa muodossa kaiken sen, mitä ihmiskunta jo on, sekä hyvän että pahan. Paljon on vaakalaudalla. Tässä historian risteyskohdassa meidän pitäisi miettiä hyvin tarkkaan, miten teemme tämän siirtymän, tai muuten vaarana on, että voimaannutamme luontomme synkempää puolta valoisamman sijaan.

Miksi tekoälyn etiikasta on nyt tulossa ongelma? Koneoppiminen (ML) neuroverkkojen avulla etenee nopeasti kolmesta syystä: 1) Tietoaineistojen koon valtava kasvu; 2) Laskentatehon valtava kasvu; 3) ML-algoritmien valtava parantuminen ja enemmän inhimillistä lahjakkuutta niiden kirjoittamiseen. Kaikki nämä kolme suuntausta merkitsevät vallan keskittämistä, ja ”Suuren vallan myötä tulee suuri vastuu” .

Markkulan sovelletun etiikan keskus on instituutiona pohtinut tekoälyn etiikkaa syvällisesti jo useiden vuosien ajan. Tämä artikkeli alkoi akateemisissa konferensseissa pidettyinä esitelminä, ja sittemmin se on laajentunut akateemiseksi paperiksi (linkit alla) ja viimeisimpänä esitykseksi ”Artificial Intelligence and Ethics: Sixteen Issues”, jonka olen pitänyt Yhdysvalloissa ja kansainvälisesti. Tässä hengessä tarjoan tämän nykyisen luettelon:

1. Tekninen turvallisuus

Ensimmäinen kysymys minkä tahansa teknologian kohdalla on, toimiiko se tarkoitetulla tavalla. Toimivatko tekoälyjärjestelmät niin kuin luvataan vai epäonnistuvatko ne? Jos ja kun ne epäonnistuvat, mitkä ovat näiden epäonnistumisten seuraukset? Ja jos olemme niistä riippuvaisia, pystymmekö selviytymään ilman niitä?

Esimerkiksi useat ihmiset ovat kuolleet puoliautonomisissa auto-onnettomuuksissa, koska ajoneuvot kohtasivat tilanteita, joissa ne eivät pystyneet tekemään turvallisia päätöksiä. Vaikka hyvin yksityiskohtaisten, vastuuta rajoittavien sopimusten kirjoittaminen saattaa juridisesti vähentää valmistajan vastuuta, moraalisesta näkökulmasta katsottuna vastuu on edelleen yrityksellä, mutta itse sopimusta voidaan pitää epäeettisenä järjestelmänä laillisen vastuun välttämiseksi.

Kysymys teknisestä turvallisuudesta ja epäonnistumisista on erillään kysymyksestä siitä, miten oikein toimivaa teknologiaa saatetaan käyttää hyvään tai pahaan (kysymykset 3 ja 4, jäljempänä). Tämä kysymys koskee vain toimintaa, mutta se on kuitenkin perusta, jolle kaiken muun analyysin on perustuttava.

2. Avoimuus ja yksityisyys

Kun olemme todenneet, että teknologia toimii asianmukaisesti, pystymmekö todella ymmärtämään, miten se toimii, ja pystymmekö keräämään kunnolla tietoja sen toiminnasta? Eettinen analyysi on aina riippuvainen siitä, että ensin saadaan faktat – vasta sen jälkeen voidaan aloittaa arviointi.

On käynyt ilmi, että joidenkin koneoppimistekniikoiden, kuten neuroverkkojen syväoppimisen, kohdalla voi olla vaikeaa tai mahdotonta todella ymmärtää, miksi kone tekee niitä valintoja, joita se tekee. Toisissa tapauksissa voi olla niin, että kone osaa selittää jotain, mutta selitys on liian monimutkainen ihmisen ymmärrettäväksi.

Vuonna 2014 esimerkiksi tietokone todisti matemaattisen lauseen käyttäen todistusta, joka oli ainakin tuolloin pidempi kuin koko Wikipedia-tietosanakirja . Tämänkaltaiset selitykset saattavat olla oikeita selityksiä, mutta ihmiset eivät koskaan voi olla varmoja siitä.

Lisäkohtana voidaan todeta, että yleisesti ottaen mitä voimakkaampi joku tai jokin on, sitä läpinäkyvämpi sen pitäisi olla, kun taas mitä heikompi joku on, sitä enemmän oikeutta yksityisyyteen hänellä pitäisi olla. Siksi ajatus siitä, että voimakkaat tekoälyt saattaisivat olla luonnostaan läpinäkymättömiä, on hämmentävä.

3. Hyödyllinen käyttö & Kyky hyvään

Tekoälyn, kuten jokaisen muunkin teknologian, päätarkoitus on auttaa ihmisiä viettämään pidempää, kukoistavampaa ja täyteläisempää elämää. Tämä on hyvä asia, ja siksi sikäli kuin tekoäly auttaa ihmisiä näillä tavoilla, voimme olla iloisia ja arvostaa sen meille antamaa hyötyä.

Lisääntyvä älykkyys tarjoaa todennäköisesti parannuksia lähes kaikilla inhimillisen toiminnan aloilla, kuten esimerkiksi arkeologiassa, biolääketieteellisessä tutkimuksessa, viestinnässä, data-analytiikassa, koulutuksessa, energiatehokkuudessa, ympäristönsuojelussa, maanviljelyksessä, rahoituksessa, oikeudellisissa palveluissa, lääketieteellisessä diagnostiikassa, resurssien hallinnassa, avaruustutkimuksessa, liikenteessä, jätteidenkäsittelyssä ja niin edelleen.

Vain yksi konkreettinen esimerkki tekoälystä saatavasta hyödystä on se, että joissakin maatalouskoneissa on nykyään tietokonejärjestelmiä, jotka pystyvät visuaalisesti tunnistamaan rikkaruohot ja ruiskuttamaan ne pienillä kohdennetuilla rikkaruohomyrkkyannoksilla. Tämä ei ainoastaan suojele ympäristöä vähentämällä kemikaalien käyttöä viljelykasveilla, vaan se suojelee myös ihmisten terveyttä vähentämällä altistumista näille kemikaaleille.

4. Pahantahtoinen käyttö & Kyky pahaan

Täysin hyvin toimiva teknologia, kuten ydinase, voi käyttötarkoitukseensa käytettynä aiheuttaa suunnatonta pahaa. Tekoälyä, kuten ihmisälyäkin, tullaan epäilemättä käyttämään pahantahtoisesti.

Esimerkiksi tekoälyyn perustuva valvonta on jo nyt laajalle levinnyttä, sekä tarkoituksenmukaisissa yhteyksissä (esim. lentokentän turvakamerat), kenties sopimattomissa (esim. tuotteet, joissa on kodeissamme koko ajan päällä olevat mikrofonit) että ehdottomasti sopimattomissa (esim. tuotteet, jotka auttavat autoritaarisia hallintoja tunnistamaan ja sortaamaan kansalaisiaan). Muita häijyjä esimerkkejä voivat olla tekoälyavusteinen tietokonehakkerointi ja tappavat autonomiset asejärjestelmät (LAWS) eli ”tappajarobotit”. Muita pelkoja, joiden uskottavuus vaihtelee, ovat esimerkiksi elokuvien ”2001: Avaruusodysseia”, ”Wargames” ja ”Terminator” kaltaiset skenaariot.

Vaikka elokuvat ja aseteknologiat saattavat tuntua äärimmäisiltä esimerkeiltä siitä, miten tekoäly voi voimaannuttaa pahuutta, meidän on muistettava, että kilpailu ja sota ovat aina ensisijaisia teknologisen edistyksen ajureita ja että armeijat ja yritykset työskentelevät näiden teknologioiden parissa juuri nyt. Historia osoittaa myös, että suuret pahuudet eivät aina ole täysin tarkoituksellisia (esim. ensimmäisen maailmansodan syttyminen ja erilaiset ydinaseiden läheltä piti -tilanteet kylmässä sodassa), joten tuhovoiman hallussapito, vaikka sitä ei olisikaan tarkoitus käyttää, aiheuttaa silti katastrofiriskin. Tämän vuoksi tietynlaisen teknologian kieltäminen, kieltäminen ja siitä luopuminen olisi järkevin ratkaisu.

5. Datan, harjoitusjoukkojen jne. vääristymät.

Yksi mielenkiintoinen asia neuroverkoissa, tekoälyn nykyisissä työkoneissa, on se, että ne tosiasiassa yhdistävät tietokoneohjelman ja sille annetun datan. Tästä on monia hyötyjä, mutta se saattaa myös vääristää koko järjestelmää odottamattomilla ja mahdollisesti haitallisilla tavoilla.

Algoritmisia vääristymiä on jo havaittu esimerkiksi rikosoikeudellisista rangaistuksista valokuvien kuvateksteihin. Nämä ennakkoluulot ovat muutakin kuin kiusallisia näitä virheellisiä tuotteita tuottaville yrityksille; niillä on konkreettisia kielteisiä ja haitallisia vaikutuksia niihin ihmisiin, jotka ovat näiden ennakkoluulojen uhreja, ja ne vähentävät luottamusta yrityksiin, hallituksiin ja muihin instituutioihin, jotka saattavat käyttää näitä ennakkoluuloisia tuotteita. Algoritmiset ennakkoluulot ovat yksi tekoälyn suurimmista huolenaiheista juuri nyt, ja ne pysyvät sellaisina myös tulevaisuudessa, ellemme pyri tekemään teknologisista tuotteistamme parempia kuin me itse olemme. Kuten eräs henkilö sanoi tekoälykumppanuuden ensimmäisessä kokouksessa: ”Tulemme toistamaan kaikki inhimilliset virheemme keinotekoisessa muodossa, ellemme heti nyt pyri varmistamaan, että näin ei tapahdu.” .

6. Työttömyys / tarkoituksen puute & Merkitys

Monet ihmiset ovat jo nyt kokeneet, että tekoäly tulee olemaan uhka tietyille työpaikkaluokille. Teollisuuden automatisointi onkin ollut merkittävä tekijä työpaikkojen häviämisessä teollisen vallankumouksen alusta lähtien. Tekoäly yksinkertaisesti laajentaa tätä suuntausta yhä useammille aloille, mukaan lukien alat, joiden on perinteisesti ajateltu olevan turvallisempia automaatiolta, esimerkiksi laki, lääketiede ja koulutus. Ei ole selvää, mihin uusiin ammatteihin työttömät ihmiset lopulta voivat siirtyä, mutta mitä enemmän työ liittyy toisten hoitamiseen, sitä todennäköisemmin ihmiset haluavat olla tekemisissä muiden ihmisten eivätkä tekoälyjen kanssa.

Työllisyyteen liittyy huoli siitä, miten ihmiskunta viettää aikaansa ja mikä tekee elämästä hyvin käytetyn. Mitä miljoonat työttömät ihmiset tekevät? Mitä hyviä tarkoituksia heillä voi olla? Mitä he voivat edistää yhteiskunnan hyvinvointia? Miten yhteiskunta estää heitä pettymästä, katkeroitumasta ja ajautumasta pahoihin liikkeisiin, kuten valkoiseen ylivaltaan ja terrorismiin?

7. Kasvava sosioekonominen eriarvoisuus

Työttömyysongelmaan liittyy kysymys siitä, miten ihmiset selviytyvät hengissä, jos työttömyys nousee hyvin korkeaksi. Mistä he saavat rahaa elättääkseen itsensä ja perheensä? Vaikka hinnat saattavat laskea tuotantokustannusten alenemisen vuoksi, tekoälyä hallitsevat tahot saavat todennäköisesti myös suuren osan rahoista, jotka muuten olisivat menneet nyt työttömiksi jääneiden palkkoihin, ja siksi taloudellinen eriarvoisuus lisääntyy. Tämä vaikuttaa myös kansainväliseen taloudelliseen epätasa-arvoon, ja siksi se on todennäköisesti suuri uhka vähemmän kehittyneille maille.

Jotkut ovat ehdottaneet universaalia perustuloa (UBI) ongelman ratkaisemiseksi, mutta se edellyttää kansantalouksien huomattavaa uudelleenjärjestelyä. Erilaiset muut ratkaisut tähän ongelmaan voivat olla mahdollisia, mutta ne kaikki edellyttävät mahdollisesti suuria muutoksia ihmisten yhteiskuntaan ja hallintoon. Viime kädessä tämä on poliittinen ongelma, ei tekninen, joten tätä ratkaisua, kuten monien muidenkin tässä kuvattujen ongelmien ratkaisua, on käsiteltävä poliittisella tasolla.

8. Ympäristövaikutukset

Koneoppimismallien kouluttaminen vaatii valtavia määriä energiaa, niin paljon energiaa, että kustannukset voivat nousta kymmeniin miljooniin dollareihin tai yli. On sanomattakin selvää, että jos tämä energia on peräisin fossiilisista polttoaineista, tämä on suuri kielteinen vaikutus ilmastonmuutokseen, puhumattakaan siitä, että se on haitallista hiilivetyjen toimitusketjun muissa kohdissa.

Koneoppimisella voidaan myös tehostaa huomattavasti sähkön jakelua ja käyttöä sekä työskennellä biologiseen monimuotoisuuteen, ympäristötutkimukseen, luonnonvarojen hallintaan jne. liittyvien ongelmien ratkaisemiseksi. Tekoäly on joillakin hyvin perustavanlaatuisilla tavoilla tehokkuuteen keskittyvää teknologiaa, ja energiatehokkuus on yksi tapa, jolla sen kykyjä voidaan suunnata.

Kaiken kaikkiaan näyttää siltä, että tekoäly voisi olla ympäristön kannalta positiivinen nettotulos – mutta vain, jos se todella suunnataan tähän positiiviseen päämäärään eikä vain energian kuluttamiseen muuhun käyttöön.

9. Etiikan automatisointi

Tekoälyn yksi vahvuus on se, että se voi automatisoida päätöksentekoa, mikä vähentää ihmisten taakkaa ja nopeuttaa – mahdollisesti huomattavasti – tietynlaisia päätöksentekoprosesseja. Tämä päätöksenteon automatisointi aiheuttaa kuitenkin valtavia ongelmia yhteiskunnalle, sillä jos nämä automatisoidut päätökset ovat hyviä, yhteiskunta hyötyy, mutta jos ne ovat huonoja, yhteiskunnalle aiheutuu haittaa.

Kun tekoälyagentit saavat yhä enemmän valtaa tehdä päätöksiä, niihin on koodattava jonkinlaisia eettisiä normeja. Sitä ei yksinkertaisesti voi kiertää: eettinen päätöksentekoprosessi voi olla niinkin yksinkertainen kuin ohjelman noudattaminen hyödyn oikeudenmukaiseksi jakamiseksi, jolloin päätöksen tekee ihminen ja sen toteuttavat algoritmit, mutta se voi myös edellyttää paljon yksityiskohtaisempaa eettistä analyysia, vaikka me ihmiset haluaisimme, että näin ei olisi – tämä johtuu siitä, että tekoäly tulee toimimaan niin paljon nopeammin kuin ihminen voi, että joissain tilanteissa ihminen jää ihmisen hitautensa vuoksi ”ulos kontrollin silmukasta”. Näin tapahtuu jo nyt verkkohyökkäysten ja korkean taajuuden kaupankäynnin yhteydessä (jotka molemmat ovat täynnä eettisiä kysymyksiä, jotka tyypillisesti jätetään huomiotta), ja tilanne vain pahenee, kun tekoäly laajentaa rooliaan yhteiskunnassa.

Koska tekoäly voi olla niin voimakas, sille antamiemme eettisten standardien on parasta olla hyviä.

10. Moral Deskilling & Debility

Jos luovutamme päätöksentekokykymme koneille, meistä tulee vähemmän kokeneita tekemään päätöksiä. Tämä on esimerkiksi tunnettu ilmiö liikennelentäjien keskuudessa: autopilotti voi tehdä kaiken lentokoneen lentämiseen liittyvän aina lentoonlähdöstä laskeutumiseen, mutta lentäjät päättävät tarkoituksella ohjata lentokonetta käsin ratkaisevina hetkinä (esim, lentoonlähtö ja laskeutuminen) säilyttääkseen ohjaustaitonsa.

Koska yksi tekoälyn käyttötarkoituksista tulee olemaan ihmisen avustaminen tai korvaaminen tietyntyyppisten päätösten tekemisessä (esim. oikeinkirjoitus, ajaminen, pörssikauppa jne.), on syytä olla tietoinen siitä, että ihmiset voivat huonontua näissä taidoissa. Äärimmäisessä muodossaan, jos tekoäly alkaa tehdä eettisiä ja poliittisia päätöksiä puolestamme, meistä tulee huonompia eettisissä ja poliittisissa kysymyksissä. Saatamme vähentää tai jarruttaa moraalista kehitystämme juuri silloin, kun vallastamme on tullut suurinta ja päätöksistämme tärkeimpiä.

Tämä tarkoittaa, että etiikan opiskelu ja etiikan koulutus ovat nyt tärkeämpiä kuin koskaan. Meidän olisi määriteltävä tapoja, joilla tekoäly voi itse asiassa parantaa eettistä oppimistamme ja koulutustamme. Emme saisi koskaan sallia itsellemme, että meistä tulee työläitä ja lamaannumme etiikassa, tai kun teknologiamme lopulta asettaa meidät vaikeiden valintojen ja ongelmien eteen, jotka meidän on ratkaistava – valintojen ja ongelmien, jotka esi-isämme olisivat ehkä kyenneet ratkaisemaan – tulevat ihmiset eivät ehkä pystyisi siihen.

Lisätietoja työläydestä on tässä artikkelissa ja Shannon Vallorin alkuperäisessä artikkelissa aiheesta.

11. Tekoälyn tietoisuus, persoonallisuus ja ”robottien oikeudet”

Jotkut ajattelijat ovat pohtineet, voisivatko tekoälyt lopulta tulla itsetietoisiksi, saavuttaa oman tahdon tai muuten ansaita tunnustuksen kaltaisina persoonina. Oikeudellisesti katsottuna henkilöllisyys on annettu yrityksille ja (muissa maissa) joille, joten tietoisuutta ei varmasti tarvita vielä ennen kuin oikeudellisia kysymyksiä voi syntyä.

Moraalisesti katsottuna voimme ennakoida, että teknologiatutkijat yrittävät tehdä mahdollisimman ihmismäisiä tekoälyjä ja robotteja, ja ehkäpä jonain päivänä niistä tulee niin hyviä jäljitelmiä, että ihmettelemme, voisivatko ne olla tietoisia ja ansaita oikeuksia – emmekä ehkä kykene määrittelemään tätä lopullisesti. Jos tulevaisuuden ihmiset päättelevät, että tekoälyt ja robotit saattavat olla moraalisen aseman arvoisia, meidän on syytä olla varovaisia ja antaa niille moraalinen asema.

Tämän luomuksiemme asemaa koskevan epävarmuuden keskellä tiedämme, että meillä ihmisillä on moraalinen luonne ja että, Aristoteleen epätäsmällistä lainausta mukaillen, ”meistä tulee sitä, mitä toistuvasti teemme”. Meidän ei siis pitäisi kohdella tekoälyjä ja robotteja huonosti, tai saatamme tottua siihen, että meillä on virheellinen luonne, riippumatta siitä, millainen moraalinen asema keinotekoisilla olennoilla on, joiden kanssa olemme vuorovaikutuksessa. Toisin sanoen tekoälyjen ja robottien asemasta riippumatta meidän pitäisi omien moraalisten luonteidemme vuoksi kohdella niitä hyvin tai ainakin olla käyttämättä niitä väärin.

12. AGI ja superäly

Jos tai kun tekoäly saavuttaa ihmisen älykkyystason ja tekee kaiken sen, minkä ihminen voi tehdä yhtä hyvin kuin keskivertoihminen, se on keinotekoinen yleinen älykkyys – AGI – ja se on ainoa muu sellainen älykkyys, joka on olemassa maapallolla ihmisen tasolla.

Jos tai kun AGI ylittää ihmisen älykkyyden, siitä tulee superälykkyys, entiteetti, joka on potentiaalisesti huomattavasti älykkäämpi ja kyvykkäämpi kuin me itse olemme: jotakin sellaista, johon ihmiset ovat aina liittyneet vain uskonnoissa, myyteissä ja tarinoissa.

Tärkeää tässä yhteydessä on se, että tekoälyteknologia paranee erittäin nopeasti. Globaalit yritykset ja hallitukset käyvät kilpajuoksua saadakseen tekoälyn voimat omakseen. Yhtä tärkeää on, ettei ole mitään syytä, miksi tekoälyn parantaminen pysähtyisi AGI:hen. Tekoäly on skaalautuva ja nopea. Toisin kuin ihmisaivot, jos annamme tekoälylle lisää laitteistoja, se tekee yhä enemmän ja enemmän, yhä nopeammin ja nopeammin.

AGI:n tai superälykkyyden tulo merkitsee ihmiskunnan syrjäyttämistä maapallon älykkäimpänä olentona. Emme ole koskaan aiemmin kohdanneet (aineellisessa maailmassa) mitään meitä älykkäämpää. Aina kun Homo sapiens kohtasi maapallon elämän historiassa muita älykkäitä ihmislajeja, toinen laji joko sulautui geneettisesti meihin (kuten neandertalilaiset tekivät) tai ajettiin sukupuuttoon. Kun kohtaamme AGI:tä ja superälykkyyttä, meidän pitäisi pitää tämä mielessä; koska tekoäly on työkalu, saattaa kuitenkin olla keinoja säilyttää eettinen tasapaino ihmisen ja koneen välillä.

13. Riippuvuus tekoälystä

Ihminen on riippuvainen teknologiasta. Olemme aina olleet riippuvaisia, siitä lähtien kun olemme olleet ”ihmisiä”; teknologinen riippuvuutemme on melkein se, mikä määrittelee meidät lajina. Se, mikä ennen oli vain kiviä, keppejä ja turkisvaatteita, on nyt kuitenkin muuttunut paljon monimutkaisemmaksi ja hauraammaksi. Sähkön tai kännykkäyhteyden menettäminen voi olla vakava ongelma, psykologisesti tai jopa lääketieteellisesti (jos kyseessä on hätätilanne). Eikä ole olemassa älykkyysriippuvuuden kaltaista riippuvuutta.

Älykkyysriippuvuus on samanlainen riippuvuuden muoto kuin lapsen riippuvuus aikuisesta. Suurimman osan ajasta lapset luottavat siihen, että aikuiset ajattelevat heidän puolestaan, ja vanhemmilla vuosillamme, kun joillakin ihmisillä tapahtuu kognitiivinen heikkeneminen, myös vanhukset luottavat nuorempiin aikuisiin. Kuvittele nyt, että keski-ikäiset aikuiset, jotka huolehtivat lapsista ja vanhuksista, ovat itse riippuvaisia tekoälystä, joka opastaa heitä. Jäljellä ei olisi enää yhtään ihmisen ”aikuista” – vain ”tekoälyn aikuisia”. Ihmiskunnasta olisi tullut tekoälyn hoivaajillemme lapsirotu.

Tämä herättää tietysti kysymyksen siitä, mitä lapseksi muuttunut ihmiskunta tekisi, jos tekoälyvanhemmat joskus menisivät epäkuntoon. Ilman tuota tekoälyä, jos olisimme riippuvaisia siitä, meistä voisi tulla kuin eksyneitä lapsia, jotka eivät osaa huolehtia itsestään tai teknologisesta yhteiskunnastamme. Tällaista ”eksyneisyyttä” tapahtuu jo nyt, kun esimerkiksi älypuhelinten navigointisovellukset eivät toimi oikein (tai akku vain loppuu).

Olemme jo pitkällä tiellä kohti teknologista riippuvuutta. Miten voimme valmistautua nyt, jotta voimme välttää nimenomaan tekoälyriippuvuuden vaarat?

14. Tekoälykäyttöinen riippuvuus

Älypuhelinsovellusten valmistajat ovat tehneet riippuvuudesta tieteen, ja tekoälykäyttöiset videopelit ja sovellukset voivat aiheuttaa riippuvuutta kuin huumeet. Tekoäly voi käyttää hyväkseen lukuisia ihmisen haluja ja heikkouksia, kuten tarkoitushakuisuutta, uhkapelaamista, ahneutta, libidoa, väkivaltaa ja niin edelleen.

Riippuvuus ei ainoastaan manipuloi ja kontrolloi meitä, vaan se myös estää meitä tekemästä muita tärkeämpiä asioita – koulutuksellisia, taloudellisia ja sosiaalisia. Se orjuuttaa meidät ja tuhlaa aikaamme, kun voisimme tehdä jotain arvokasta. Kun tekoäly oppii jatkuvasti lisää meistä ja tekee yhä enemmän töitä pitääkseen meidät klikkaamassa ja selaamassa, mitä toivoa meillä on paeta sen kynsistä? Tai pikemminkin niiden sovellusten valmistajien kynsistä, jotka luovat näitä tekoälyjä vangitakseen meidät – koska tekoälyt eivät päätä kohdella ihmisiä näin, vaan muut ihmiset.

Kun puhun tästä aiheesta minkä tahansa opiskelijaryhmän kanssa, huomaan, että kaikki heistä ovat ”riippuvaisia” yhdestä tai toisesta sovelluksesta. Se ei ehkä ole kliininen riippuvuus, mutta näin opiskelijat sen määrittelevät, ja he tietävät, että heitä käytetään hyväksi ja vahingoitetaan. Sovellusten valmistajien on lopetettava tämä: Tekoälyä ei pitäisi suunnitella niin, että se tarkoituksellisesti hyödyntää ihmisen psykologian haavoittuvuuksia.

15. Eristäytyminen ja yksinäisyys

Yhteiskunta on yksinäisyyden kriisissä. Esimerkiksi äskettäin tehdyssä tutkimuksessa todettiin, että ”200 000 ikääntynyttä ihmistä Yhdistyneessä kuningaskunnassa ei ole keskustellut ystävän tai sukulaisen kanssa yli kuukauteen” . Tämä on surullinen tilanne, koska yksinäisyys voi kirjaimellisesti tappaa . Se on kansanterveydellinen painajainen, puhumattakaan siitä, että se tuhoaa yhteiskunnan perusrakenteen: ihmissuhteemme. Teknologia on ollut osallisena niin monissa kielteisissä sosiaalisissa ja psykologisissa suuntauksissa, kuten yksinäisyydessä, eristäytyneisyydessä, masennuksessa, stressissä ja ahdistuksessa, että on helppo unohtaa, että asiat voisivat olla toisin, ja itse asiassa ne olivat aivan toisin vain muutama vuosikymmen sitten.

Voidaan ajatella, että ”sosiaalinen” media, älypuhelimet ja tekoäly voisivat auttaa, mutta itse asiassa ne ovat keskeisiä syitä yksinäisyydelle, koska ihmiset katsovat näyttöjä vastapäätä toistensa sijaan. Se, mikä auttaa, ovat vahvat henkilökohtaiset ihmissuhteet, juuri ne ihmissuhteet, jotka riippuvuutta aiheuttava (usein tekoälyyn perustuva) teknologia syrjäyttää.

Yksinäisyyteen voi auttaa luopumalla laitteista ja rakentamalla laadukkaita henkilökohtaisia ihmissuhteita. Toisin sanoen: välittämällä.

Tämä ei ehkä ole helppoa työtä, ja varmasti yhteiskunnallisella tasolla voi olla hyvin vaikeaa vastustaa jo tähän mennessä noudattamiamme suuntauksia. Mutta meidän on vastustettava, koska parempi, inhimillisempi maailma on mahdollinen. Teknologian ei tarvitse tehdä maailmasta vähemmän henkilökohtaista ja välittävää – se voisi tehdä päinvastoin, jos vain haluaisimme.

16. Vaikutukset ihmishenkeen

Kaikki edellä mainitut kiinnostuksen kohteet vaikuttavat siihen, miten ihmiset hahmottavat itsensä, suhtautuvat toisiinsa ja elävät elämäänsä. Mutta on olemassa myös eksistentiaalisempi kysymys. Jos ihmisyyden tarkoitus ja identiteetti liittyvät jotenkin älykkyytemme kanssa (kuten esimerkiksi useat merkittävät kreikkalaiset filosofit uskoivat), niin ulkoistamalla älykkyytemme ja parantamalla sitä ihmisen älykkyyttä suuremmaksi teemme itsestämme toista luokkaa olevia olentoja omiin luomuksiimme nähden?

Tämä on tekoälyyn liittyvä syvällisempi kysymys, joka leikkaa ihmisyytemme ytimeen, aloille, jotka on perinteisesti varattu filosofialle, hengellisyydelle ja uskonnolle. Mitä ihmishengelle tapahtuu, jos tai kun omat luomuksemme päihittävät meidät kaikessa, mitä teemme? Menettääkö ihmiselämä merkityksensä? Löydämmekö identiteettimme älykkyytemme ulkopuolelta uudella tavalla?

Ehkä älykkyys ei olekaan niin tärkeää identiteettimme kannalta kuin luulemme, ja ehkäpä älykkyyden luovuttaminen koneille auttaa meitä oivaltamaan sen. Jos sen sijaan löydämme inhimillisyytemme aivojemme sijasta sydämestämme, ehkä tulemme huomaamaan, että välittäminen, myötätunto, ystävällisyys ja rakkaus ovat viime kädessä se, mikä tekee meistä ihmisiä ja mikä tekee elämästä elämisen arvoista. Ehkäpä tekoäly voi auttaa meitä toteuttamaan tämän vision inhimillisemmästä maailmasta poistamalla osan elämän tylsyydestä.

Johtopäätökset

Tekoälyn etiikkaan liittyy muitakin kysymyksiä; tässä olen vain yrittänyt tuoda esiin joitakin tärkeimpiä niistä. Paljon enemmän aikaa voisi käyttää esimerkiksi sellaisiin aiheisiin kuin tekoälyyn perustuva valvonta, tekoälyn rooli väärän tiedon ja disinformaation edistämisessä, tekoälyn rooli politiikassa ja kansainvälisissä suhteissa, tekoälyn hallinto ja niin edelleen.

Uutta teknologiaa luodaan aina jonkun hyvän asian vuoksi – ja tekoäly tarjoaa meille hämmästyttäviä uusia kyvykkyyksiä, joiden avulla voimme auttaa ihmisiä ja tehdä maailmasta paremman paikan. Mutta tehdaksemme maailmasta paremman paikan meidän on valittava, että teemme sen eettisten periaatteiden mukaisesti.

Monien yksilöiden ja organisaatioiden yhteisten ponnistelujen avulla voimme toivoa, että tekoälyteknologia auttaa meitä tekemään paremman maailman.

Tämä artikkeli perustuu seuraaviin aiempiin teoksiin: ”(lokakuu 2017) , ”Some Ethical and Theological Reflections on Artificial Intelligence,” (marraskuu 2017) , Artificial Intelligence and Ethics: Ten areas of interest (Nov. 2017) , ”AI and Ethics” (Mar. 2018) , ”Ethical Reflections on Artificial Intelligence” (Aug. 2018) , ja useita esityksiä ”Artificial Intelligence and Ethics: Sixteen Issues” (2019-20) .

Brian Patrick Green, ”Artificial Intelligence and Ethics: Ten areas of interest,” Markkula Center for Applied Ethics -sivusto, 21.11.2017, saatavilla osoitteessa: https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics/

Alun perin parafraasi Stan Lee ja Steve Ditko, ”Spider-Man”, Amazing Fantasy vol. 1, #15 (elokuu 1962), tarkka lause Ben-sedältä J. Michael Straczynski, Amazing Spider-Man vol. 2, #38 (helmikuu 2002). Lisätietoja: https://en.wikipedia.org/wiki/With_great_power_comes_great_responsibility

Brian Patrick Green, ”Artificial Intelligence and Ethics: Sixteen Issues”, eri paikoissa ja eri päivämäärinä: Los Angeles, Mexico City, San Francisco, Santa Claran yliopisto (2019-2020).

Bob Yirka, ”Computer generated math proof is too large for humans to check,” Phys.org, 19.2.2014, saatavilla osoitteessa: https://phys.org/news/2014-02-math-proof-large-humans.html

The Partnership on AI to Benefit People and Society, Inaugural Meeting, Berliini, Saksa, 23.-24. lokakuuta 2017.

Leila Scola, ”AI and the Ethics of Energy Efficiency”, Markkula Center for Applied Ethics -sivusto (Markkula Center for Applied Ethics -verkkosivusto), 26. toukokuuta 2020, saatavilla osoitteessa: https://www.scu.edu/environmental-ethics/resources/ai-and-the-ethics-of-energy-efficiency/

Brian Patrick Green, ”Artificial Intelligence, Decision-Making, and Moral Deskilling,” Markkula Center for Applied Ethics website, Mar 15, 2019, saatavilla osoitteessa: https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/artificial-intelligence-decision-making-and-moral-deskilling/

Shannon Vallor, ”Moral Deskilling and Upskilling in a New Machine Age: Reflections on the Ambiguous Future of Character (Pohdintoja luonteen epäselvästä tulevaisuudesta)”. Philosophy of Technology 28 (2015):107-124., saatavilla osoitteessa: https://link.springer.com/article/10.1007/s13347-014-0156-9

Brad Sylvester, ”Fact Check: Sanoiko Aristoteles: ’Me olemme sitä, mitä toistuvasti teemme’?”. Check Your Fact -sivusto, 26. kesäkuuta 2019, saatavilla osoitteessa: https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/

Lee Mannion, ”Britain appointates minister for loneliness amid growing isolation,” Reuters, 17. tammikuuta 2018, saatavilla osoitteessa: https://www.reuters.com/article/us-britain-politics-health/britain-appoints-minister-for-loneliness-amid-growing-isolation-idUSKBN1F61I6

Julianne Holt-Lunstad, Timothy B. Smith, Mark Baker,Tyler Harris ja David Stephenson, ”Loneliness and Social Isolation as Risk Factors for Mortality: A Meta-Analytic Review,” Perspectives on Psychological Science 10(2) (2015): 227-237, saatavilla osoitteessa: https://journals.sagepub.com/doi/full/10.1177/1745691614568352

Markkula Center for Applied Ethics Staff, ”AI: Ethical Challenges and a Fast Approaching Future”: Paneelikeskustelu tekoälystä”, jossa mukana Maya Ackerman, Sanjiv Das, Brian Green ja Irina Raicu, Santa Claran yliopisto, Kalifornia, 24.10.2017, lähetetty All About Ethics -blogiin, 31.10.2017, video saatavilla osoitteessa: https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/

Brian Patrick Green, ”Some Ethical and Theological Reflections on Artificial Intelligence,” Pacific Coast Theological Societyn (PCTS) kokous, Graduate Theological Union, Berkeley, 3.-4. marraskuuta 2017, saatavilla osoitteessa: http://www.pcts.org/meetings/2017/PCTS2017Nov-Green-ReflectionsAI.pdf

Brian Patrick Green, ”AI and Ethics”, vierasluento PACS003: What is an Ethical Life?, University of the Pacific, Stockton, 21. maaliskuuta 2018.

Brian Patrick Green, ”Ethical Reflections on Artificial Intelligence,” Scientia et Fides 6(2), 24. elokuuta 2018. Saatavilla osoitteessa: http://apcz.umk.pl/czasopisma/index.php/SetF/article/view/SetF.2018.015/15729

Kiitos monille ihmisille kaikesta hyödyllisestä palautteesta, joka on auttanut minua kehittämään tätä luetteloa, kuten Maya Ackermannille, Kirk Bresnikerille, Sanjiv Dasille, Kirk Hansonille, Brian Klunkille, Thane Kreinerille, Angelus McNallylle, Irina Raiculle, Leila Scolalle, Lili Tavlanille, Shannon Vallorille, useiden teknologiafirmojen työntekijöille, PCTS:n syksyn 2017 kokouksen läsnäolijoille, tarvitsijoiden osallistujille.koulutuskokoukset, useat anonyymit arvioijat, Tyynenmeren yliopiston PACS003-ohjelman professorit ja opiskelijat, ENGR 344 -kurssini opiskelijat: AI and Ethics -kurssin oppilaani sekä monet muut.

Vastaa

Sähköpostiosoitettasi ei julkaista.