Brian Patrick Green è il direttore di Technology Ethics al Markkula Center for Applied Ethics. Questo articolo è un aggiornamento di un articolo precedente che può essere trovato qui. Le opinioni sono sue.

L’intelligenza artificiale e le tecnologie di apprendimento automatico stanno rapidamente trasformando la società e continueranno a farlo nei prossimi decenni. Questa trasformazione sociale avrà un profondo impatto etico, con queste nuove potenti tecnologie che migliorano e sconvolgono le vite umane. L’IA, come esternalizzazione dell’intelligenza umana, ci offre in forma amplificata tutto ciò che l’umanità è già, sia il bene che il male. Molto è in gioco. A questo crocevia della storia dovremmo pensare molto attentamente a come fare questa transizione, o rischiamo di potenziare il lato più oscuro della nostra natura, piuttosto che quello più luminoso.

Perché l’etica dell’IA sta diventando un problema ora? L’apprendimento automatico (ML) attraverso le reti neurali sta avanzando rapidamente per tre motivi: 1) Enorme aumento delle dimensioni dei set di dati; 2) Enorme aumento della potenza di calcolo; 3) Enorme miglioramento degli algoritmi di ML e più talento umano per scriverli. Tutte e tre queste tendenze stanno centralizzando il potere, e “Con un grande potere arriva una grande responsabilità”.

Come istituzione, il Markkula Center for Applied Ethics ha pensato profondamente all’etica dell’IA per diversi anni. Questo articolo è iniziato come presentazioni tenute a conferenze accademiche e da allora si è espanso in un documento accademico (link sotto) e più recentemente in una presentazione di “Intelligenza Artificiale ed Etica: Sixteen Issues” che ho tenuto negli Stati Uniti e a livello internazionale. In questo spirito, offro questa lista attuale:

1. Sicurezza tecnica

La prima domanda per qualsiasi tecnologia è se funziona come previsto. I sistemi di IA funzioneranno come promesso o falliranno? Se e quando falliranno, quali saranno i risultati di questi fallimenti? E se dipendiamo da loro, saremo in grado di sopravvivere senza di loro?

Per esempio, diverse persone sono morte in un incidente automobilistico semi-autonomo perché i veicoli hanno incontrato situazioni in cui non hanno preso decisioni sicure. Mentre scrivere contratti molto dettagliati che limitano la responsabilità potrebbe ridurre legalmente la responsabilità di un produttore, da una prospettiva morale, non solo la responsabilità è ancora dell’azienda, ma il contratto stesso può essere visto come uno schema non etico per evitare la responsabilità legittima.

La questione della sicurezza tecnica e del fallimento è separata dalla questione di come una tecnologia correttamente funzionante possa essere usata per il bene o per il male (domande 3 e 4, sotto). Questa domanda è semplicemente una questione di funzione, eppure è il fondamento su cui tutto il resto dell’analisi deve costruire.

2. Trasparenza e Privacy

Una volta che abbiamo determinato che la tecnologia funziona adeguatamente, possiamo effettivamente capire come funziona e raccogliere correttamente dati sul suo funzionamento? L’analisi etica dipende sempre dall’ottenere prima i fatti – solo allora può iniziare la valutazione.

Si scopre che con alcune tecniche di apprendimento automatico come l’apprendimento profondo nelle reti neurali può essere difficile o impossibile capire davvero perché la macchina sta facendo le scelte che fa. In altri casi, potrebbe essere che la macchina può spiegare qualcosa, ma la spiegazione è troppo complessa per gli esseri umani per capire.

Per esempio, nel 2014 un computer ha dimostrato un teorema matematico, utilizzando una prova che era, almeno all’epoca, più lunga dell’intera enciclopedia Wikipedia. Spiegazioni di questo tipo potrebbero essere spiegazioni vere, ma gli umani non lo sapranno mai con certezza.

Come ulteriore punto, in generale, più potente è qualcuno o qualcosa, più trasparente dovrebbe essere, mentre più debole è qualcuno, più diritto alla privacy dovrebbe avere. Perciò l’idea che le IA potenti possano essere intrinsecamente opache è sconcertante.

3. Uso benefico & Capacità di fare del bene

Lo scopo principale delle IA è, come ogni altra tecnologia, di aiutare le persone a condurre vite più lunghe, più fiorenti e più soddisfacenti. Questo è un bene, e quindi nella misura in cui l’IA aiuta le persone in questi modi, possiamo essere contenti e apprezzare i benefici che ci dà.

L’intelligenza supplementare probabilmente fornirà miglioramenti in quasi tutti i campi dell’attività umana, tra cui, per esempio, l’archeologia, la ricerca biomedica, la comunicazione, l’analisi dei dati, l’istruzione, l’efficienza energetica, la protezione ambientale, l’agricoltura, la finanza, i servizi legali, la diagnostica medica, la gestione delle risorse, l’esplorazione dello spazio, i trasporti, la gestione dei rifiuti, e così via.

Come esempio concreto di un beneficio dall’IA, alcune attrezzature agricole ora hanno sistemi informatici in grado di identificare visivamente le erbacce e spruzzarle con piccole dosi mirate di erbicida. Questo non solo protegge l’ambiente riducendo l’uso di prodotti chimici sulle colture, ma protegge anche la salute umana riducendo l’esposizione a questi prodotti chimici.

4. Uso malevolo & Capacità di fare del male

Una tecnologia perfettamente funzionante, come un’arma nucleare, può, quando messa al suo uso previsto, causare un male immenso. L’intelligenza artificiale, come l’intelligenza umana, sarà usata maliziosamente, non c’è dubbio.

Per esempio, la sorveglianza alimentata dall’IA è già diffusa, sia in contesti appropriati (per esempio, le telecamere di sicurezza degli aeroporti), sia in contesti forse inappropriati (per esempio, prodotti con microfoni sempre accesi nelle nostre case), sia in contesti definitivamente inappropriati (per esempio, prodotti che aiutano i regimi autoritari a identificare e opprimere i loro cittadini). Altri esempi nefasti possono includere la pirateria informatica assistita dall’IA e i sistemi di armi letali autonome (LAWS), alias “robot assassini”. Ulteriori paure, di vari gradi di plausibilità, includono scenari come quelli dei film “2001: Odissea nello spazio”, “Wargames” e “Terminator”.

Mentre i film e le tecnologie delle armi potrebbero sembrare esempi estremi di come l’IA potrebbe rafforzare il male, dovremmo ricordare che la competizione e la guerra sono sempre motori primari del progresso tecnologico, e che i militari e le corporazioni stanno lavorando su queste tecnologie proprio ora. La storia mostra anche che i grandi mali non sono sempre completamente voluti (ad esempio, l’inciampo nella prima guerra mondiale e vari scontri nucleari nella guerra fredda), e quindi avere un potere distruttivo, anche se non si intende usarlo, rischia comunque la catastrofe. Per questo motivo, proibire, vietare e rinunciare a certi tipi di tecnologia sarebbe la soluzione più prudente.

5. Una delle cose interessanti delle reti neurali, gli attuali cavalli di battaglia dell’intelligenza artificiale, è che effettivamente fondono un programma di computer con i dati che gli vengono forniti. Questo ha molti vantaggi, ma rischia anche di condizionare l’intero sistema in modi inaspettati e potenzialmente dannosi.

Sono già stati scoperti pregiudizi algoritmici, per esempio, in aree che vanno dalla punizione penale alla didascalia delle fotografie. Questi pregiudizi sono più che imbarazzanti per le società che producono questi prodotti difettosi; hanno effetti negativi e dannosi concreti sulle persone che sono vittime di questi pregiudizi, oltre a ridurre la fiducia nelle società, nel governo e in altre istituzioni che potrebbero utilizzare questi prodotti di pregiudizio. La distorsione algoritmica è una delle maggiori preoccupazioni nell’IA in questo momento e rimarrà tale in futuro, a meno che non ci sforziamo di rendere i nostri prodotti tecnologici migliori di noi. Come ha detto una persona alla prima riunione della Partnership sull’IA, “Riprodurremo tutti i nostri difetti umani in forma artificiale, a meno che non ci sforziamo fin d’ora per assicurarci di non farlo”.

6. Disoccupazione / mancanza di scopo & Significato

Molte persone hanno già percepito che l’IA sarà una minaccia per alcune categorie di lavoro. In effetti, l’automazione dell’industria è stata uno dei principali fattori che hanno contribuito alla perdita di posti di lavoro dall’inizio della rivoluzione industriale. L’IA estenderà semplicemente questa tendenza a più campi, inclusi campi che sono stati tradizionalmente ritenuti più sicuri dall’automazione, per esempio la legge, la medicina e l’istruzione. Non è chiaro a quali nuove carriere i disoccupati saranno in grado di passare, anche se più il lavoro ha a che fare con la cura degli altri, più è probabile che le persone vogliano avere a che fare con altri esseri umani e non con le IA.

Alla preoccupazione per l’occupazione è collegata la preoccupazione per come l’umanità spende il suo tempo e cosa rende una vita ben spesa. Cosa faranno milioni di disoccupati? Quali buoni propositi possono avere? Quale contributo possono dare al benessere della società? Come farà la società ad evitare che diventino disillusi, amareggiati e coinvolti in movimenti malvagi come la supremazia bianca e il terrorismo?

7. Crescente disuguaglianza socio-economica

Correlata al problema della disoccupazione è la questione di come la gente sopravviverà se la disoccupazione sale a livelli molto alti. Dove troveranno il denaro per mantenere se stessi e le loro famiglie? Mentre i prezzi possono diminuire a causa della riduzione dei costi di produzione, coloro che controllano l’IA probabilmente rastrelleranno anche molto del denaro che altrimenti sarebbe andato nei salari dei disoccupati, e quindi l’ineguaglianza economica aumenterà. Questo influenzerà anche la disparità economica internazionale, e quindi è probabilmente una grande minaccia per le nazioni meno sviluppate.

Alcuni hanno suggerito un reddito di base universale (UBI) per affrontare il problema, ma questo richiederà una grande ristrutturazione delle economie nazionali. Varie altre soluzioni a questo problema possono essere possibili, ma tutte implicano potenzialmente grandi cambiamenti alla società umana e al governo. In definitiva questo è un problema politico, non tecnico, quindi questa soluzione, come quelle a molti dei problemi qui descritti, deve essere affrontata a livello politico.

8. Effetti ambientali

I modelli di apprendimento automatico richiedono enormi quantità di energia per addestrare, così tanta energia che i costi possono arrivare a decine di milioni di dollari o più. Inutile dire che se questa energia proviene da combustibili fossili, questo è un grande impatto negativo sul cambiamento climatico, per non parlare del fatto che è dannoso in altri punti della catena di approvvigionamento di idrocarburi.

Il machine learning può anche rendere la distribuzione e l’uso dell’elettricità molto più efficiente, così come lavorare alla risoluzione di problemi di biodiversità, ricerca ambientale, gestione delle risorse, ecc. L’IA è in alcuni modi molto basilari una tecnologia focalizzata sull’efficienza, e l’efficienza energetica è un modo in cui le sue capacità possono essere dirette.

A conti fatti, sembra che l’IA potrebbe essere un netto positivo per l’ambiente – ma solo se è effettivamente diretta verso quel fine positivo, e non solo verso il consumo di energia per altri usi.

9. Automatizzare l’etica

Una forza dell’IA è che può automatizzare il processo decisionale, abbassando così il peso sugli umani e velocizzando – potenzialmente velocizzando molto – alcuni tipi di processi decisionali. Tuttavia, questa automazione del processo decisionale presenterà enormi problemi per la società, perché se queste decisioni automatizzate sono buone, la società ne beneficerà, ma se sono cattive, la società sarà danneggiata.

Come gli agenti AI sono dati più poteri per prendere decisioni, essi dovranno avere standard etici di qualche tipo codificati in loro. Non c’è semplicemente un modo per evitarlo: il processo decisionale etico potrebbe essere semplice come seguire un programma per distribuire equamente un beneficio, in cui la decisione è presa da esseri umani ed eseguita da algoritmi, ma potrebbe anche comportare un’analisi etica molto più dettagliata, anche se noi umani preferiremmo che non lo facesse – questo perché l’AI opererà così velocemente di quanto possano fare gli umani, che in alcune circostanze gli umani saranno lasciati “fuori dal giro” del controllo a causa della lentezza umana. Questo si verifica già con i cyberattacchi e il trading ad alta frequenza (entrambi i quali sono pieni di questioni etiche che sono tipicamente ignorate) e peggiorerà solo quando l’IA espanderà il suo ruolo nella società.

Siccome l’IA può essere così potente, gli standard etici che le diamo devono essere buoni.

10. Moral Deskilling &Debilitazione

Se consegniamo le nostre capacità decisionali alle macchine, diventeremo meno esperti nel prendere decisioni. Per esempio, questo è un fenomeno ben noto tra i piloti di linea: il pilota automatico può fare tutto ciò che riguarda il pilotaggio di un aereo, dal decollo all’atterraggio, ma i piloti scelgono intenzionalmente di controllare manualmente l’aereo nei momenti cruciali (ad es, decollo e atterraggio) al fine di mantenere le loro capacità di pilotaggio.

Perché uno degli usi dell’IA sarà quello di assistere o sostituire gli esseri umani nel prendere certi tipi di decisioni (ad esempio, l’ortografia, la guida, la compravendita di azioni, ecc), dobbiamo essere consapevoli che gli esseri umani possono diventare peggiori in queste abilità. Nella sua forma più estrema, se l’IA inizia a prendere decisioni etiche e politiche per noi, noi diventeremo peggio nell’etica e nella politica. Potremmo ridurre o bloccare il nostro sviluppo morale proprio nel momento in cui il nostro potere è diventato più grande e le nostre decisioni più importanti.

Questo significa che lo studio dell’etica e la formazione all’etica sono ora più importanti che mai. Dovremmo determinare i modi in cui l’IA può effettivamente migliorare il nostro apprendimento e la nostra formazione etica. Non dovremmo mai permettere a noi stessi di diventare dequalificati e debilitati nell’etica, o quando la nostra tecnologia ci presenterà finalmente delle scelte difficili da fare e dei problemi da risolvere – scelte e problemi che, forse, i nostri antenati sarebbero stati capaci di risolvere – i futuri umani potrebbero non essere in grado di farlo.

Per saperne di più sulla dequalificazione, vedi questo articolo e l’articolo originale di Shannon Vallor sull’argomento.

11. Coscienza delle IA, personalità e “diritti dei robot”

Alcuni pensatori si sono chiesti se le IA potrebbero alla fine diventare autocoscienti, raggiungere la propria volontà, o altrimenti meritare il riconoscimento come persone come noi. Dal punto di vista legale, la personalità è stata data alle società e (in altri paesi) ai fiumi, quindi non c’è certamente bisogno della coscienza anche prima che possano sorgere questioni legali.

Moralmente parlando, possiamo anticipare che i tecnologi tenteranno di fare le IA e i robot più simili all’uomo possibile, e forse un giorno saranno imitazioni così buone che ci chiederemo se potrebbero essere coscienti e meritare diritti – e potremmo non essere in grado di determinarlo definitivamente. Se gli esseri umani futuri concludono che le IA e i robot potrebbero essere degni di uno status morale, allora dovremmo peccare di cautela e concederglielo.

In mezzo a questa incertezza sullo status delle nostre creazioni, ciò che sapremo è che noi umani abbiamo caratteri morali e che, per seguire una citazione inesatta di Aristotele, “diventiamo ciò che facciamo ripetutamente”. Quindi non dovremmo trattare male le IA e i robot, o potremmo abituarci ad avere caratteri difettosi, indipendentemente dallo status morale degli esseri artificiali con cui stiamo interagendo. In altre parole, non importa lo status delle IA e dei robot, per il bene del nostro carattere morale dovremmo trattarli bene, o almeno non abusarne.

12. AGI e Superintelligenza

Se o quando l’IA raggiungerà i livelli umani di intelligenza, facendo tutto ciò che gli umani possono fare come l’umano medio, allora sarà un’Intelligenza Generale Artificiale – un’AGI – e sarà l’unica altra intelligenza simile ad esistere sulla Terra a livello umano.

Se o quando l’AGI supererà l’intelligenza umana, diventerà una superintelligenza, un’entità potenzialmente molto più intelligente e capace di noi: qualcosa a cui gli umani si sono sempre riferiti solo nelle religioni, nei miti e nelle storie.

Importante qui, la tecnologia AI sta migliorando estremamente velocemente. Le corporazioni globali e i governi sono in corsa per rivendicare i poteri dell’IA come propri. Altrettanto importante, non c’è motivo per cui il miglioramento dell’IA si fermi all’AGI. L’IA è scalabile e veloce. A differenza di un cervello umano, se diamo all’IA più hardware farà sempre di più, sempre più velocemente.

L’avvento dell’AGI o della superintelligenza segnerà la detronizzazione dell’umanità come la cosa più intelligente sulla Terra. Non abbiamo mai affrontato (nel mondo materiale) qualcosa di più intelligente di noi prima. Ogni volta che l’Homo sapiens ha incontrato altre specie umane intelligenti nella storia della vita sulla Terra, l’altra specie o si è fusa geneticamente con noi (come hanno fatto i Neanderthal) o si è estinta. Man mano che incontriamo l’AGI e la superintelligenza, dovremmo tenerlo a mente; tuttavia, poiché l’IA è uno strumento, ci possono essere ancora modi per mantenere un equilibrio etico tra uomo e macchina.

13. Dipendenza dall’IA

Gli uomini dipendono dalla tecnologia. L’abbiamo sempre fatto, da quando siamo “umani”; la nostra dipendenza tecnologica è quasi ciò che ci definisce come specie. Tuttavia, ciò che prima era solo rocce, bastoni e vestiti di pelliccia, ora è diventato molto più complesso e fragile. Perdere l’elettricità o la connettività cellulare può essere un problema serio, psicologicamente o anche medicalmente (se c’è un’emergenza). E non c’è dipendenza come la dipendenza dall’intelligenza.

La dipendenza dall’intelligenza è una forma di dipendenza come quella di un bambino da un adulto. Per la maggior parte del tempo, i bambini si affidano agli adulti per pensare al posto loro, e nei nostri anni più vecchi, quando alcune persone sperimentano il declino cognitivo, gli anziani si affidano anche agli adulti più giovani. Ora immaginate che gli adulti di mezza età che si prendono cura dei bambini e degli anziani siano essi stessi dipendenti dall’IA per guidarli. Non ci sarebbero più “adulti” umani, solo “adulti AI”. Il genere umano sarebbe diventato una razza di bambini per i nostri AI caregivers.

Questo, naturalmente, solleva la questione di cosa farebbe una razza umana infantilizzata se i nostri genitori AI dovessero mai funzionare male. Senza quell’IA, se dipendenti da essa, potremmo diventare come bambini smarriti che non sanno come prendersi cura di noi stessi o della nostra società tecnologica. Questo “smarrimento” avviene già quando le applicazioni di navigazione degli smartphone funzionano male (o la batteria si scarica), per esempio.

Siamo già a buon punto sulla strada della dipendenza tecnologica. Come possiamo prepararci ora in modo da evitare i pericoli della dipendenza dall’intelligenza artificiale?

14. Dipendenza dall’IA

I produttori di app per smartphone hanno trasformato la dipendenza in una scienza, e i videogiochi e le app alimentate dall’IA possono creare dipendenza come le droghe. L’IA può sfruttare numerosi desideri e debolezze umane tra cui la ricerca di uno scopo, il gioco d’azzardo, l’avidità, la libido, la violenza, e così via.

La dipendenza non solo ci manipola e controlla; ci impedisce anche di fare altre cose più importanti – educative, economiche e sociali. Ci rende schiavi e ci fa perdere tempo quando potremmo fare qualcosa di utile. Con l’IA che impara costantemente di più su di noi e lavora più duramente per farci continuare a cliccare e scorrere, che speranza c’è per noi di sfuggire alle sue grinfie? O, piuttosto, alle grinfie dei produttori di app che creano queste IA per intrappolarci – perché non sono le IA a scegliere di trattare le persone in questo modo, sono le altre persone.

Quando parlo di questo argomento con qualsiasi gruppo di studenti, scopro che tutti loro sono “dipendenti” da una app o da un’altra. Potrebbe non essere una dipendenza clinica, ma questo è il modo in cui gli studenti la definiscono, e sanno di essere sfruttati e danneggiati. Questo è qualcosa che i produttori di app devono smettere di fare: L’IA non dovrebbe essere progettata per sfruttare intenzionalmente le vulnerabilità della psicologia umana.

15. Isolamento e solitudine

La società è in una crisi di solitudine. Per esempio, recentemente uno studio ha scoperto che “200.000 persone anziane nel Regno Unito non hanno avuto una conversazione con un amico o un parente per più di un mese”. Questo è un triste stato di cose perché la solitudine può letteralmente uccidere. È un incubo per la salute pubblica, per non parlare della distruzione del tessuto stesso della società: le nostre relazioni umane. La tecnologia è stata implicata in così tante tendenze sociali e psicologiche negative, tra cui la solitudine, l’isolamento, la depressione, lo stress e l’ansia, che è facile dimenticare che le cose potrebbero essere diverse, e in effetti erano molto diverse solo pochi decenni fa.

Si potrebbe pensare che i “social” media, gli smartphone e l’IA potrebbero aiutare, ma in realtà sono le cause principali della solitudine, poiché le persone si trovano di fronte agli schermi invece che tra loro. Ciò che aiuta sono forti relazioni interpersonali, proprio le relazioni che vengono spinte fuori dalla tecnologia che crea dipendenza (spesso alimentata dall’intelligenza artificiale).

La solitudine può essere aiutata abbandonando i dispositivi e costruendo relazioni interpersonali di qualità. In altre parole: prendersi cura.

Questo potrebbe non essere un lavoro facile e certamente a livello sociale potrebbe essere molto difficile resistere alle tendenze che abbiamo già seguito finora. Ma dobbiamo resistere, perché un mondo migliore e più umano è possibile. La tecnologia non deve rendere il mondo un posto meno personale e attento – potrebbe fare il contrario, se lo volessimo.

16. Effetti sullo spirito umano

Tutte le aree di interesse di cui sopra avranno effetti su come gli esseri umani percepiscono se stessi, si relazionano tra loro e vivono le loro vite. Ma c’è anche una questione più esistenziale. Se lo scopo e l’identità dell’umanità hanno qualcosa a che fare con la nostra intelligenza (come molti eminenti filosofi greci credevano, per esempio), allora esternalizzando la nostra intelligenza e migliorandola oltre l’intelligenza umana, ci stiamo rendendo esseri di seconda classe rispetto alle nostre stesse creazioni?

Questa è una domanda più profonda con l’intelligenza artificiale che taglia al cuore della nostra umanità, in aree tradizionalmente riservate alla filosofia, alla spiritualità e alla religione. Cosa succederà allo spirito umano se o quando saremo superati dalle nostre stesse creazioni in tutto ciò che facciamo? La vita umana perderà di significato? Arriveremo a una nuova scoperta della nostra identità al di là della nostra intelligenza?

Forse l’intelligenza non è così importante per la nostra identità come potremmo pensare, e forse consegnare l’intelligenza alle macchine ci aiuterà a capirlo. Se invece troviamo la nostra umanità non nei nostri cervelli, ma nei nostri cuori, forse arriveremo a riconoscere che la cura, la compassione, la gentilezza e l’amore sono in definitiva ciò che ci rende umani e ciò che rende la vita degna di essere vissuta. Forse togliendo parte del tedio della vita, l’IA può aiutarci a realizzare questa visione di un mondo più umano.

Conclusione

Ci sono altre questioni nell’etica dell’IA; qui ho solo cercato di indicarne alcune importanti. Molto più tempo potrebbe essere speso su argomenti come la sorveglianza alimentata dall’IA, il ruolo dell’IA nel promuovere la disinformazione e la disinformazione, il ruolo dell’IA nella politica e nelle relazioni internazionali, la governance dell’IA, e così via.

Le nuove tecnologie sono sempre create per qualcosa di buono e l’IA ci offre nuove sorprendenti capacità per aiutare le persone e rendere il mondo un posto migliore. Ma per rendere il mondo un posto migliore dobbiamo scegliere di farlo, in accordo con l’etica.

Attraverso lo sforzo concertato di molti individui e organizzazioni, possiamo sperare che la tecnologia AI ci aiuti a rendere un mondo migliore.

Questo articolo si basa sui seguenti lavori precedenti: “AI: sfide etiche e un futuro che si avvicina velocemente” (ottobre 2017) , “Alcune riflessioni etiche e teologiche sull’intelligenza artificiale”, (novembre 2017) , Intelligenza artificiale ed etica: Dieci aree di interesse (Nov. 2017) , “AI ed etica” (Mar. 2018) , “Riflessioni etiche sull’intelligenza artificiale”(Aug. 2018) , e diverse presentazioni di “Intelligenza artificiale ed etica: Sixteen Issues” (2019-20) .

Brian Patrick Green, “Intelligenza artificiale ed etica: Dieci aree di interesse”, sito web del Markkula Center for Applied Ethics, 21 novembre 2017, disponibile presso: https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics/

Originariamente parafrasato in Stan Lee e Steve Ditko, “Spider-Man”, Amazing Fantasy vol. 1, #15 (agosto 1962), frase esatta dello zio Ben in J. Michael Straczynski, Amazing Spider-Man vol. 2, #38 (febbraio 2002). Per ulteriori informazioni: https://en.wikipedia.org/wiki/With_great_power_comes_great_responsibility

Brian Patrick Green, “Artificial Intelligence and Ethics: Sixteen Issues”, vari luoghi e date: Los Angeles, Città del Messico, San Francisco, Santa Clara University (2019-2020).

Bob Yirka, “Computer generated math proof is too large for humans to check”, Phys.org, 19 febbraio 2014, disponibile su: https://phys.org/news/2014-02-math-proof-large-humans.html

The Partnership on AI to Benefit People and Society, Inaugural Meeting, Berlino, Germania, 23-24 ottobre 2017.

Leila Scola, “AI and the Ethics of Energy Efficiency,” Markkula Center for Applied Ethics website, 26 maggio 2020, disponibile a: https://www.scu.edu/environmental-ethics/resources/ai-and-the-ethics-of-energy-efficiency/

Brian Patrick Green, “Artificial Intelligence, Decision-Making, and Moral Deskilling”, sito web del Markkula Center for Applied Ethics, 15 marzo 2019, disponibile a: https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/artificial-intelligence-decision-making-and-moral-deskilling/

Shannon Vallor, “Moral Deskilling and Upskilling in a New Machine Age: Riflessioni sul futuro ambiguo del carattere”. Philosophy of Technology 28 (2015):107-124., disponibile presso: https://link.springer.com/article/10.1007/s13347-014-0156-9

Brad Sylvester, “Fact Check: Aristotele ha detto: ‘Siamo ciò che facciamo ripetutamente’?” Sito web Check Your Fact, 26 giugno 2019, disponibile all’indirizzo: https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/

Lee Mannion, “La Gran Bretagna nomina un ministro per la solitudine in mezzo al crescente isolamento”, Reuters, 17 gennaio 2018, disponibile a: https://www.reuters.com/article/us-britain-politics-health/britain-appoints-minister-for-loneliness-amid-growing-isolation-idUSKBN1F61I6

Julianne Holt-Lunstad, Timothy B. Smith, Mark Baker,Tyler Harris, e David Stephenson, “Loneliness and Social Isolation as Risk Factors for Mortality: A Meta-Analytic Review,” Perspectives on Psychological Science 10(2) (2015): 227-237, disponibile presso: https://journals.sagepub.com/doi/full/10.1177/1745691614568352

Markkula Center for Applied Ethics Staff, “AI: Ethical Challenges and a Fast Approaching Future: Una tavola rotonda sull’intelligenza artificiale”, con Maya Ackerman, Sanjiv Das, Brian Green e Irina Raicu, Santa Clara University, California, 24 ottobre 2017, pubblicato sul blog All About Ethics, 31 ottobre 2017, video disponibile all’indirizzo: https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/

Brian Patrick Green, “Alcune riflessioni etiche e teologiche sull’intelligenza artificiale”, incontro della Pacific Coast Theological Society (PCTS), Graduate Theological Union, Berkeley, 3-4 novembre, 2017, disponibile presso: http://www.pcts.org/meetings/2017/PCTS2017Nov-Green-ReflectionsAI.pdf

Brian Patrick Green, “AI e l’etica”, conferenza ospite in PACS003: What is an Ethical Life?, University of the Pacific, Stockton, 21 marzo 2018.

Brian Patrick Green, “Ethical Reflections on Artificial Intelligence”, Scientia et Fides 6(2), 24 agosto 2018. Disponibile a: http://apcz.umk.pl/czasopisma/index.php/SetF/article/view/SetF.2018.015/15729

Grazie a molte persone per tutti gli utili feedback che mi hanno aiutato a sviluppare questa lista, tra cui Maya Ackermann, Kirk Bresniker, Sanjiv Das, Kirk Hanson, Brian Klunk, Thane Kreiner, Angelus McNally, Irina Raicu, Leila Scola, Lili Tavlan, Shannon Vallor, i dipendenti di diverse aziende tech, i partecipanti all’incontro PCTS Fall 2017, i partecipanti agli necessari.incontri di formazione, diversi revisori anonimi, i professori e gli studenti di PACS003 all’Università del Pacifico, gli studenti del mio corso ENGR 344: AI e Etica, così come molti altri.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.