Brian Patrick Green é o diretor de Ética Tecnológica do Centro Markkula de Ética Aplicada. Este artigo é uma atualização de um artigo anterior que pode ser encontrado aqui . As opiniões são suas.

A inteligência artificial e as tecnologias de aprendizagem de máquinas estão transformando rapidamente a sociedade e continuarão a fazê-lo nas próximas décadas. Esta transformação social terá um profundo impacto ético, com estas novas e poderosas tecnologias tanto a melhorar como a perturbar as vidas humanas. A IA, como a externalização da inteligência humana, nos oferece de forma ampliada tudo o que a humanidade já é, tanto o bem como o mal. Muito está em jogo. Nesta encruzilhada na história devemos pensar muito cuidadosamente sobre como fazer esta transição, ou corremos o risco de dar poder ao lado mais triste da nossa natureza, em vez de ao lado mais brilhante.

Por que a ética da IA está se tornando um problema agora? A aprendizagem de máquinas (ML) através de redes neurais está avançando rapidamente por três razões: 1) Enorme aumento no tamanho dos conjuntos de dados; 2) Enorme aumento no poder computacional; 3) Enorme melhoria nos algoritmos ML e mais talento humano para escrevê-los. Todas essas três tendências estão centralizando o poder, e “Com grande poder vem grande responsabilidade” .

Como instituição, o Centro Markkula de Ética Aplicada tem pensado profundamente sobre a ética da IA por vários anos. Este artigo começou como apresentações feitas em conferências acadêmicas e desde então se expandiu para um artigo acadêmico (links abaixo) e mais recentemente para uma apresentação de “Inteligência e Ética Artificial”: Dezesseis Questões” que dei nos Estados Unidos e internacionalmente . Nesse espírito, ofereço esta lista atual:

1. Segurança Técnica

A primeira questão para qualquer tecnologia é se ela funciona como pretendido. Os sistemas de IA irão funcionar como prometido ou irão falhar? Se e quando eles falharem, quais serão os resultados dessas falhas? E se formos dependentes deles, seremos capazes de sobreviver sem eles?

Por exemplo, várias pessoas morreram em um acidente de carro semi-autônomo porque os veículos encontraram situações em que não conseguiram tomar decisões seguras. Embora escrevendo contratos muito detalhados que limitam a responsabilidade possa legalmente reduzir a responsabilidade de um fabricante, de uma perspectiva moral, não só a responsabilidade ainda está com a empresa, mas o próprio contrato pode ser visto como um esquema antiético para evitar responsabilidade legítima.

A questão da segurança técnica e da falha é separada da questão de como uma tecnologia que funciona corretamente pode ser usada para o bem ou para o mal (questões 3 e 4, abaixo). Esta pergunta é apenas uma questão de função, mas é a base sobre a qual todo o resto da análise deve assentar.

2. Transparência e Privacidade

Após termos determinado que a tecnologia funciona adequadamente, podemos realmente entender como ela funciona e coletar dados sobre o seu funcionamento de forma adequada? A análise ética sempre depende de obter os fatos primeiro – somente então a avaliação pode começar.

Acontece que com algumas técnicas de aprendizagem da máquina, como a aprendizagem profunda em redes neurais, pode ser difícil ou impossível entender realmente porque a máquina está fazendo as escolhas que ela faz. Em outros casos, pode ser que a máquina possa explicar algo, mas a explicação é muito complexa para que os humanos possam entender.

Por exemplo, em 2014 um computador provou um teorema matemático, usando uma prova que, na época, era pelo menos mais longa que toda a enciclopédia da Wikipédia . Explicações deste tipo podem ser verdadeiras explicações, mas os humanos nunca saberão ao certo.

Como ponto adicional, em geral, quanto mais poderoso alguém ou algo é, mais transparente deve ser, enquanto que quanto mais fraco alguém é, mais direito à privacidade deve ter. Portanto, a idéia de que as IAs poderosas podem ser intrinsecamente opacas é desconcertante.

3. Uso Benéfico & Capacidade para o Bem

O principal propósito da IA é, como qualquer outra tecnologia, ajudar as pessoas a levar vidas mais longas, mais florescentes, mais gratificantes. Isso é bom e, portanto, na medida em que a IA ajuda as pessoas dessa forma, podemos nos alegrar e apreciar os benefícios que ela nos dá.

>

A inteligência adicional provavelmente proporcionará melhorias em quase todos os campos do esforço humano, incluindo, por exemplo, arqueologia, pesquisa biomédica, comunicação, análise de dados, educação, eficiência energética, proteção ambiental, agricultura, finanças, serviços jurídicos, diagnósticos médicos, gestão de recursos, exploração do espaço, transporte, gestão de resíduos, e assim por diante.

Como apenas um exemplo concreto de um benefício da IA, alguns equipamentos agrícolas agora têm sistemas computacionais capazes de identificar visualmente ervas daninhas e pulverizá-las com doses minúsculas de herbicida direcionadas. Isto não só protege o ambiente, reduzindo o uso de químicos nas plantações, mas também protege a saúde humana, reduzindo a exposição a estes químicos.

4. Uso Malicioso & Capacidade para o Mal

Uma tecnologia que funciona perfeitamente, como uma arma nuclear, pode, quando posta ao seu uso pretendido, causar um mal imenso. A inteligência artificial, como a inteligência humana, será usada maliciosamente, não há dúvida.

Por exemplo, a vigilância alimentada por IA já é generalizada, tanto em contextos apropriados (por exemplo, câmeras de segurança aeroportuária), talvez inadequados (por exemplo, produtos com microfones sempre ligados em nossas casas), como conclusivamente inadequados (por exemplo, produtos que ajudam regimes autoritários a identificar e oprimir seus cidadãos). Outros exemplos nefastos podem incluir a pirataria informática assistida por AI e sistemas de armas autônomas letais (LAWS), também conhecidos como “robôs assassinos”. Temores adicionais, de vários graus de plausibilidade, incluem cenários como os dos filmes “2001: Uma Odisséia Espacial”, “Wargames” e “Terminator”

Embora filmes e tecnologias de armas possam parecer exemplos extremos de como a IA pode fortalecer o mal, devemos lembrar que a competição e a guerra são sempre os principais motores do avanço tecnológico, e que as forças armadas e corporações estão trabalhando nessas tecnologias neste momento. A história também mostra que grandes males nem sempre são completamente intencionados (por exemplo, tropeçar na Primeira Guerra Mundial e em vários encerramentos nucleares na Guerra Fria), e por isso ter poder destrutivo, mesmo que não pretenda usá-lo, ainda corre o risco de ser catastrófico. Por isso, proibir, proibir e renunciar a certos tipos de tecnologia seria a solução mais prudente.

5. Viés em Dados, Conjuntos de Treinamento, etc.

Uma das coisas interessantes sobre redes neurais, os atuais cavalos de trabalho da inteligência artificial, é que eles efetivamente fundem um programa de computador com os dados que lhe são dados. Isto tem muitos benefícios, mas também corre o risco de enviesar todo o sistema de forma inesperada e potencialmente prejudicial.

Já foi descoberto um enviesamento algorítmico, por exemplo, em áreas que vão desde punição criminal até legendas de fotografias. Estes enviesamentos são mais do que embaraçosos para as corporações que produzem estes produtos defeituosos; eles têm efeitos negativos e prejudiciais concretos sobre as pessoas que são vítimas destes enviesamentos, assim como reduzem a confiança nas corporações, governo e outras instituições que possam estar usando estes produtos enviesados. O viés algorítmico é uma das maiores preocupações da IA neste momento e continuará a sê-lo no futuro, a menos que nos esforcemos para tornar nossos produtos tecnológicos melhores do que somos. Como uma pessoa disse na primeira reunião da Parceria sobre IA, “Reproduziremos todas as nossas falhas humanas de forma artificial a menos que nos esforcemos agora mesmo para garantir que não o façamos” .

6. Desemprego / Falta de Propósito & Significado

Muitas pessoas já perceberam que a IA será uma ameaça a certas categorias de empregos. De fato, a automação da indústria tem sido um fator de grande contribuição na perda de empregos desde o início da revolução industrial. A IA irá simplesmente estender esta tendência para mais campos, incluindo campos que tradicionalmente têm sido pensados como sendo mais seguros da automação, por exemplo, direito, medicina e educação. Não está claro em que novas carreiras as pessoas desempregadas serão capazes de transitar, embora quanto mais o trabalho tiver a ver com o cuidado com os outros, mais provável será que as pessoas queiram lidar com outros seres humanos e não com as IAs.

Atrelada à preocupação com o emprego está a preocupação com a forma como a humanidade gasta o seu tempo e o que torna uma vida bem gasta. O que farão milhões de pessoas desempregadas? Que bons propósitos eles podem ter? O que podem eles contribuir para o bem-estar da sociedade? Como a sociedade evitará que eles se desiludam, amargam e se deixem arrastar por movimentos maléficos como a supremacia branca e o terrorismo?

7. Desigualdade Sócio-Económica Crescente

Relacionada ao problema do desemprego está a questão de como as pessoas irão sobreviver se o desemprego subir para níveis muito altos. Onde é que elas vão conseguir dinheiro para se manterem e às suas famílias? Enquanto os preços podem diminuir devido ao menor custo de produção, aqueles que controlam a IA também provavelmente arrecadarão grande parte do dinheiro que, de outra forma, teria ido para os salários dos agora desempregados, e, portanto, a desigualdade econômica aumentará. Isto também afetará a disparidade econômica internacional e, portanto, é provavelmente uma grande ameaça para as nações menos desenvolvidas.

Alguns sugeriram uma renda básica universal (UBI) para resolver o problema, mas isto exigirá uma grande reestruturação das economias nacionais. Várias outras soluções para este problema podem ser possíveis, mas todas elas envolvem mudanças potencialmente importantes para a sociedade humana e para o governo. Em última análise, este é um problema político, não técnico, por isso esta solução, tal como a de muitos dos problemas aqui descritos, precisa de ser abordada a nível político.

8. Efeitos Ambientais

Modelos de aprendizagem de máquinas requerem enormes quantidades de energia para treinar, tanta energia que os custos podem ir até às dezenas de milhões de dólares ou mais. Escusado será dizer que, se essa energia é proveniente de combustíveis fósseis, isso é um grande impacto negativo na mudança climática, sem mencionar que é prejudicial em outros pontos da cadeia de fornecimento de hidrocarbonetos.

A aprendizagem de máquinas também pode tornar a distribuição e uso de energia elétrica muito mais eficiente, assim como trabalhar na solução de problemas de biodiversidade, pesquisa ambiental, gestão de recursos, etc. A IA é de algumas formas muito básicas uma tecnologia focada em eficiência, e a eficiência energética é uma forma que suas capacidades podem ser direcionadas.

Em equilíbrio, parece que a IA pode ser um positivo líquido para o meio ambiente – mas somente se ela for realmente direcionada para esse fim positivo, e não apenas para consumir energia para outros usos.

9. Automating Ethics

Um ponto forte da IA é que ela pode automatizar a tomada de decisão, diminuindo assim a carga sobre os humanos e acelerando – potencialmente acelerando muito – alguns tipos de processos de tomada de decisão. Entretanto, essa automatização da tomada de decisão apresentará enormes problemas para a sociedade, pois se essas decisões automatizadas forem boas, a sociedade se beneficiará, mas se forem ruins, a sociedade será prejudicada.

Como os agentes da IA recebem mais poderes para tomar decisões, eles precisarão ter padrões éticos de algum tipo codificados nelas. Simplesmente não há como contornar isso: o processo de decisão ética pode ser tão simples quanto seguir um programa para distribuir um benefício de forma justa, onde a decisão é tomada pelos humanos e executada por algoritmos, mas também pode implicar uma análise ética muito mais detalhada, mesmo que nós humanos preferíssemos que não o fizéssemos – isto é porque o Ai irá operar muito mais rápido do que os humanos podem, que em algumas circunstâncias os humanos serão deixados “fora do circuito” de controle devido à lentidão humana. Isso já ocorre com ciberataques, e comércio de alta frequência (ambos preenchidos com questões éticas que são tipicamente ignoradas) e só vai piorar à medida que a IA expande seu papel na sociedade.

Desde que a IA possa ser tão poderosa, é melhor que os padrões éticos que lhe damos sejam bons.

10. Moral Deskilling & Debilidade

Se entregarmos nossas capacidades de decisão às máquinas, nós nos tornaremos menos experientes na tomada de decisões. Por exemplo, este é um fenómeno bem conhecido entre os pilotos de linha aérea: o piloto automático pode fazer tudo sobre voar um avião, desde a descolagem até à aterragem, mas os pilotos escolhem intencionalmente controlar manualmente a aeronave em momentos cruciais (por exemplo, para manter suas habilidades de pilotagem.

Porque um dos usos da IA será assistir ou substituir humanos na tomada de certos tipos de decisões (por exemplo, ortografia, condução, negociação de ações, etc.), devemos estar cientes de que os humanos podem se tornar piores nessas habilidades. Em sua forma mais extrema, se a IA começar a tomar decisões éticas e políticas por nós, nós nos tornaremos piores na ética e na política. Nós podemos reduzir ou dificultar nosso desenvolvimento moral precisamente no momento em que nosso poder se tornou maior e nossas decisões mais importantes.

Isso significa que o estudo da ética e treinamento ético são agora mais importantes do que nunca. Devemos determinar formas pelas quais a IA pode realmente melhorar nosso aprendizado e treinamento ético. Nunca devemos permitir que nos tornemos escrivães e debilitados com a ética, ou quando nossa tecnologia finalmente nos apresenta escolhas difíceis de fazer e problemas que devemos resolver – escolhas e problemas que, talvez, nossos ancestrais teriam sido capazes de resolver – os humanos futuros poderiam não ser capazes de fazê-lo.

Para mais sobre escrivães, veja este artigo e o artigo original de Shannon Vallor sobre o tópico .

11. AI Consciência, Personalidade, e “Direitos do Robô”

Alguns pensadores têm se perguntado se as IA podem eventualmente tornar-se auto-conscientes, atingir sua própria vontade, ou se merecem reconhecimento como pessoas como nós. Legalmente falando, a personalidade foi dada a corporações e (em outros países) rios, então certamente não há necessidade de consciência mesmo antes que questões legais possam surgir.

Moralmente falando, podemos antecipar que os tecnólogos tentarão tornar as IAs e robôs mais humanos possíveis, e talvez um dia eles serão imitações tão boas que nos perguntaremos se eles podem estar conscientes e merecer direitos – e talvez não sejamos capazes de determinar isso de forma conclusiva. Se os humanos do futuro concluírem que as IAs e os robôs podem ser dignos de um status moral, então devemos nos desviar do lado da cautela e dar-lhe.

Em meio a essa incerteza sobre o status de nossas criações, o que saberemos é que nós humanos temos caráter moral e que, para seguir uma citação inexata de Aristóteles, “nós nos tornamos o que fazemos repetidamente” . Portanto, não devemos tratar mal os IAs e robôs, ou podemos estar nos habituando a ter personagens defeituosos, independentemente do status moral dos seres artificiais com os quais estamos interagindo. Em outras palavras, não importa o status dos IA e robôs, para o bem dos nossos próprios personagens morais devemos tratá-los bem, ou pelo menos não abusar deles.

12. AGI e Superinteligência

Se ou quando a IA atingir níveis humanos de inteligência, fazendo tudo o que os humanos podem fazer tão bem quanto a média dos humanos, então será uma Inteligência Geral Artificial – uma AGI – e será a única outra inteligência desse tipo a existir na Terra a nível humano.

Se ou quando o AGI exceder a inteligência humana, ele se tornará uma superinteligência, uma entidade potencialmente mais inteligente e capaz do que nós: algo com que os humanos só se relacionam em religiões, mitos e histórias.

Importante aqui, a tecnologia da IA está melhorando excessivamente rápido. Empresas e governos globais estão em uma corrida para reivindicar os poderes da IA como seus próprios poderes. Igualmente importante, não há razão para que a melhoria da IA pare na AGI. A IA é escalável e rápida. Ao contrário de um cérebro humano, se dermos à IA mais hardware ela fará mais e mais, mais e mais rápido.

O advento do AGI ou superinteligência marcará o destronamento da humanidade como a coisa mais inteligente da Terra. Nós nunca enfrentamos (no mundo material) nada mais inteligente do que nós antes. Cada vez que o Homo sapiens encontrou outras espécies humanas inteligentes na história da vida na Terra, as outras espécies ou se fundiram geneticamente conosco (como os Neandertais) ou foram expulsos. Ao encontrarmos AGI e superinteligência, devemos ter isso em mente; no entanto, como a IA é uma ferramenta, pode haver ainda maneiras de manter um equilíbrio ético entre humano e máquina.

13. Dependência da IA

Humans dependem da tecnologia. Nós sempre dependemos, desde que somos “humanos”; nossa dependência tecnológica é quase o que nos define como uma espécie. O que antes era apenas rochas, paus e roupas de pele agora se tornou muito mais complexo e frágil. Perder eletricidade ou conectividade celular pode ser um problema sério, psicologicamente ou até mesmo medicamente (se houver uma emergência). E não há dependência como a dependência da inteligência.

A dependência da inteligência é uma forma de dependência como a de uma criança para um adulto. Na maior parte do tempo, as crianças dependem dos adultos para pensar por eles, e nos nossos anos mais velhos, como algumas pessoas experimentam um declínio cognitivo, os idosos dependem também dos adultos mais jovens. Agora imagine que adultos de meia-idade que estão cuidando de crianças e idosos são eles próprios dependentes da IA para guiá-los. Não haveria “adultos” humanos apenas “adultos com IA”. A humanidade teria se tornado uma raça de crianças para nossos cuidadores da IA.

Isso, é claro, levanta a questão do que uma raça humana infantilizada faria se nossos pais de IA tivessem algum dia um mau funcionamento. Sem essa IA, se dependesse dela, nós poderíamos nos tornar como crianças perdidas não sabendo como cuidar de nós mesmos ou de nossa sociedade tecnológica. Essa “perda” já acontece quando as aplicações de navegação do smartphone não funcionam (ou a bateria acaba), por exemplo.

Já estamos bem no caminho da dependência tecnológica. Como podemos nos preparar agora para que possamos evitar os perigos da dependência específica da inteligência da IA?

14. Vício alimentado por IA

Aplicações para Smartphones transformaram o vício em ciência, e as aplicações e jogos de vídeo alimentados por IA podem ser viciantes como as drogas. A IA pode explorar inúmeros desejos e fraquezas humanas, incluindo a procura de propósito, jogo, ganância, libido, violência, e assim por diante.

Addiction não só nos manipula e controla; também nos impede de fazer outras coisas mais importantes – educacionais, econômicas e sociais. Ela nos escraviza e desperdiça nosso tempo quando poderíamos estar fazendo algo que valesse a pena. Com a IA aprendendo constantemente mais sobre nós e trabalhando mais para nos manter clicando e rolando, que esperança existe para escaparmos de suas garras? Ou melhor, as garras dos criadores de aplicativos que criam estas IA para nos aprisionar – porque não são as IA que escolhem tratar as pessoas desta forma, são outras pessoas.

Quando falo sobre este tópico com qualquer grupo de alunos, descubro que todos eles são “viciados” em um aplicativo ou outro. Pode não ser um vício clínico, mas é assim que os alunos o definem, e eles sabem que estão a ser explorados e prejudicados. Isto é algo que os criadores de aplicativos precisam parar de fazer: A IA não deve ser concebida para explorar intencionalmente vulnerabilidades na psicologia humana.

15. Isolamento e Solidão

Sociedade está em crise de solidão. Por exemplo, recentemente um estudo descobriu que “200.000 pessoas mais velhas no Reino Unido não tiveram uma conversa com um amigo ou parente em mais de um mês” . Este é um triste estado de coisas porque a solidão pode literalmente matar . É um pesadelo de saúde pública, para não falar na destruição do próprio tecido da sociedade: as nossas relações humanas. A tecnologia tem sido implicada em tantas tendências sociais e psicológicas negativas, incluindo solidão, isolamento, depressão, estresse e ansiedade, que é fácil esquecer que as coisas poderiam ser diferentes, e na verdade eram bem diferentes apenas algumas décadas atrás.

Uma pessoa poderia pensar que a mídia “social”, smartphones e IA poderiam ajudar, mas na verdade eles são as principais causas da solidão, uma vez que as pessoas estão enfrentando telas ao invés umas das outras. O que ajuda são os fortes relacionamentos pessoais, precisamente os relacionamentos que estão sendo empurrados para fora pela tecnologia viciante (muitas vezes alimentada pela IA).

A solidão pode ser ajudada deixando cair dispositivos e construindo relacionamentos pessoais de qualidade. Em outras palavras: cuidado.

Esse pode não ser um trabalho fácil e certamente a nível social pode ser muito difícil resistir às tendências que já seguimos até agora. Mas resistir devemos, porque um mundo melhor e mais humano é possível. A tecnologia não tem que tornar o mundo um lugar menos pessoal e cuidadoso – poderia fazer o contrário, se quiséssemos.

16. Efeitos sobre o Espírito Humano

Todas as áreas de interesse acima terão efeitos sobre como os humanos se percebem, se relacionam uns com os outros, e vivem suas vidas. Mas há uma questão mais existencial também. Se o propósito e a identidade da humanidade tem algo a ver com nossa inteligência (como acreditavam vários filósofos gregos proeminentes, por exemplo), então ao exteriorizar nossa inteligência e melhorá-la além da inteligência humana, estamos nos tornando seres de segunda classe para nossas próprias criações?

Esta é uma questão mais profunda com a inteligência artificial que corta o núcleo de nossa humanidade, em áreas tradicionalmente reservadas à filosofia, espiritualidade e religião. O que acontecerá ao espírito humano se ou quando formos dominados pelas nossas próprias criações em tudo o que fizermos? Será que a vida humana perderá sentido? Será que vamos chegar a uma nova descoberta da nossa identidade para além da nossa inteligência?

Talvez a inteligência não seja realmente tão importante para a nossa identidade como poderíamos pensar que é, e talvez entregar a inteligência às máquinas nos ajude a perceber isso. Se ao invés disso encontrarmos nossa humanidade não em nossos cérebros, mas em nossos corações, talvez cheguemos a reconhecer que cuidado, compaixão, bondade e amor são, em última análise, o que nos torna humanos e o que faz a vida valer a pena viver. Talvez tirando algum do tédio da vida, a IA possa nos ajudar a cumprir essa visão de um mundo mais humano.

Conclusão

Existem mais questões na ética da IA; aqui eu acabei de tentar apontar algumas principais. Muito mais tempo poderia ser gasto em tópicos como vigilância alimentada pela IA, o papel da IA na promoção da desinformação e desinformação, o papel da IA na política e nas relações internacionais, a governança da IA, e assim por diante.

Novas tecnologias são sempre criadas em prol de algo bom – e a IA nos oferece novas habilidades incríveis para ajudar as pessoas e fazer do mundo um lugar melhor. Mas para fazer do mundo um lugar melhor precisamos escolher isso, de acordo com a ética.

Por meio do esforço conjunto de muitos indivíduos e organizações, podemos esperar que a tecnologia da IA nos ajude a fazer um mundo melhor.

Este artigo se baseia nos seguintes trabalhos anteriores: “IA: Desafios Éticos e um Futuro de Rápida Aproximação” (Out. 2017) , “Algumas Reflexões Éticas e Teológicas sobre Inteligência Artificial”, (Nov. 2017) , Inteligência Artificial e Ética: Dez áreas de interesse (Nov. 2017) , “IA e Ética” (Mar. 2018) , “Reflexões Éticas sobre Inteligência Artificial” (Ago. 2018) , e várias apresentações de “Inteligência Artificial e Ética: Dezesseis Questões” (2019-20) .

Brian Patrick Green, “Inteligência Artificial e Ética: Dez áreas de interesse”, site do Markkula Center for Applied Ethics, 21 de novembro de 2017, disponível em: https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics/

Parafraseado originalmente em Stan Lee e Steve Ditko, “Homem-Aranha”, Amazing Fantasy vol. 1, #15 (agosto 1962), frase exata do Tio Ben em J. Michael Straczynski, Amazing Spider-Man vol. 2, #38 (fevereiro 2002). Para mais informações: https://en.wikipedia.org/wiki/With_great_power_comes_great_responsibility

Brian Patrick Green, “Inteligência Artificial e Ética: Dezasseis Questões”, vários locais e datas: Los Angeles, Cidade do México, São Francisco, Universidade de Santa Clara (2019-2020).

Bob Yirka, “Computer generated mathema proof is too large for humans to check”, Phys.org, 19 de fevereiro de 2014, disponível em: https://phys.org/news/2014-02-math-proof-large-humans.html

The Partnership on AI to Benefit People and Society, Inaugural Meeting, Berlin, Germany, 23-24 de outubro de 2017.

Leila Scola, “AI and the Ethics of Energy Efficiency”, Markkula Center for Applied Ethics website, 26 de maio de 2020, disponível em:: https://www.scu.edu/environmental-ethics/resources/ai-and-the-ethics-of-energy-efficiency/

Brian Patrick Green, “Inteligência Artificial, Tomada de Decisões e Moral de Escritório”, site do Centro Markkula de Ética Aplicada, 15 de março de 2019, disponível em:: https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/artificial-intelligence-decision-making-and-moral-deskilling/

Shannon Vallor, “Moral Deskilling e Upskilling em uma Nova Era de Máquina”: Reflexões sobre o Futuro Ambíguo do Caráter”. Filosofia da Tecnologia 28 (2015):107-124., disponível em: https://link.springer.com/article/10.1007/s13347-014-0156-9

Brad Sylvester, “Fact Check: Aristóteles disse: “Somos o que fazemos repetidamente”?” Verifique o seu site Fact, 26 de Junho de 2019, disponível em: https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/

Lee Mannion, “Britain appoints minister for loneliness amongst growing isolation”, Reuters, 17 de Janeiro de 2018, disponível em: https://www.reuters.com/article/us-britain-politics-health/britain-appoints-minister-for-loneliness-amid-growing-isolation-idUSKBN1F61I6

Julianne Holt-Lunstad, Timothy B. Smith, Mark Baker,Tyler Harris, e David Stephenson, “Solidão e Isolamento Social como Fatores de Risco para a Mortalidade”: A Meta-Analytic Review”, Perspectives on Psychological Science 10(2) (2015): 227-237, disponível em: https://journals.sagepub.com/doi/full/10.1177/1745691614568352

Markkula Center for Applied Ethics Staff, “AI: Ethical Challenges and a Fast Approaching Future”: Um painel de discussão sobre inteligência artificial”, com Maya Ackerman, Sanjiv Das, Brian Green, e Irina Raicu, Universidade de Santa Clara, Califórnia, 24 de outubro de 2017, postado no All About Ethics Blog, 31 de outubro de 2017, vídeo disponível em: https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/

Brian Patrick Green, “Some Ethical and Theological Reflections on Artificial Intelligence”, reunião da Pacific Coast Theological Society (PCTS), Graduate Theological Union, Berkeley, 3-4 de novembro de 2017, disponível em:: http://www.pcts.org/meetings/2017/PCTS2017Nov-Green-ReflectionsAI.pdf

Brian Patrick Green, “AI and Ethics”, palestra convidada no PACS003: What is an Ethical Life?, University of the Pacific, Stockton, 21 de março de 2018.

Brian Patrick Green, “Ethical Reflections on Artificial Intelligence”, Scientia et Fides 6(2), 24 de agosto de 2018. Disponível em: http://apcz.umk.pl/czasopisma/index.php/SetF/article/view/SetF.2018.015/15729

Obrigado a muitas pessoas por todo o feedback útil que me ajudou a desenvolver esta lista, incluindo Maya Ackermann, Kirk Bresniker, Sanjiv Das, Kirk Hanson, Brian Klunk, Thane Kreiner, Angelus McNally, Irina Raicu, Leila Scola, Lili Tavlan, Shannon Vallor, os funcionários de várias empresas de tecnologia, os participantes do encontro PCTS Outono 2017, os participantes dos necessários.reuniões educativas, vários revisores anónimos, os professores e estudantes do PACS003 da Universidade do Pacífico, os estudantes da minha ENGR 344: AI e curso de Ética, assim como muitos mais.

Deixe uma resposta

O seu endereço de email não será publicado.