Brian Patrick Green est le directeur de l’éthique des technologies au Markkula Center for Applied Ethics. Cet article est une mise à jour d’un article précédent qui peut être trouvé ici . Les points de vue sont les siens.

L’intelligence artificielle et les technologies d’apprentissage automatique transforment rapidement la société et continueront à le faire dans les décennies à venir. Cette transformation sociale aura un profond impact éthique, ces nouvelles technologies puissantes améliorant et perturbant à la fois les vies humaines. L’IA, en tant qu’extériorisation de l’intelligence humaine, nous offre sous une forme amplifiée tout ce que l’humanité est déjà, le bien comme le mal. L’enjeu est de taille. À ce carrefour de l’histoire, nous devrions réfléchir très attentivement à la façon de faire cette transition, ou nous risquons de donner du pouvoir au côté le plus sinistre de notre nature, plutôt qu’au plus lumineux.

Pourquoi l’éthique de l’IA devient-elle un problème maintenant ? L’apprentissage automatique (ML) par les réseaux neuronaux progresse rapidement pour trois raisons : 1) Augmentation énorme de la taille des ensembles de données ; 2) Augmentation énorme de la puissance de calcul ; 3) Amélioration énorme des algorithmes ML et plus de talent humain pour les écrire. Ces trois tendances sont une centralisation du pouvoir, et « Avec un grand pouvoir vient une grande responsabilité ».

En tant qu’institution, le Markkula Center for Applied Ethics réfléchit profondément à l’éthique de l’IA depuis plusieurs années. Cet article a commencé par des présentations faites lors de conférences universitaires et s’est depuis étendu à un article universitaire (liens ci-dessous) et plus récemment à une présentation de « Intelligence artificielle et éthique : Sixteen Issues » que j’ai donnée aux États-Unis et à l’étranger. Dans cet esprit, je propose cette liste actuelle :

1. Sécurité technique

La première question pour toute technologie est de savoir si elle fonctionne comme prévu. Les systèmes d’IA fonctionneront-ils comme ils sont promis ou échoueront-ils ? Si et quand ils échouent, quels seront les résultats de ces échecs ? Et si nous sommes dépendants d’eux, serons-nous capables de survivre sans eux ?

Par exemple, plusieurs personnes sont mortes dans un accident de voiture semi-autonome parce que les véhicules ont rencontré des situations dans lesquelles ils n’ont pas réussi à prendre des décisions sûres. Si la rédaction de contrats très détaillés qui limitent la responsabilité peut légalement réduire la responsabilité d’un fabricant, d’un point de vue moral, non seulement la responsabilité incombe toujours à l’entreprise, mais le contrat lui-même peut être considéré comme un stratagème contraire à l’éthique pour éviter la responsabilité légitime.

La question de la sécurité et de l’échec technique est distincte de la question de savoir comment une technologie fonctionnant correctement pourrait être utilisée pour le bien ou pour le mal (questions 3 et 4, ci-dessous). Cette question n’est qu’une question de fonction, mais elle est le fondement sur lequel tout le reste de l’analyse doit s’appuyer.

2. Transparence et vie privée

Une fois que nous avons déterminé que la technologie fonctionne de manière adéquate, pouvons-nous réellement comprendre comment elle fonctionne et recueillir correctement des données sur son fonctionnement ? L’analyse éthique dépend toujours de l’obtention des faits d’abord – ce n’est qu’ensuite que l’évaluation peut commencer.

Il s’avère qu’avec certaines techniques d’apprentissage automatique telles que l’apprentissage profond dans les réseaux neuronaux, il peut être difficile ou impossible de vraiment comprendre pourquoi la machine fait les choix qu’elle fait. Dans d’autres cas, il se peut que la machine puisse expliquer quelque chose, mais que l’explication soit trop complexe pour que les humains la comprennent.

Par exemple, en 2014, un ordinateur a prouvé un théorème mathématique, en utilisant une preuve qui était, à l’époque du moins, plus longue que l’ensemble de l’encyclopédie Wikipédia . Les explications de ce genre pourraient être des explications vraies, mais les humains ne le sauront jamais avec certitude.

En guise de point supplémentaire, en général, plus quelqu’un ou quelque chose est puissant, plus il devrait être transparent, tandis que plus quelqu’un est faible, plus il devrait avoir droit à la vie privée. Par conséquent, l’idée que les IA puissantes puissent être intrinsèquement opaques est déconcertante.

3. Utilisation bénéfique & Capacité de faire le bien

Le but principal de l’IA est, comme toute autre technologie, d’aider les gens à mener des vies plus longues, plus florissantes, plus épanouissantes. Cela est bon, et donc dans la mesure où l’IA aide les gens de ces façons, nous pouvons être heureux et apprécier les avantages qu’elle nous procure.

L’intelligence additionnelle apportera probablement des améliorations dans presque tous les domaines de l’activité humaine, y compris, par exemple, l’archéologie, la recherche biomédicale, la communication, l’analyse des données, l’éducation, l’efficacité énergétique, la protection de l’environnement, l’agriculture, la finance, les services juridiques, les diagnostics médicaux, la gestion des ressources, l’exploration spatiale, le transport, la gestion des déchets, et ainsi de suite.

Pour ne citer qu’un exemple concret d’un avantage de l’IA, certains équipements agricoles sont désormais dotés de systèmes informatiques capables d’identifier visuellement les mauvaises herbes et de les pulvériser avec de minuscules doses ciblées d’herbicide. Cela permet non seulement de protéger l’environnement en réduisant l’utilisation de produits chimiques sur les cultures, mais aussi de protéger la santé humaine en réduisant l’exposition à ces produits chimiques.

4. Utilisation malveillante & Capacité au mal

Une technologie fonctionnant parfaitement bien, comme une arme nucléaire, peut, lorsqu’elle est utilisée à bon escient, causer un mal immense. L’intelligence artificielle, comme l’intelligence humaine, sera utilisée de manière malveillante, cela ne fait aucun doute.

Par exemple, la surveillance alimentée par l’IA est déjà très répandue, à la fois dans des contextes appropriés (par exemple, les caméras de sécurité dans les aéroports), peut-être inappropriés (par exemple, les produits avec des microphones en permanence dans nos maisons), et définitivement inappropriés (par exemple, les produits qui aident les régimes autoritaires à identifier et opprimer leurs citoyens). D’autres exemples néfastes peuvent inclure le piratage informatique assisté par l’IA et les systèmes d’armes autonomes létaux (LAWS), alias « robots tueurs ». D’autres craintes, plus ou moins plausibles, incluent des scénarios comme ceux des films  » 2001 : L’Odyssée de l’espace « ,  » Wargames  » et  » Terminator « .

Bien que les films et les technologies d’armement puissent sembler être des exemples extrêmes de la façon dont l’IA pourrait donner du pouvoir au mal, nous devrions nous rappeler que la concurrence et la guerre sont toujours les principaux moteurs du progrès technologique, et que les armées et les entreprises travaillent sur ces technologies en ce moment même. L’histoire montre également que les grands maux ne sont pas toujours complètement voulus (par exemple, la première guerre mondiale et les divers rapprochements nucléaires de la guerre froide), et donc que posséder un pouvoir destructeur, même si l’on n’a pas l’intention de l’utiliser, risque toujours d’entraîner une catastrophe. Pour cette raison, interdire, bannir et renoncer à certains types de technologie serait la solution la plus prudente.

5. Biais dans les données, les ensembles de formation, etc.

L’une des choses intéressantes sur les réseaux neuronaux, les chevaux de bataille actuels de l’intelligence artificielle, est qu’ils fusionnent effectivement un programme informatique avec les données qui lui sont données. Cela présente de nombreux avantages, mais risque également de biaiser l’ensemble du système de manière inattendue et potentiellement préjudiciable.

Des biais algorithmiques ont déjà été découverts, par exemple, dans des domaines allant de la sanction pénale au sous-titrage de photographies. Ces biais sont plus qu’embarrassants pour les entreprises qui produisent ces produits défectueux ; ils ont des effets négatifs et nuisibles concrets sur les personnes qui en sont victimes, ainsi qu’une réduction de la confiance dans les entreprises, les gouvernements et les autres institutions qui pourraient utiliser ces produits biaisés. Les biais algorithmiques sont l’une des principales préoccupations actuelles en matière d’IA et le resteront à l’avenir, à moins que nous ne nous efforcions de rendre nos produits technologiques meilleurs que nous ne le sommes. Comme l’a dit une personne lors de la première réunion du Partenariat sur l’IA, « Nous reproduirons tous nos défauts humains sous forme artificielle, à moins que nous nous efforcions dès maintenant de faire en sorte que ce ne soit pas le cas » .

6. Chômage / absence de but &Sens

Beaucoup de gens ont déjà perçu que l’IA sera une menace pour certaines catégories d’emplois. En effet, l’automatisation de l’industrie a largement contribué aux pertes d’emplois depuis le début de la révolution industrielle. L’IA ne fera qu’étendre cette tendance à davantage de domaines, y compris des domaines traditionnellement considérés comme plus à l’abri de l’automatisation, par exemple le droit, la médecine et l’éducation. On ne sait pas exactement vers quelles nouvelles carrières les chômeurs pourront finalement se diriger, même si plus le travail a à voir avec le fait de s’occuper des autres, plus il est probable que les gens voudront avoir affaire à d’autres humains et non à des IA.

Attachée à la préoccupation de l’emploi, il y a la préoccupation de la façon dont l’humanité passe son temps et de ce qui fait une vie bien dépensée. Que feront des millions de personnes sans emploi ? Quelles bonnes intentions peuvent-ils avoir ? Que peuvent-ils apporter au bien-être de la société ? Comment la société les empêchera-t-elle de devenir désillusionnés, amers et emportés par des mouvements maléfiques tels que la suprématie blanche et le terrorisme ?

7. Inégalités socio-économiques croissantes

Liée au problème du chômage se pose la question de savoir comment les gens survivront si le chômage atteint des niveaux très élevés. Où trouveront-ils de l’argent pour subvenir à leurs besoins et à ceux de leur famille ? Bien que les prix puissent diminuer en raison de la baisse des coûts de production, ceux qui contrôlent l’IA vont aussi probablement rafler une grande partie de l’argent qui aurait autrement servi à payer les salaires des personnes désormais sans emploi, et donc les inégalités économiques vont augmenter. Cela affectera également la disparité économique internationale, et est donc probablement une menace majeure pour les nations moins développées.

Certains ont suggéré un revenu de base universel (UBI) pour résoudre le problème, mais cela nécessitera une restructuration majeure des économies nationales. Diverses autres solutions à ce problème peuvent être possibles, mais elles impliquent toutes des changements potentiellement majeurs de la société humaine et du gouvernement. En fin de compte, il s’agit d’un problème politique, et non technique, de sorte que cette solution, comme celles à de nombreux problèmes décrits ici, doit être abordée au niveau politique.

8. Effets sur l’environnement

Les modèles d’apprentissage automatique nécessitent d’énormes quantités d’énergie pour être formés, tellement d’énergie que les coûts peuvent atteindre des dizaines de millions de dollars ou plus. Inutile de dire que si cette énergie provient de combustibles fossiles, il s’agit d’un impact négatif important sur le changement climatique, sans parler du fait qu’elle est nuisible à d’autres points de la chaîne d’approvisionnement en hydrocarbures.

L’apprentissage machine peut également rendre la distribution et l’utilisation de l’électricité beaucoup plus efficaces, ainsi que travailler à la résolution de problèmes de biodiversité, de recherche environnementale, de gestion des ressources, etc. L’IA est à certains égards très fondamentaux une technologie axée sur l’efficacité, et l’efficacité énergétique est une façon dont ses capacités peuvent être dirigées.

Dans l’ensemble, il semble que l’IA pourrait être un positif net pour l’environnement -mais seulement si elle est réellement dirigée vers cette fin positive, et pas seulement vers la consommation d’énergie pour d’autres utilisations.

9. Automatisation de l’éthique

Une force de l’IA est qu’elle peut automatiser la prise de décision, diminuant ainsi la charge sur les humains et accélérant – potentiellement grandement – certains types de processus de décision. Cependant, cette automatisation de la prise de décision présentera d’énormes problèmes pour la société, car si ces décisions automatisées sont bonnes, la société en bénéficiera, mais si elles sont mauvaises, la société en pâtira.

A mesure que les agents de l’IA se verront attribuer plus de pouvoirs de décision, ils devront avoir des normes éthiques d’une certaine sorte encodées en eux. Il n’y a tout simplement aucun moyen de contourner cela : le processus de prise de décision éthique pourrait être aussi simple que de suivre un programme pour distribuer équitablement un avantage, dans lequel la décision est prise par des humains et exécutée par des algorithmes, mais il pourrait aussi impliquer une analyse éthique beaucoup plus détaillée, même si nous, les humains, préférerions que ce ne soit pas le cas – c’est parce que l’IA fonctionnera tellement plus rapidement que les humains peuvent le faire, que dans certaines circonstances, les humains seront laissés  » hors de la boucle  » du contrôle en raison de la lenteur humaine. Cela se produit déjà avec les cyberattaques, et le commerce à haute fréquence (qui sont tous deux remplis de questions éthiques qui sont généralement ignorées) et cela ne fera qu’empirer à mesure que l’IA étend son rôle dans la société.

Puisque l’IA peut être si puissante, les normes éthiques que nous lui donnons ont intérêt à être bonnes.

10. La déqualification morale & Débilité

Si nous confions nos capacités de décision aux machines, nous deviendrons moins expérimentés pour prendre des décisions. Par exemple, c’est un phénomène bien connu des pilotes de ligne : le pilote automatique peut tout faire pour piloter un avion, du décollage à l’atterrissage, mais les pilotes choisissent intentionnellement de contrôler manuellement l’avion à des moments cruciaux (ex, décollage et l’atterrissage) afin de maintenir leurs compétences de pilotage.

Parce que l’une des utilisations de l’IA sera soit d’assister, soit de remplacer les humains pour prendre certains types de décisions (par exemple, l’orthographe, la conduite, les transactions boursières, etc.), nous devons être conscients que les humains peuvent devenir moins bons dans ces compétences. Dans sa forme la plus extrême, si l’IA commence à prendre des décisions éthiques et politiques à notre place, nous deviendrons moins bons en éthique et en politique. Nous pourrions réduire ou freiner notre développement moral précisément au moment où notre pouvoir est devenu le plus grand et nos décisions les plus importantes.

Cela signifie que l’étude de l’éthique et la formation à l’éthique sont plus importantes que jamais. Nous devrions déterminer les moyens par lesquels l’IA peut réellement améliorer notre apprentissage et notre formation en matière d’éthique. Nous ne devrions jamais nous permettre de devenir déqualifiés et débilités en matière d’éthique, ou lorsque notre technologie nous présente finalement des choix difficiles à faire et des problèmes que nous devons résoudre – des choix et des problèmes que, peut-être, nos ancêtres auraient été capables de résoudre – les futurs humains pourraient ne pas être en mesure de le faire.

Pour en savoir plus sur la déqualification, voir cet article et l’article original de Shannon Vallor sur le sujet.

11. Conscience de l’IA, personnalité et « droits des robots »

Certains penseurs se sont demandés si les IA pourraient éventuellement devenir conscientes d’elles-mêmes, atteindre leur propre volition ou mériter autrement d’être reconnues comme des personnes comme nous. Juridiquement parlant, le statut de personne a été donné aux sociétés et (dans d’autres pays) aux rivières, donc il n’y a certainement pas besoin de conscience avant même que des questions juridiques puissent se poser.

Moralement parlant, nous pouvons anticiper que les technologues tenteront de faire les IA et les robots les plus semblables aux humains possible, et peut-être qu’un jour ils seront de si bonnes imitations que nous nous demanderons s’ils pourraient être conscients et mériter des droits – et nous pourrions ne pas être en mesure de le déterminer de manière concluante. Si les humains du futur concluent que les IA et les robots pourraient être dignes d’un statut moral, alors nous devrions pécher par excès de prudence et leur accorder ce statut.

Au milieu de cette incertitude sur le statut de nos créations, ce que nous saurons, c’est que nous, les humains, avons des caractères moraux et que, pour suivre une citation inexacte d’Aristote, « nous devenons ce que nous faisons de manière répétée » . Nous ne devrions donc pas maltraiter les IA et les robots, sinon nous risquons de nous habituer à avoir des caractères défectueux, quel que soit le statut moral des êtres artificiels avec lesquels nous interagissons. En d’autres termes, quel que soit le statut des IA et des robots, pour le bien de nos propres caractères moraux, nous devrions bien les traiter, ou au moins ne pas les maltraiter.

12. AGI et Superintelligence

Si ou quand l’IA atteint les niveaux humains d’intelligence, faisant tout ce que les humains peuvent faire aussi bien que l’humain moyen, alors ce sera une Intelligence Générale Artificielle – une AGI – et ce sera la seule autre intelligence de ce type à exister sur Terre au niveau humain.

Si ou quand l’AGI dépasse l’intelligence humaine, elle deviendra une superintelligence, une entité potentiellement beaucoup plus intelligente et capable que nous : quelque chose que les humains n’ont jamais évoqué que dans les religions, les mythes et les histoires.

Important ici, la technologie de l’IA s’améliore excessivement vite. Les entreprises et les gouvernements mondiaux sont dans une course pour s’approprier les pouvoirs de l’IA. Tout aussi important, il n’y a aucune raison pour que l’amélioration de l’IA s’arrête à l’AGI. L’IA est évolutive et rapide. Contrairement à un cerveau humain, si nous donnons à l’IA plus de matériel, elle en fera toujours plus, de plus en plus vite.

L’avènement de l’AGI ou de la superintelligence marquera le détrônement de l’humanité comme la chose la plus intelligente sur Terre. Nous n’avons jamais fait face (dans le monde matériel) à quelque chose de plus intelligent que nous auparavant. Chaque fois que l’Homo sapiens a rencontré une autre espèce humaine intelligente dans l’histoire de la vie sur Terre, l’autre espèce a soit fusionné génétiquement avec nous (comme l’a fait l’homme de Neandertal), soit a été éteinte. Alors que nous rencontrons l’AGI et la superintelligence, nous devrions garder cela à l’esprit ; cependant, parce que l’IA est un outil, il peut y avoir des moyens encore de maintenir un équilibre éthique entre l’homme et la machine.

13. Dépendance à l’égard de l’IA

Les humains dépendent de la technologie. Nous l’avons toujours fait, depuis que nous sommes  » humains  » ; notre dépendance technologique est presque ce qui nous définit en tant qu’espèce. Cependant, ce qui n’était que des pierres, des bâtons et des vêtements en fourrure est maintenant devenu beaucoup plus complexe et fragile. Perdre l’électricité ou la connectivité cellulaire peut être un problème grave, psychologiquement ou même médicalement (en cas d’urgence). Et il n’y a pas de dépendance comme la dépendance à l’intelligence.

La dépendance à l’intelligence est une forme de dépendance comme celle d’un enfant envers un adulte. La plupart du temps, les enfants comptent sur les adultes pour penser à leur place, et dans nos vieux jours, alors que certaines personnes connaissent un déclin cognitif, les personnes âgées comptent aussi sur les adultes plus jeunes. Imaginez maintenant que les adultes d’âge moyen qui s’occupent des enfants et des personnes âgées dépendent eux-mêmes de l’IA pour les guider. Il n’y aurait plus d' »adultes » humains, seulement des « adultes IA ». L’humanité serait devenue une race d’enfants pour nos soignants IA.

Ceci, bien sûr, soulève la question de ce qu’une race humaine infantilisée ferait si nos parents IA fonctionnaient mal un jour. Sans cette IA, si nous en sommes dépendants, nous pourrions devenir comme des enfants perdus ne sachant pas comment prendre soin de nous-mêmes ou de notre société technologique. Cette « perte » se produit déjà lorsque les applications de navigation des smartphones fonctionnent mal (ou que la batterie s’épuise tout simplement), par exemple.

Nous sommes déjà bien engagés sur la voie de la dépendance technologique. Comment pouvons-nous nous préparer dès maintenant afin d’éviter les dangers d’une dépendance spécifique à l’intelligence de l’IA ?

14. La dépendance à l’IA

Les fabricants d’applications pour smartphones ont fait de la dépendance une science, et les jeux vidéo et les applications à l’IA peuvent créer une dépendance comme les drogues. L’IA peut exploiter de nombreux désirs et faiblesses humains, notamment la recherche d’un but, le jeu, l’avidité, la libido, la violence, etc.

La dépendance ne fait pas que nous manipuler et nous contrôler ; elle nous empêche également de faire d’autres choses plus importantes – éducatives, économiques et sociales. Elle nous asservit et nous fait perdre notre temps alors que nous pourrions faire quelque chose de valable. Avec une IA qui en apprend toujours plus sur nous et qui s’efforce de nous faire cliquer et défiler, quel espoir avons-nous d’échapper à ses griffes ? Ou, plutôt, des griffes des fabricants d’applications qui créent ces IA pour nous piéger – car ce ne sont pas les IA qui choisissent de traiter les gens de cette façon, ce sont les autres personnes.

Lorsque j’aborde ce sujet avec n’importe quel groupe d’étudiants, je découvre que tous sont  » accros  » à une application ou une autre. Il ne s’agit peut-être pas d’une dépendance clinique, mais c’est ainsi que les étudiants la définissent, et ils savent qu’ils sont exploités et qu’on leur fait du tort. Les fabricants d’applications doivent cesser de le faire : L’IA ne devrait pas être conçue pour exploiter intentionnellement les vulnérabilités de la psychologie humaine.

15. Isolement et solitude

La société traverse une crise de solitude. Par exemple, une étude a récemment révélé que  » 200 000 personnes âgées au Royaume-Uni n’ont pas eu de conversation avec un ami ou un parent depuis plus d’un mois  » . C’est un triste état de fait, car la solitude peut littéralement tuer. C’est un cauchemar pour la santé publique, sans compter qu’elle détruit le tissu même de la société : nos relations humaines. La technologie a été impliquée dans tant de tendances sociales et psychologiques négatives, y compris la solitude, l’isolement, la dépression, le stress et l’anxiété, qu’il est facile d’oublier que les choses pourraient être différentes, et qu’elles étaient en fait très différentes il y a seulement quelques décennies.

On pourrait penser que les médias « sociaux », les smartphones et l’IA pourraient aider, mais en fait, ils sont des causes majeures de la solitude puisque les gens sont face à des écrans plutôt qu’à l’autre. Ce qui aide, ce sont des relations solides en personne, précisément les relations qui sont repoussées par la technologie addictive (souvent alimentée par l’IA).

La solitude peut être aidée en laissant tomber les appareils et en construisant des relations de qualité en personne. En d’autres termes : prendre soin.

Ce n’est peut-être pas un travail facile et certainement au niveau sociétal, il peut être très difficile de résister aux tendances que nous avons déjà suivies jusqu’à présent. Mais nous devons résister, car un monde meilleur, plus humain, est possible. La technologie n’a pas à faire du monde un endroit moins personnel et moins attentionné – elle pourrait faire le contraire, si nous le voulions.

16. Effets sur l’esprit humain

Tous les domaines d’intérêt ci-dessus auront des effets sur la façon dont les humains se perçoivent, se relient les uns aux autres, et vivent leur vie. Mais il y a aussi une question plus existentielle. Si le but et l’identité de l’humanité ont quelque chose à voir avec notre intelligence (comme le croyaient plusieurs philosophes grecs éminents, par exemple), alors en externalisant notre intelligence et en l’améliorant au-delà de l’intelligence humaine, faisons-nous de nous des êtres de seconde classe par rapport à nos propres créations ?

C’est une question plus profonde avec l’intelligence artificielle qui coupe au cœur de notre humanité, dans des domaines traditionnellement réservés à la philosophie, la spiritualité et la religion. Qu’arrivera-t-il à l’esprit humain si ou quand nous serons dépassés par nos propres créations dans tout ce que nous faisons ? La vie humaine perdra-t-elle son sens ? Parviendrons-nous à une nouvelle découverte de notre identité au-delà de notre intelligence ?

Peut-être que l’intelligence n’est pas vraiment aussi importante pour notre identité que nous le pensons, et peut-être que confier l’intelligence aux machines nous aidera à en prendre conscience. Si nous trouvons plutôt notre humanité non pas dans nos cerveaux, mais dans nos cœurs, peut-être en viendrons-nous à reconnaître que la sollicitude, la compassion, la bonté et l’amour sont finalement ce qui nous rend humains et ce qui fait que la vie vaut la peine d’être vécue. Peut-être qu’en supprimant une partie de l’ennui de la vie, l’IA peut nous aider à réaliser cette vision d’un monde plus humain.

Conclusion

Il y a plus de questions dans l’éthique de l’IA ; ici, j’ai juste tenté d’en souligner quelques unes majeures. Beaucoup plus de temps pourrait être consacré à des sujets tels que la surveillance alimentée par l’IA, le rôle de l’IA dans la promotion de la désinformation et de la désinformation, le rôle de l’IA dans la politique et les relations internationales, la gouvernance de l’IA, et ainsi de suite.

Les nouvelles technologies sont toujours créées dans le but de faire quelque chose de bien – et l’IA nous offre de nouvelles capacités étonnantes pour aider les gens et rendre le monde meilleur. Mais pour rendre le monde meilleur, nous devons choisir de le faire, en accord avec l’éthique.

Grâce à l’effort concerté de nombreux individus et organisations, nous pouvons espérer que la technologie de l’IA nous aidera à rendre le monde meilleur.

Cet article s’appuie sur les ouvrages précédents suivants : « IA : défis éthiques et un avenir qui se rapproche rapidement » (oct. 2017) , « Quelques réflexions éthiques et théologiques sur l’intelligence artificielle », (nov. 2017) , Intelligence artificielle et éthique : Dix domaines d’intérêt (nov. 2017) ,  » AI et éthique  » (mars 2018) ,  » Réflexions éthiques sur l’intelligence artificielle « (août 2018) , et plusieurs présentations de  » Intelligence artificielle et éthique : Seize questions » (2019-20) .

Brian Patrick Green, « Intelligence artificielle et éthique : Dix domaines d’intérêt « , site du Markkula Center for Applied Ethics, 21 novembre 2017, disponible à l’adresse : https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics/

Paraphrasé à l’origine dans Stan Lee et Steve Ditko,  » Spider-Man « , Amazing Fantasy vol. 1, #15 (août 1962), phrase exacte d’Oncle Ben dans J. Michael Straczynski, Amazing Spider-Man vol. 2, #38 (février 2002). Pour plus d’informations : https://en.wikipedia.org/wiki/With_great_power_comes_great_responsibility

Brian Patrick Green, « Intelligence artificielle et éthique : Seize numéros », divers lieux et dates : Los Angeles, Mexico, San Francisco, Université de Santa Clara (2019-2020).

Bob Yirka, « Computer generated math proof is too large for humans to check », Phys.org, 19 février 2014, disponible sur : https://phys.org/news/2014-02-math-proof-large-humans.html

Le partenariat sur l’IA au service des personnes et de la société, réunion inaugurale, Berlin, Allemagne, 23-24 octobre 2017.

Leila Scola, « L’IA et l’éthique de l’efficacité énergétique », site du Markkula Center for Applied Ethics, 26 mai 2020, disponible à l’adresse : https://www.scu.edu/environmental-ethics/resources/ai-and-the-ethics-of-energy-efficiency/

Brian Patrick Green, « Artificial Intelligence, Decision-Making, and Moral Deskilling, » Markkula Center for Applied Ethics website, 15 mars 2019, disponible à l’adresse : https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/artificial-intelligence-decision-making-and-moral-deskilling/

Shannon Vallor, « La déqualification morale et la surqualification dans un nouvel âge des machines : Réflexions sur l’avenir ambigu du caractère ». Philosophie de la technologie 28 (2015):107-124, disponible sur : https://link.springer.com/article/10.1007/s13347-014-0156-9

Brad Sylvester, « Fact Check : Aristote a-t-il dit : ‘Nous sommes ce que nous faisons de façon répétée’ ? » Site Web Check Your Fact, 26 juin 2019, disponible à l’adresse suivante : https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/

Lee Mannion, « Britain appoints minister for loneliness amid growing isolation », Reuters, 17 janvier 2018, disponible à l’adresse : https://www.reuters.com/article/us-britain-politics-health/britain-appoints-minister-for-loneliness-amid-growing-isolation-idUSKBN1F61I6

Julianne Holt-Lunstad, Timothy B. Smith, Mark Baker,Tyler Harris, et David Stephenson, « Loneliness and Social Isolation as Risk Factors for Mortality : A Meta-Analytic Review « , Perspectives on Psychological Science 10(2) (2015) : 227-237, disponible à l’adresse : https://journals.sagepub.com/doi/full/10.1177/1745691614568352

Personnel du Centre Markkula pour l’éthique appliquée, « IA : défis éthiques et un avenir qui se rapproche rapidement : Une table ronde sur l’intelligence artificielle « , avec Maya Ackerman, Sanjiv Das, Brian Green et Irina Raicu, Université de Santa Clara, Californie, 24 octobre 2017, posté sur le blog All About Ethics, 31 octobre 2017, vidéo disponible à l’adresse : https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/

Brian Patrick Green, « Some Ethical and Theological Reflections on Artificial Intelligence », réunion de la Pacific Coast Theological Society (PCTS), Graduate Theological Union, Berkeley, 3-4 novembre 2017, disponible sur : http://www.pcts.org/meetings/2017/PCTS2017Nov-Green-ReflectionsAI.pdf

Brian Patrick Green, « AI et éthique », conférence invitée dans le cadre du PACS003 : What is an Ethical Life ? », Université du Pacifique, Stockton, 21 mars 2018.

Brian Patrick Green, « Réflexions éthiques sur l’intelligence artificielle », Scientia et Fides 6(2), 24 août 2018. Disponible à : http://apcz.umk.pl/czasopisma/index.php/SetF/article/view/SetF.2018.015/15729

Merci à de nombreuses personnes pour tous les commentaires utiles qui m’ont aidé à développer cette liste, y compris Maya Ackermann, Kirk Bresniker, Sanjiv Das, Kirk Hanson, Brian Klunk, Thane Kreiner, Angelus McNally, Irina Raicu, Leila Scola, Lili Tavlan, Shannon Vallor, les employés de plusieurs entreprises technologiques, les participants à la réunion de l’automne 2017 de PCTS, les participants aux réunions nécessaires.education meetings, plusieurs réviseurs anonymes, les professeurs et les étudiants de PACS003 à l’Université du Pacifique, les étudiants de mon cours ENGR 344 : AI et éthique, ainsi que de nombreux autres.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.