Brian Patrick Green ist Direktor der Technologieethik am Markkula Center for Applied Ethics. Dieser Artikel ist eine Aktualisierung eines früheren Artikels, der hier zu finden ist. Die Ansichten sind seine eigenen.

Künstliche Intelligenz und Technologien des maschinellen Lernens verändern die Gesellschaft in rasantem Tempo und werden dies auch in den kommenden Jahrzehnten tun. Dieser gesellschaftliche Wandel wird tiefgreifende ethische Auswirkungen haben, da diese leistungsstarken neuen Technologien das Leben der Menschen sowohl verbessern als auch stören werden. Die künstliche Intelligenz als Externalisierung der menschlichen Intelligenz bietet uns in verstärkter Form alles, was die Menschheit bereits ist, sowohl das Gute als auch das Böse. Es steht viel auf dem Spiel. An diesem Scheideweg der Geschichte sollten wir sehr sorgfältig darüber nachdenken, wie wir diesen Übergang bewerkstelligen, sonst riskieren wir, eher die düstere Seite unserer Natur zu stärken als die helle.

Warum wird die KI-Ethik gerade jetzt zu einem Problem? Das maschinelle Lernen (ML) durch neuronale Netze macht aus drei Gründen rasche Fortschritte: 1) Enorme Zunahme der Datensätze; 2) Enorme Zunahme der Rechenleistung; 3) Enorme Verbesserung der ML-Algorithmen und mehr menschliches Talent, um sie zu schreiben. Alle drei Trends führen zu einer Zentralisierung der Macht, und „mit großer Macht kommt große Verantwortung“.

Als Institution hat das Markkula Center for Applied Ethics seit mehreren Jahren intensiv über die Ethik der KI nachgedacht. Dieser Artikel begann mit Vorträgen auf akademischen Konferenzen und hat sich seitdem zu einem akademischen Papier (Links unten) und zuletzt zu einer Präsentation von „Artificial Intelligence and Ethics: Sixteen Issues“, die ich in den USA und international gehalten habe. In diesem Sinne biete ich diese aktuelle Liste an:

1. Technische Sicherheit

Die erste Frage bei jeder Technologie ist, ob sie wie vorgesehen funktioniert. Werden KI-Systeme so funktionieren, wie sie versprochen werden, oder werden sie versagen? Falls und wenn sie versagen, was werden die Folgen dieses Versagens sein? Und wenn wir von ihnen abhängig sind, werden wir in der Lage sein, ohne sie zu überleben?

So sind beispielsweise mehrere Menschen bei einem halbautonomen Autounfall ums Leben gekommen, weil die Fahrzeuge in Situationen geraten sind, in denen sie keine sicheren Entscheidungen getroffen haben. Auch wenn sehr detaillierte Verträge, die die Haftung einschränken, die Verantwortung eines Herstellers rechtlich gesehen verringern könnten, liegt die Verantwortung aus moralischer Sicht nicht nur weiterhin bei dem Unternehmen, sondern der Vertrag selbst kann als unethischer Versuch angesehen werden, sich der legitimen Verantwortung zu entziehen.

Die Frage der technischen Sicherheit und des Versagens ist von der Frage zu trennen, wie eine ordnungsgemäß funktionierende Technologie zum Guten oder zum Bösen eingesetzt werden kann (Fragen 3 und 4, unten). Diese Frage ist lediglich eine Frage der Funktion, aber sie ist die Grundlage, auf der alle anderen Analysen aufbauen müssen.

2. Transparenz und Datenschutz

Wenn wir festgestellt haben, dass die Technologie angemessen funktioniert, können wir dann tatsächlich verstehen, wie sie funktioniert, und die Daten über ihre Funktionsweise richtig erfassen? Eine ethische Analyse hängt immer davon ab, dass man zuerst die Fakten kennt – erst dann kann man mit der Bewertung beginnen.

Es stellt sich heraus, dass es bei einigen Techniken des maschinellen Lernens, z. B. beim Deep Learning in neuronalen Netzen, schwierig oder unmöglich sein kann, wirklich zu verstehen, warum die Maschine die Entscheidungen trifft, die sie trifft. In anderen Fällen kann es sein, dass die Maschine zwar etwas erklären kann, die Erklärung aber zu komplex ist, um von Menschen verstanden zu werden.

Im Jahr 2014 bewies ein Computer beispielsweise ein mathematisches Theorem mit einem Beweis, der zumindest zu diesem Zeitpunkt länger war als die gesamte Wikipedia-Enzyklopädie. Erklärungen dieser Art könnten wahre Erklärungen sein, aber die Menschen werden es nie mit Sicherheit wissen.

Hinzu kommt, dass generell gilt: Je mächtiger jemand oder etwas ist, desto transparenter sollte es sein, und je schwächer jemand ist, desto mehr Recht auf Privatsphäre sollte er oder sie haben. Daher ist die Vorstellung, dass mächtige KI von Natur aus undurchsichtig sein könnte, beunruhigend.

3. Nützlicher Nutzen & Fähigkeit zum Guten

Der Hauptzweck von KI ist, wie bei jeder anderen Technologie auch, den Menschen zu helfen, ein längeres, blühenderes und erfüllteres Leben zu führen. Das ist gut, und insofern KI den Menschen auf diese Weise hilft, können wir froh sein und den Nutzen, den sie uns bringt, zu schätzen wissen.

Zusätzliche Intelligenz wird wahrscheinlich Verbesserungen in fast jedem Bereich menschlicher Bestrebungen bringen, zum Beispiel in der Archäologie, der biomedizinischen Forschung, der Kommunikation, der Datenanalyse, der Bildung, der Energieeffizienz, dem Umweltschutz, der Landwirtschaft, dem Finanzwesen, dem Rechtswesen, der medizinischen Diagnostik, dem Ressourcenmanagement, der Weltraumforschung, dem Transportwesen, der Abfallwirtschaft und so weiter.

Ein konkretes Beispiel für den Nutzen der KI ist die Tatsache, dass einige landwirtschaftliche Geräte heute über Computersysteme verfügen, die Unkraut visuell erkennen und es mit winzigen, gezielten Dosen von Herbiziden besprühen können. Dies schützt nicht nur die Umwelt, indem es den Einsatz von Chemikalien auf Nutzpflanzen reduziert, sondern auch die menschliche Gesundheit, indem es die Exposition gegenüber diesen Chemikalien verringert.

4. Böswillige Nutzung & Fähigkeit zum Bösen

Eine perfekt funktionierende Technologie, wie z.B. eine Atomwaffe, kann, wenn sie für den beabsichtigten Zweck eingesetzt wird, immenses Übel verursachen. Künstliche Intelligenz wird ebenso wie menschliche Intelligenz zweifellos böswillig eingesetzt werden.

So ist beispielsweise die KI-gestützte Überwachung bereits weit verbreitet, sowohl in angemessenen (z. B. Sicherheitskameras an Flughäfen) als auch in vielleicht unangemessenen (z. B. Produkte mit ständig eingeschalteten Mikrofonen in unseren Wohnungen) und eindeutig unangemessenen (z. B. Produkte, die autoritären Regimen helfen, ihre Bürger zu identifizieren und zu unterdrücken) Kontexten. Andere ruchlose Beispiele sind KI-gestütztes Computer-Hacking und tödliche autonome Waffensysteme (LAWS), auch bekannt als „Killerroboter“. Zu den weiteren Befürchtungen, die mehr oder weniger plausibel sind, gehören Szenarien wie in den Filmen „2001: Odyssee im Weltraum“, „Wargames“ und „Terminator“.

Auch wenn Filme und Waffentechnologien als extreme Beispiele dafür erscheinen mögen, wie KI das Böse stärken könnte, sollten wir nicht vergessen, dass Wettbewerb und Krieg immer die Hauptantriebskräfte des technologischen Fortschritts sind, und dass Militärs und Unternehmen bereits jetzt an diesen Technologien arbeiten. Die Geschichte zeigt auch, dass große Übel nicht immer vollständig beabsichtigt sind (z. B. das Hineinstolpern in den Ersten Weltkrieg und verschiedene nukleare Beinahe-Ereignisse im Kalten Krieg), so dass der Besitz zerstörerischer Macht, auch wenn man nicht beabsichtigt, sie einzusetzen, immer noch das Risiko einer Katastrophe birgt. Aus diesem Grund wäre das Verbot, die Ächtung und der Verzicht auf bestimmte Arten von Technologie die vernünftigste Lösung.

5. Verzerrungen in Daten, Trainingssätzen usw.

Eines der interessanten Dinge an neuronalen Netzen, den derzeitigen Arbeitspferden der künstlichen Intelligenz, ist, dass sie effektiv ein Computerprogramm mit den Daten, die ihm gegeben werden, verschmelzen. Dies hat viele Vorteile, birgt aber auch die Gefahr, dass das gesamte System auf unerwartete und potenziell schädliche Weise beeinflusst wird.

Algorithmische Verzerrungen wurden bereits entdeckt, beispielsweise in Bereichen, die von der Bestrafung von Straftätern bis zur Beschriftung von Fotos reichen. Diese Verzerrungen sind nicht nur peinlich für die Unternehmen, die diese fehlerhaften Produkte herstellen; sie haben auch konkrete negative und schädliche Auswirkungen auf die Menschen, die Opfer dieser Verzerrungen sind, und schwächen das Vertrauen in Unternehmen, Regierungen und andere Institutionen, die diese verzerrten Produkte verwenden könnten. Algorithmische Voreingenommenheit ist derzeit eines der größten Probleme im Bereich der künstlichen Intelligenz und wird es auch in Zukunft bleiben, wenn wir uns nicht bemühen, unsere technologischen Produkte besser zu machen als wir sind. Wie eine Person auf dem ersten Treffen der Partnerschaft für KI sagte: „Wir werden alle unsere menschlichen Fehler in künstlicher Form reproduzieren, wenn wir uns nicht sofort darum bemühen, dies zu verhindern“.

6. Arbeitslosigkeit / Zwecklosigkeit & Bedeutung

Viele Menschen haben bereits erkannt, dass KI eine Bedrohung für bestimmte Kategorien von Arbeitsplätzen sein wird. In der Tat hat die Automatisierung der Industrie seit Beginn der industriellen Revolution wesentlich zum Verlust von Arbeitsplätzen beigetragen. Die KI wird diesen Trend auf weitere Bereiche ausdehnen, auch auf solche, die traditionell als sicherer vor der Automatisierung galten, z. B. Recht, Medizin und Bildung. Es ist nicht klar, welche neuen Berufe Arbeitslose letztendlich ergreifen können, doch je mehr Arbeit mit der Betreuung anderer Menschen zu tun hat, desto wahrscheinlicher ist es, dass die Menschen mit anderen Menschen und nicht mit KI zu tun haben wollen.

Mit der Sorge um die Beschäftigung ist die Sorge verbunden, wie die Menschheit ihre Zeit verbringt und was ein gut verbrachtes Leben ausmacht. Was werden Millionen von arbeitslosen Menschen tun? Welche guten Zwecke können sie verfolgen? Was können sie zum Wohl der Gesellschaft beitragen? Wie kann die Gesellschaft verhindern, dass sie desillusioniert und verbittert werden und sich bösen Bewegungen wie der weißen Vorherrschaft und dem Terrorismus anschließen?

7. Wachsende sozioökonomische Ungleichheit

Im Zusammenhang mit dem Problem der Arbeitslosigkeit stellt sich die Frage, wie die Menschen überleben werden, wenn die Arbeitslosigkeit auf ein sehr hohes Niveau steigt. Woher werden sie das Geld nehmen, um sich und ihre Familien zu versorgen? Zwar könnten die Preise aufgrund der gesunkenen Produktionskosten sinken, doch werden diejenigen, die die künstliche Intelligenz kontrollieren, wahrscheinlich auch einen Großteil des Geldes einstreichen, das andernfalls in die Löhne der jetzt Arbeitslosen geflossen wäre, so dass die wirtschaftliche Ungleichheit zunehmen wird. Dies wird sich auch auf die internationale wirtschaftliche Ungleichheit auswirken und ist daher wahrscheinlich eine große Bedrohung für die weniger entwickelten Länder.

Einige haben ein universelles Grundeinkommen (UBI) vorgeschlagen, um das Problem zu lösen, aber dies wird eine umfassende Umstrukturierung der nationalen Volkswirtschaften erfordern. Verschiedene andere Lösungen für dieses Problem sind denkbar, aber sie alle erfordern potenziell große Veränderungen in der menschlichen Gesellschaft und der Regierung. Letztlich handelt es sich um ein politisches Problem, nicht um ein technisches, so dass diese Lösung, wie die für viele der hier beschriebenen Probleme, auf politischer Ebene angegangen werden muss.

8. Auswirkungen auf die Umwelt

Maschinelle Lernmodelle benötigen enorme Mengen an Energie, um sie zu trainieren, so viel Energie, dass die Kosten in die zweistelligen Millionenbeträge oder mehr gehen können. Wenn diese Energie aus fossilen Brennstoffen stammt, ist dies natürlich ein großer negativer Einfluss auf den Klimawandel, ganz zu schweigen von der Schädlichkeit für andere Stellen in der Kohlenwasserstoff-Lieferkette.

Maschinelles Lernen kann auch die Stromverteilung und -nutzung viel effizienter machen und an der Lösung von Problemen in den Bereichen biologische Vielfalt, Umweltforschung, Ressourcenmanagement usw. arbeiten. KI ist in gewisser Weise eine Technologie, die auf Effizienz ausgerichtet ist, und Energieeffizienz ist eine Möglichkeit, ihre Fähigkeiten zu nutzen.

Alles in allem sieht es so aus, als ob KI einen positiven Effekt auf die Umwelt haben könnte – aber nur, wenn sie tatsächlich auf dieses positive Ziel ausgerichtet ist und nicht nur auf den Verbrauch von Energie für andere Zwecke.

9. Automatisierung der Ethik

Eine Stärke der KI ist, dass sie die Entscheidungsfindung automatisieren kann, wodurch die Belastung für den Menschen verringert und bestimmte Arten von Entscheidungsprozessen beschleunigt werden – möglicherweise sogar stark beschleunigt werden. Diese Automatisierung der Entscheidungsfindung wird jedoch große Probleme für die Gesellschaft mit sich bringen, denn wenn diese automatisierten Entscheidungen gut sind, wird die Gesellschaft davon profitieren, aber wenn sie schlecht sind, wird sie Schaden nehmen.

Wenn KI-Agenten immer mehr Befugnisse erhalten, Entscheidungen zu treffen, müssen sie in irgendeiner Form mit ethischen Standards ausgestattet werden. Es führt einfach kein Weg daran vorbei: Der ethische Entscheidungsprozess kann so einfach sein wie die Befolgung eines Programms zur gerechten Verteilung eines Nutzens, wobei die Entscheidung von Menschen getroffen und von Algorithmen ausgeführt wird, aber er kann auch eine viel detailliertere ethische Analyse beinhalten, selbst wenn wir Menschen es vorziehen würden, dass dies nicht der Fall ist – dies liegt daran, dass die KI so viel schneller agieren wird als der Mensch, dass der Mensch unter bestimmten Umständen aufgrund der menschlichen Langsamkeit „aus dem Rennen“ ist. Dies ist bereits bei Cyberangriffen und beim Hochfrequenzhandel der Fall (beides wirft viele ethische Fragen auf, die in der Regel ignoriert werden), und es wird nur noch schlimmer werden, wenn die KI ihre Rolle in der Gesellschaft ausweitet.

Da die KI so mächtig sein kann, sollten die ethischen Standards, die wir ihr geben, besser gut sein.

10. Moralische Entmündigung & Debilität

Wenn wir unsere Entscheidungskapazitäten an Maschinen abgeben, werden wir weniger erfahren im Treffen von Entscheidungen. Das ist zum Beispiel ein bekanntes Phänomen bei Piloten: Der Autopilot kann alles, was mit dem Fliegen eines Flugzeugs zu tun hat, vom Start bis zur Landung, aber die Piloten entscheiden sich absichtlich dafür, das Flugzeug in entscheidenden Momenten manuell zu steuern (z.B.,

Da eine der Anwendungen von KI darin besteht, den Menschen bei bestimmten Entscheidungen (z. B. Rechtschreibung, Autofahren, Aktienhandel usw.) zu unterstützen oder zu ersetzen, sollten wir uns darüber im Klaren sein, dass der Mensch in diesen Bereichen schlechter werden kann. In der extremsten Form, wenn KI beginnt, ethische und politische Entscheidungen für uns zu treffen, werden wir in Ethik und Politik schlechter werden. Wir könnten unsere moralische Entwicklung gerade dann einschränken oder hemmen, wenn unsere Macht am größten und unsere Entscheidungen am wichtigsten geworden sind.

Das bedeutet, dass das Studium der Ethik und die Ausbildung in Ethik heute wichtiger sind denn je. Wir sollten herausfinden, wie KI unser ethisches Lernen und Training tatsächlich verbessern kann. Wir sollten niemals zulassen, dass wir in der Ethik überfordert und geschwächt werden, denn wenn unsere Technologie uns schließlich vor schwierige Entscheidungen und Probleme stellt, die wir lösen müssen – Entscheidungen und Probleme, die vielleicht schon unsere Vorfahren hätten lösen können -, könnten künftige Menschen dazu nicht mehr in der Lage sein.

Weitere Informationen zum Thema Dequalifizierung finden Sie in diesem Artikel und in Shannon Vallors ursprünglichem Artikel zu diesem Thema.

11. KI-Bewusstsein, Persönlichkeit und „Roboterrechte“

Einige Denker haben sich gefragt, ob KI irgendwann ein Selbstbewusstsein erlangen, einen eigenen Willen entwickeln oder anderweitig als Personen wie wir anerkannt werden könnten. Rechtlich gesehen haben Unternehmen und (in anderen Ländern) Flüsse bereits die Eigenschaft einer Person erlangt, so dass ein Bewusstsein sicherlich nicht erforderlich ist, bevor sich rechtliche Fragen stellen.

Moralisch gesehen können wir davon ausgehen, dass Technologen versuchen werden, möglichst menschenähnliche KIs und Roboter zu schaffen, und vielleicht werden sie eines Tages so gut imitiert sein, dass wir uns fragen werden, ob sie ein Bewusstsein haben und Rechte verdienen – und wir werden vielleicht nicht in der Lage sein, dies abschließend zu bestimmen. Wenn künftige Menschen zu dem Schluss kommen, dass KI und Roboter einen moralischen Status verdienen könnten, sollten wir vorsichtig sein und ihnen diesen zugestehen.

Inmitten dieser Ungewissheit über den Status unserer Schöpfungen werden wir wissen, dass wir Menschen moralische Charaktere haben und dass wir, um einem ungenauen Zitat von Aristoteles zu folgen, „zu dem werden, was wir wiederholt tun“. Wir sollten also KI und Roboter nicht schlecht behandeln, denn sonst gewöhnen wir uns an einen fehlerhaften Charakter, unabhängig vom moralischen Status der künstlichen Wesen, mit denen wir interagieren. Mit anderen Worten: Unabhängig vom Status von KIs und Robotern sollten wir sie um unserer eigenen moralischen Charaktere willen gut behandeln oder sie zumindest nicht missbrauchen.

12. AGI und Superintelligenz

Wenn eine KI das menschliche Intelligenzniveau erreicht und alles tut, was Menschen tun können, so gut wie der Durchschnittsmensch, dann wird sie eine Künstliche Allgemeine Intelligenz sein – eine AGI – und sie wird die einzige andere derartige Intelligenz sein, die auf der Erde auf menschlichem Niveau existiert.

Wenn die AGI die menschliche Intelligenz übertrifft, wird sie zu einer Superintelligenz, einer Entität, die potenziell viel klüger und fähiger ist als wir: etwas, von dem die Menschen bisher nur in Religionen, Mythen und Geschichten gesprochen haben.

Wichtig ist in diesem Zusammenhang, dass sich die KI-Technologie außerordentlich schnell verbessert. Globale Konzerne und Regierungen befinden sich in einem Wettlauf, um die Kräfte der KI für sich zu beanspruchen. Ebenso wichtig ist, dass es keinen Grund gibt, warum die Verbesserung der KI bei AGI aufhören sollte. KI ist skalierbar und schnell. Anders als ein menschliches Gehirn wird die KI, wenn wir ihr mehr Hardware zur Verfügung stellen, immer mehr und immer schneller leisten.

Das Aufkommen von AGI oder Superintelligenz wird die Entthronung der Menschheit als intelligentestes Wesen auf der Erde bedeuten. Wir haben es (in der materiellen Welt) noch nie mit etwas zu tun gehabt, das intelligenter war als wir. Jedes Mal, wenn der Homo sapiens in der Geschichte des Lebens auf der Erde auf eine andere intelligente menschliche Spezies traf, verschmolz diese entweder genetisch mit uns (wie die Neandertaler) oder wurde ausgerottet. Bei der Begegnung mit AGI und Superintelligenz sollten wir dies im Hinterkopf behalten; da KI jedoch ein Werkzeug ist, gibt es vielleicht noch Möglichkeiten, ein ethisches Gleichgewicht zwischen Mensch und Maschine zu wahren.

13. Abhängigkeit von der KI

Der Mensch ist von der Technologie abhängig. Das waren wir schon immer, seit wir „menschlich“ sind; unsere technologische Abhängigkeit ist fast das, was uns als Spezies ausmacht. Was früher nur aus Steinen, Stöcken und Pelzkleidung bestand, ist heute jedoch viel komplexer und anfälliger geworden. Ein Strom- oder Mobilfunkausfall kann ein ernsthaftes Problem darstellen, sowohl psychologisch als auch medizinisch (wenn es sich um einen Notfall handelt). Und es gibt keine Abhängigkeit wie die Intelligenzabhängigkeit.

Intelligenzabhängigkeit ist eine Form der Abhängigkeit wie die eines Kindes von einem Erwachsenen. Die meiste Zeit sind Kinder darauf angewiesen, dass Erwachsene für sie denken, und im Alter, wenn die kognitiven Fähigkeiten mancher Menschen nachlassen, sind ältere Menschen auch auf jüngere Erwachsene angewiesen. Stellen Sie sich nun vor, dass Erwachsene mittleren Alters, die sich um Kinder und ältere Menschen kümmern, selbst auf KI angewiesen sind, um sie zu führen. Dann gäbe es keine menschlichen „Erwachsenen“ mehr, sondern nur noch „KI-Erwachsene“. Die Menschheit wäre zu einer Rasse von Kindern für unsere KI-Betreuer geworden.

Das wirft natürlich die Frage auf, was eine infantilisierte menschliche Rasse tun würde, wenn unsere KI-Eltern jemals eine Fehlfunktion hätten. Ohne diese KI, wenn wir von ihr abhängig sind, könnten wir wie verlorene Kinder werden, die nicht wissen, wie sie sich um sich selbst oder unsere technologische Gesellschaft kümmern sollen. Diese „Verlorenheit“ tritt bereits auf, wenn zum Beispiel Navigations-Apps für Smartphones nicht funktionieren (oder der Akku einfach leer ist).

Wir sind bereits auf dem besten Weg in die technologische Abhängigkeit. Wie können wir uns jetzt vorbereiten, damit wir die Gefahren der Abhängigkeit von KI vermeiden können?

14. KI-gestützte Sucht

Die Hersteller von Smartphone-Apps haben aus der Sucht eine Wissenschaft gemacht, und KI-gestützte Videospiele und Apps können wie Drogen süchtig machen. KI kann zahlreiche menschliche Wünsche und Schwächen ausnutzen, darunter Zielstrebigkeit, Glücksspiel, Gier, Libido, Gewalt usw.

Sucht manipuliert und kontrolliert uns nicht nur, sondern hindert uns auch daran, andere, wichtigere Dinge zu tun – in Bildung, Wirtschaft und Gesellschaft. Sie versklavt uns und vergeudet unsere Zeit, wenn wir etwas Sinnvolles tun könnten. Wenn die künstliche Intelligenz ständig mehr über uns erfährt und immer mehr daran arbeitet, dass wir weiter klicken und scrollen, welche Hoffnung haben wir dann noch, ihren Fängen zu entkommen? Oder besser gesagt, den Fängen der App-Hersteller, die diese KI entwickeln, um uns in die Falle zu locken – denn es sind nicht die KI, die sich dafür entscheiden, Menschen so zu behandeln, sondern andere Menschen.

Wenn ich mit einer beliebigen Gruppe von Schülern über dieses Thema spreche, stelle ich fest, dass alle von ihnen nach der einen oder anderen App „süchtig“ sind. Es handelt sich vielleicht nicht um eine klinische Sucht, aber so definieren es die Schüler, und sie wissen, dass sie ausgenutzt und geschädigt werden. Das ist etwas, was die App-Hersteller nicht mehr tun sollten: KI sollte nicht so konzipiert sein, dass sie absichtlich Schwachstellen in der menschlichen Psychologie ausnutzt.

15. Isolation und Einsamkeit

Die Gesellschaft befindet sich in einer Krise der Einsamkeit. So wurde kürzlich in einer Studie festgestellt, dass „200.000 ältere Menschen im Vereinigten Königreich seit mehr als einem Monat kein Gespräch mehr mit einem Freund oder Verwandten geführt haben“. Das ist ein trauriger Zustand, denn Einsamkeit kann buchstäblich tödlich sein. Sie ist ein Alptraum für die öffentliche Gesundheit, ganz zu schweigen von der Zerstörung des Grundgefüges der Gesellschaft: unserer menschlichen Beziehungen. Die Technologie wird für so viele negative soziale und psychologische Entwicklungen verantwortlich gemacht, darunter Einsamkeit, Isolation, Depression, Stress und Angst, dass man leicht vergisst, dass die Dinge anders sein könnten und vor einigen Jahrzehnten noch ganz anders waren.

Man könnte meinen, dass „soziale“ Medien, Smartphones und künstliche Intelligenz helfen könnten, aber in Wirklichkeit sind sie die Hauptursache für Einsamkeit, da die Menschen sich mit Bildschirmen statt mit anderen Menschen beschäftigen. Was hilft, sind starke persönliche Beziehungen, und zwar genau die Beziehungen, die durch süchtig machende (oft KI-gestützte) Technologie verdrängt werden.

Einsamkeit kann durch den Verzicht auf Geräte und den Aufbau hochwertiger persönlicher Beziehungen bekämpft werden. Mit anderen Worten: Fürsorge.

Das mag keine leichte Aufgabe sein, und auf gesellschaftlicher Ebene mag es sehr schwierig sein, den Trends zu widerstehen, denen wir bisher gefolgt sind. Aber wir sollten widerstehen, denn eine bessere, menschlichere Welt ist möglich. Die Technologie muss die Welt nicht zu einem weniger persönlichen und fürsorglichen Ort machen – sie könnte das Gegenteil bewirken, wenn wir es wollen.

16. Auswirkungen auf den menschlichen Geist

Alle oben genannten Bereiche werden Auswirkungen darauf haben, wie die Menschen sich selbst wahrnehmen, wie sie miteinander umgehen und wie sie ihr Leben leben. Aber es gibt auch eine existenziellere Frage. Wenn der Zweck und die Identität der Menschheit etwas mit unserer Intelligenz zu tun hat (wie z.B. einige prominente griechische Philosophen glaubten), machen wir uns dann, indem wir unsere Intelligenz externalisieren und über die menschliche Intelligenz hinaus verbessern, zu Wesen zweiter Klasse gegenüber unseren eigenen Schöpfungen?

Dies ist eine tiefere Frage im Zusammenhang mit künstlicher Intelligenz, die zum Kern unseres Menschseins vordringt, in Bereiche, die traditionell der Philosophie, Spiritualität und Religion vorbehalten sind. Was wird mit dem menschlichen Geist geschehen, wenn wir von unseren eigenen Schöpfungen in allem, was wir tun, übertroffen werden? Wird das menschliche Leben an Bedeutung verlieren? Werden wir unsere Identität jenseits unserer Intelligenz neu entdecken?

Vielleicht ist Intelligenz für unsere Identität gar nicht so wichtig, wie wir glauben, und vielleicht hilft uns die Übergabe der Intelligenz an Maschinen, das zu erkennen. Wenn wir stattdessen unsere Menschlichkeit nicht in unseren Gehirnen, sondern in unseren Herzen finden, werden wir vielleicht erkennen, dass Fürsorge, Mitgefühl, Freundlichkeit und Liebe letztlich das sind, was uns menschlich macht und was das Leben lebenswert macht. Vielleicht kann uns die künstliche Intelligenz dabei helfen, diese Vision einer menschlicheren Welt zu verwirklichen, indem sie uns einen Teil der Langeweile des Lebens abnimmt.

Abschluss

Es gibt noch mehr Fragen zur Ethik der künstlichen Intelligenz; ich habe hier nur versucht, einige wichtige aufzuzeigen. Man könnte noch viel mehr Zeit auf Themen wie die KI-gestützte Überwachung, die Rolle der KI bei der Förderung von Fehlinformationen und Desinformation, die Rolle der KI in der Politik und in den internationalen Beziehungen, die Steuerung der KI usw. verwenden.

Neue Technologien werden immer im Interesse einer guten Sache entwickelt – und die KI bietet uns erstaunliche neue Möglichkeiten, den Menschen zu helfen und die Welt zu einem besseren Ort zu machen. Aber um die Welt zu verbessern, müssen wir uns dafür entscheiden, dies im Einklang mit der Ethik zu tun.

Durch die gemeinsamen Anstrengungen vieler Einzelpersonen und Organisationen können wir hoffen, dass die KI-Technologie uns helfen wird, eine bessere Welt zu schaffen.

Dieser Artikel baut auf den folgenden früheren Arbeiten auf: „AI: Ethical Challenges and a Fast Approaching Future“ (Oct. 2017) , „Some Ethical and Theological Reflections on Artificial Intelligence,“ (Nov. 2017) , Artificial Intelligence and Ethics: Ten areas of interest (Nov. 2017) , „AI and Ethics“ (Mar. 2018) , „Ethical Reflections on Artificial Intelligence“(Aug. 2018) , und mehrere Präsentationen von „Artificial Intelligence and Ethics: Sixteen Issues“ (2019-20) .

Brian Patrick Green, „Artificial Intelligence and Ethics: Ten areas of interest,“ Markkula Center for Applied Ethics website, Nov 21, 2017, verfügbar unter: https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics/

Ursprünglich umschrieben in Stan Lee und Steve Ditko, „Spider-Man“, Amazing Fantasy Bd. 1, #15 (August 1962), genaue Formulierung von Uncle Ben in J. Michael Straczynski, Amazing Spider-Man Bd. 2, #38 (Februar 2002). Für weitere Informationen: https://en.wikipedia.org/wiki/With_great_power_comes_great_responsibility

Brian Patrick Green, „Artificial Intelligence and Ethics: Sixteen Issues“, verschiedene Orte und Daten: Los Angeles, Mexico City, San Francisco, Santa Clara University (2019-2020).

Bob Yirka, „Computer generated math proof is too large for humans to check“, Phys.org, 19. Februar 2014, verfügbar unter: https://phys.org/news/2014-02-math-proof-large-humans.html

The Partnership on AI to Benefit People and Society, Inaugural Meeting, Berlin, Germany, October 23-24, 2017.

Leila Scola, „AI and the Ethics of Energy Efficiency,“ Markkula Center for Applied Ethics website, May 26, 2020, available at: https://www.scu.edu/environmental-ethics/resources/ai-and-the-ethics-of-energy-efficiency/

Brian Patrick Green, „Artificial Intelligence, Decision-Making, and Moral Deskilling,“ Markkula Center for Applied Ethics website, Mar 15, 2019, available at: https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/artificial-intelligence-decision-making-and-moral-deskilling/

Shannon Vallor, „Moral Deskilling and Upskilling in a New Machine Age: Reflections on the Ambiguous Future of Character“. Philosophy of Technology 28 (2015):107-124, verfügbar unter: https://link.springer.com/article/10.1007/s13347-014-0156-9

Brad Sylvester, „Fact Check: Sagte Aristoteles: ‚Wir sind, was wir immer wieder tun‘?“ Check Your Fact Website, 26. Juni 2019, abrufbar unter: https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/

Lee Mannion, „Britain appointes minister for loneliness amid growing isolation,“ Reuters, January 17, 2018, available at: https://www.reuters.com/article/us-britain-politics-health/britain-appoints-minister-for-loneliness-amid-growing-isolation-idUSKBN1F61I6

Julianne Holt-Lunstad, Timothy B. Smith, Mark Baker,Tyler Harris, und David Stephenson, „Loneliness and Social Isolation as Risk Factors for Mortality: A Meta-Analytic Review“, Perspectives on Psychological Science 10(2) (2015): 227-237, verfügbar unter: https://journals.sagepub.com/doi/full/10.1177/1745691614568352

Markkula Center for Applied Ethics Staff, „AI: Ethical Challenges and a Fast Approaching Future: Eine Podiumsdiskussion über künstliche Intelligenz“, mit Maya Ackerman, Sanjiv Das, Brian Green und Irina Raicu, Santa Clara University, Kalifornien, 24. Oktober 2017, veröffentlicht im All About Ethics Blog, 31. Oktober 2017, Video verfügbar unter: https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/

Brian Patrick Green, „Some Ethical and Theological Reflections on Artificial Intelligence,“ Pacific Coast Theological Society (PCTS) meeting, Graduate Theological Union, Berkeley, 3-4 November, 2017, verfügbar unter: http://www.pcts.org/meetings/2017/PCTS2017Nov-Green-ReflectionsAI.pdf

Brian Patrick Green, „AI and Ethics“, Gastvortrag in PACS003: What is an Ethical Life?, University of the Pacific, Stockton, 21. März 2018.

Brian Patrick Green, „Ethical Reflections on Artificial Intelligence“, Scientia et Fides 6(2), 24. August 2018. Verfügbar unter: http://apcz.umk.pl/czasopisma/index.php/SetF/article/view/SetF.2018.015/15729

Danke an viele Menschen für all das hilfreiche Feedback, das mir geholfen hat, diese Liste zu entwickeln, einschließlich Maya Ackermann, Kirk Bresniker, Sanjiv Das, Kirk Hanson, Brian Klunk, Thane Kreiner, Angelus McNally, Irina Raicu, Leila Scola, Lili Tavlan, Shannon Vallor, die Mitarbeiter mehrerer Tech-Unternehmen, die Teilnehmer des PCTS Herbsttreffens 2017, die Teilnehmer der needed.Bildungstreffen, mehreren anonymen Gutachtern, den Professoren und Studenten von PACS003 an der University of the Pacific, den Studenten meines ENGR 344: AI and Ethics“, sowie viele andere.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.