Brian Patrick GreenはMarkkula Center for Applied Ethicsの技術倫理担当ディレクターである。 この記事は、以前の記事を更新したもので、こちらでご覧いただけます。

人工知能と機械学習技術は、急速に社会を変革しており、今後数十年間はそうなり続けるでしょう。 この社会変革は、これらの強力な新技術が人間の生活を向上させると同時に破壊することで、深い倫理的影響を与えることになります。 AIは人間の知能の外在化として、善悪を問わず、人類がすでに持っているすべてを増幅した形で私たちに提供します。 多くのことが危機に瀕しているのです。 この歴史の岐路において、私たちはこの移行をどのように行うかについて非常に慎重に考えるべきであり、さもなければ、私たちは人間の本質の明るい面ではなく、より厳しい面に力を与える危険を冒すことになります。 ニューラルネットワークによる機械学習(ML)が急速に進んでいるのには、3つの理由がある。 1)データセットのサイズの巨大化、2)コンピューティングパワーの巨大化、3)MLアルゴリズムの巨大な改良と、それを書く人間の才能の増大。 これらの3つの傾向はすべて力の集中化であり、「大きな力には大きな責任が伴う」 .

機関として、マーククラ応用倫理センターは数年間、AIの倫理について深く考えてきた。 この記事は、学会で行われたプレゼンテーションとして始まり、その後、学術論文(下記リンク)、そして最近では「人工知能と倫理」のプレゼンテーションへと発展しています。 16の課題 “として米国内外で講演してきました。 その精神に基づき、私は現在のリストを提供します:

1. 技術的安全性

あらゆる技術に対する最初の疑問は、それが意図したとおりに機能するかどうかです。 AI システムは約束されたとおりに動くのでしょうか、それとも失敗するのでしょうか。 もし失敗したら、そして失敗したときには、その結果はどうなるのでしょうか。 そして、私たちがそれらに依存している場合、それなしで生き残ることができるでしょうか。

たとえば、半自動運転車の事故では、車が安全な判断を下せない状況に遭遇したため、何人もの人が亡くなっています。 責任を限定する非常に詳細な契約を書けば、メーカーの責任は法的に軽減されるかもしれませんが、道徳的観点からは、責任はまだ会社にあるだけでなく、契約自体が正当な責任を回避する非倫理的なスキームと見なすことができます。

技術的安全性と失敗の問題は、適切に機能する技術が善にも悪にも使われるかもしれないという問題(以下の質問3および4)とは別のものです。

2. 透明性とプライバシー

一度、技術が適切に機能すると判断した後、それがどのように機能するかを実際に理解し、その機能に関するデータを適切に収集することはできるのでしょうか。 倫理的な分析は常に、まず事実を把握することに依存します。

ニューラルネットワークの深層学習など、一部の機械学習技術では、機械が行う選択の理由を本当に理解することが困難または不可能な場合があることが判明しました。 他のケースでは、機械は何かを説明することができますが、その説明は人間には複雑すぎて理解できません。

たとえば、2014 年にコンピューターが、少なくとも当時はウィキペディア百科事典全体よりも長い証明を使って、数学的定理を証明しました。

さらに、一般的に、誰かまたは何かが強力であればあるほど、それはより透明であるべきであり、誰かが弱ければ弱いほど、彼または彼女はプライバシーに対する権利を有するべきであるという点である。 したがって、強力な AI が本質的に不透明であるという考えには違和感を覚えます。

3 有益な使用 & Capacity for Good

AIの主目的は、他のすべてのテクノロジーと同様に、人々がより長く、より豊かで充実した生活を送るのを助けることです。 これは良いことであり、したがって、AI がこのような方法で人々を助ける限り、それが私たちに与える利益を喜び、感謝することができます。

付加的な知能は、たとえば考古学、生物医学研究、コミュニケーション、データ解析、教育、エネルギー効率、環境保護、農業、金融、法律サービス、医療診断、資源管理、宇宙探査、輸送、廃棄物管理など、人間の努力のほぼすべての分野で改善をもたらすと思われます。

AIによる恩恵の具体例として、現在、一部の農機具には、雑草を視覚的に識別し、狙った量の除草剤を微量に散布できるコンピューターシステムが搭載されています。 これは、作物への化学薬品の使用を減らすことで環境を保護するだけでなく、化学薬品への曝露を減らすことで人間の健康も保護します。

4 悪意のある使用 & 悪の能力

核兵器のような完全によく機能するテクノロジーも、その意図した使い方をされると、巨大な悪を引き起こすことがあります。 例えば、AI を利用した監視は、適切なコンテキスト(空港のセキュリティ カメラなど)、おそらく不適切なコンテキスト(家庭で常時マイクを備えた製品など)、そして決定的に不適切なコンテキスト(権威主義政権が市民を特定し抑圧するための製品など)のいずれにおいてもすでに広く行われています。 また、AIによるコンピュータハッキングや、”殺人ロボット “と呼ばれる致死的自律兵器システム(LAWS)などの悪意ある例もある。 もっともらしい程度の差はあれ、映画「2001 年宇宙の旅」、「ウォーゲーム」、「ターミネーター」に出てくるようなシナリオも、その他の恐怖に含まれます。 また、歴史は、巨悪が必ずしも完全に意図されたものではないことを示しています(例えば、第一次世界大戦へのつまずきや冷戦における様々な核の危機)。したがって、たとえ使う意図がないとしても、破壊的な力を持つことは大惨事のリスクをはらんでいるのです。 このため、ある種の技術を禁止、禁止、および放棄することが、最も賢明な解決策となるでしょう。 データ、トレーニング セットなどのバイアス

現在の人工知能の主力であるニューラルネットワークの興味深い点の1つは、コンピュータ プログラムとそれに与えられるデータを効果的に融合させるということです。 これには多くの利点がありますが、予期しない、潜在的に有害な方法でシステム全体に偏りが生じる危険性もあります。

たとえば、刑事罰から写真のキャプション付けまで幅広い分野で、すでにアルゴリズムによる偏りが発見されています。 これらの偏りは、これらの欠陥製品を生産する企業にとって単に恥ずかしいというだけでなく、これらの偏りの犠牲者である人々に対して具体的な負の、有害な影響を与え、また、これらの偏った製品を使用しているかもしれない企業、政府、その他の機関に対する信頼を低下させるものである。 アルゴリズムの偏りは、AIにおける現在の大きな懸念事項の一つであり、私たちが技術的な製品をより良いものにしようと努力しない限り、将来もそうであり続けるでしょう。 AI に関するパートナーシップの最初の会議である人が言ったように、「そうならないように今すぐ努力しない限り、人間の欠点をすべて人工的に再現してしまう」。

6 失業/目的の欠如 & 意味

多くの人はすでに、AI が特定のカテゴリーの仕事に対する脅威であると認識しています。 実際、産業の自動化は、産業革命の始まり以来、雇用喪失の大きな要因となっています。 AIはこの傾向をより多くの分野、例えば法律、医療、教育など従来自動化から安全であると考えられてきた分野にも拡大するだけである。 失業者が最終的にどのような新しいキャリアに移行できるかは不明ですが、労働が他人の世話に関係すればするほど、人々は AI ではなく他の人間を相手にすることを望むようになるでしょう。 何百万人もの失業者は何をするのだろうか。 彼らはどんな良い目的を持つことができるのだろうか。 彼らは社会の幸福に何を貢献できるのだろうか。 社会はどのようにして、彼らが幻滅し、辛くなり、白人至上主義やテロリズムのような悪の運動に巻き込まれるのを防ぐのだろうか。

7 社会経済的不平等の拡大

失業問題に関連して、失業率が非常に高い水準に上昇した場合に人々がいかにして生き残るかという問題がある。 彼らは自分自身と家族を維持するためのお金をどこで手に入れるのだろうか。 生産コストの低下により物価は下がるかもしれないが、AIを操る人々は、失業者の賃金に充当されていたはずの金の多くを巻き上げるだろうから、経済格差が拡大することになる。 この問題に対処するために、ユニバーサル・ベーシック・インカム(UBI)を提案する人もいますが、これには国家経済の大規模なリストラが必要です。 この問題に対する他のさまざまな解決策も可能かもしれないが、それらはすべて、人間の社会と政府に対する潜在的に大きな変化を伴うものである。 最終的に、これは技術的な問題ではなく政治的な問題であるため、この解決策は、ここで説明した多くの問題に対するものと同様に、政治レベルで対処する必要があります。

8 環境効果

機械学習モデルの学習には膨大な量のエネルギーを必要とし、その費用は数千万ドル以上になることもあるほど膨大なエネルギーです。 言うまでもなく、このエネルギーが化石燃料からもたらされている場合、これは気候変動に大きな悪影響を及ぼし、炭化水素のサプライ チェーンの他のポイントでも有害であることは言うまでもありません。 AI は、ある意味で非常に基本的な効率重視のテクノロジーであり、エネルギー効率はその能力が発揮される方法の 1 つです。

バランスとしては、AI は環境にとって正味のプラスになりそうですが、それが実際にそのプラスの目的に向けられ、他の用途のためにエネルギーを消費するだけではない場合のみ、です。 倫理学の自動化

AIの強みの1つは、意思決定を自動化できることであり、それによって人間の負担を減らし、ある種の意思決定プロセスを高速化する (潜在的には大幅に高速化する) ことです。 なぜなら、これらの自動化された決定が良いものであれば社会は恩恵を受けますが、悪いものであれば社会は損害を受けるからです。

AIエージェントに決定する権限が与えられると、何らかの倫理基準をエンコードする必要が出てきます。 倫理的な意思決定プロセスは、利益を公平に分配するためのプログラムに従うというように、意思決定は人間によって行われ、アルゴリズムによって実行されるという単純なものかもしれませんが、たとえ人間がそうしないことを望んだとしても、はるかに詳細な倫理的分析を伴うかもしれません-これは、AI が人間よりも非常に速く動作し、ある状況下では人間の遅さのために人間が制御不能になるためです。 これは、サイバー攻撃や高頻度取引ですでに発生しており(どちらも通常無視される倫理的疑問でいっぱいです)、AI が社会での役割を拡大するにつれて悪化する一方です。

AI は非常に強力になり得るので、それに与える倫理基準は良いものでなければなりません。 Moral Deskilling & Debility

私たちが意思決定能力を機械に委ねてしまうと、意思決定の経験が少なくなってしまう。 たとえば、これは航空会社のパイロットの間でよく知られている現象です。飛行機の操縦については、離陸から着陸まですべて自動操縦が可能ですが、パイロットは重要な時(たとえば、次のような時)には意図的に飛行機を手動で操縦することを選択します。

AIの用途の1つは、ある種の意思決定(例:スペル、運転、株式取引など)を行う際に人間を支援または代替することなので、人間はこれらのスキルが低下する可能性があることを認識する必要があります。 最も極端な例では、AIが私たちに代わって倫理的・政治的な決断を下すようになれば、私たちは倫理や政治が苦手になってしまうでしょう。 私たちの力が最も大きくなり、私たちの決断が最も重要になる時期に、まさに私たちの道徳的な発達を低下させたり、阻害したりするかもしれません。

このことは、倫理学の研究と倫理トレーニングがこれまで以上に重要であることを意味しています。 私たちは、AI が実際に私たちの倫理的学習と訓練を強化することができる方法を決定する必要がある。 あるいは、我々のテクノロジーが最終的に我々に難しい選択や解決しなければならない問題を提示したとき、おそらく我々の祖先なら解決できたであろう選択や問題を、未来の人類は解決できないかもしれない」

Deskilling について詳しくは、この記事とこの話題に関する Shannon Vallor の元の記事を参照。 AI の意識、人格、および「ロボットの権利」

一部の思想家は、AI がいずれ自己意識を持ち、自らの意思を獲得し、あるいは我々のような人間として認められるに値するかどうか疑問に思っている。 道徳的に言えば、技術者が可能な限り人間に近い AI やロボットを作ろうとすることは予想できます。 もし、未来の人類がAIやロボットに道徳的地位を与えるに値すると結論づけたなら、私たちは慎重を期してそれを与えるべきだろう。

私たちの創造物の状態に関するこの不確実性の中で、私たちが知っていることは、私たち人間には道徳的な性格があり、アリストテレスの不正確な引用に従えば、「私たちは繰り返し行うものになる」ということです. ですから、私たちはAIやロボットを粗末に扱ってはいけません。そうしないと、私たちが関わっている人工物の道徳的地位にかかわらず、私たち自身が欠陥のある人格を持つよう習慣づけてしまうかもしれないのです。 言い換えれば、AIやロボットの状態がどうであれ、我々自身の道徳的人格のために、我々は彼らをよく扱うべきであり、少なくとも彼らを虐待すべきではないということである。 AGIと超知能

AIが人間レベルの知能に達し、人間ができることはすべて平均的な人間ができるのと同じくらいできるようになれば、それは人工一般知能(AGI)になり、それは人間レベルで地球上に存在する他の唯一のそうした知能となる。

AGIが人間の知能を超えた場合、または超えたとき、それは超知能になり、潜在的に人間よりはるかに賢く、能力の高い存在になります。 グローバル企業や政府は、AIの力を自分たちのものとして主張するために競争している。 同様に重要なのは、AIの向上がAGIで止まる理由はないということです。 AIはスケーラブルで高速です。 人間の脳とは異なり、AI にさらにハードウェアを与えれば、より多くのことを、より速く、より多く行うことができます。

AGI または超知能の出現は、地球上で最も知的なものとして人類の座を奪うことを意味します。 私たちは、これまで自分たちより賢いものに(物質界で)直面したことがない。 ホモ・サピエンスが地球上の生命の歴史の中で他の知的な人類種に遭遇するたびに、その種は(ネアンデルタール人のように)我々と遺伝子的に融合するか、絶滅させられてきた。 しかし、AIはツールであるため、人間と機械の間の倫理的バランスを維持する方法がまだあるかもしれない。 AIへの依存

人間は技術に依存している。 私たちは「人間」になって以来、常にそうしてきました。技術への依存は、私たちを種として定義するものに近いのです。 しかし、かつては石や棒、毛皮の服に過ぎなかったものが、今でははるかに複雑で壊れやすくなっています。 電気や携帯電話の接続を失うことは、心理的に、あるいは医学的に(緊急事態が発生した場合)深刻な問題になりかねません。 そして、知能依存のような依存はありません。

知能依存は、子どもから大人への依存のような形です。 多くの場合、子どもは自分のために考えてくれる大人に依存し、高齢になると、認知機能が低下する人もいるので、高齢者も若い大人に依存するようになります。 では、子どもや高齢者の面倒を見る中高年の大人たちが、自らAIに頼って誘導することを想像してみてください。 人間の “大人 “はいなくなり、”AIの大人 “だけが残る。

このことは、もちろん、AIの親が故障した場合、幼児化した人類はどうするかという問題を提起する。 その AI がなければ、もしそれに依存すれば、私たちは自分自身や技術社会の面倒を見る方法を知らない迷子のような存在になりかねない。 この「迷子」は、たとえばスマートフォンのナビゲーションアプリが誤動作する(あるいはバッテリーが切れるだけ)ときに、すでに起こっています。

私たちはすでにテクノロジー依存への道を大きく進んでいます。 具体的にAIへの知能依存の危険性を回避するために、今からどのように準備すればよいでしょうか

14. AIによる中毒

スマートフォンアプリメーカーは中毒を科学に変え、AIによるビデオゲームやアプリは麻薬のように中毒になる可能性があります。 AI は、目的追求、ギャンブル、貪欲、性欲、暴力など、多数の人間の欲望や弱点を利用することができます。

中毒は、私たちを操作しコントロールするだけでなく、教育的、経済的、社会的に重要な他のことをできなくしています。 それは私たちを奴隷にし、何か価値あることができるはずの時間を浪費させるのです。 AIは常に私たちのことを学習し、私たちがクリックやスクロールを続けるよう、より懸命に働いているのですから、私たちがその魔力から逃れる望みはあるでしょうか? というか、むしろ、私たちを陥れるためにこれらの AI を作成したアプリ メーカーの魔の手が迫っています。 それは臨床的な中毒ではないかもしれませんが、学生たちはそれを定義し、自分たちが搾取され、傷つけられていることを知っているのです。 これは、アプリメーカーがやめなければならないことです。 AI は、人間の心理の脆弱性を意図的に利用するように設計されるべきではないのです。 孤立と孤独

社会は孤独の危機に瀕している。 例えば、最近、「英国では20万人の高齢者が1ヶ月以上友人や親戚と会話をしていない」という調査結果が出ました。 これは、孤独は文字通り死を意味するので、悲しい現状です。 孤独は、社会の構造である人間関係を破壊することは言うまでもないが、公衆衛生上の悪夢でもあるのだ。 テクノロジーは、孤独、孤立、うつ、ストレス、不安など、多くの社会的および心理的な負の傾向に関与しており、物事が違っていたかもしれないこと、そして実際、ほんの数十年前まではまったく違っていたことを忘れがちです」

「ソーシャル」メディア、スマートフォン、AI が助けになると思うかもしれませんが、実際には、人々が互いにではなく画面に向き合っているので、孤独の大きな原因になっているのです。 助けになるのは、対面での強い人間関係であり、まさに中毒性のある(多くの場合AIを搭載した)テクノロジーによって押し出されている人間関係です。

孤独は、デバイスをやめて、対面での質の高い人間関係を築くことで救われます。 言い換えれば、思いやることです。

これは簡単な仕事ではないかもしれませんし、確かに社会レベルでは、私たちがすでにこれまで辿ってきた傾向に抵抗するのは非常に難しいことかもしれません。 しかし、より良い、より人間的な世界は可能であるため、抵抗すべきなのです。 テクノロジーは、世界を個人的で思いやりのない場所にする必要はありません。 人間の精神への影響

上記の関心領域はすべて、人間が自分自身をどのように認識し、互いに関係し、生活を送るかに影響を与える。 しかし、もっと実存的な問題もある。 たとえば、何人かの著名なギリシャの哲学者が信じていたように)人類の目的とアイデンティティが私たちの知性と関係があるとすれば、私たちの知性を外部化し、人間の知性を超えて改良することによって、私たちは自分自身の創造物に対して二流の存在になっていないでしょうか。

これは、従来哲学、精神性、宗教に任されていた領域に、私たちの人間の中核に切り込んだ人工知能の深い質問です。 もし、私たちが行うすべてのことにおいて、自分自身の創造物に負けたとしたら、あるいは負けたとしたら、人間の精神はどうなるのでしょうか。 人間の生活は意味を失ってしまうのでしょうか。 知性を超えた私たちのアイデンティティという新たな発見があるのでしょうか。 その代わりに、私たちの人間性を脳の中ではなく、心の中に見出すことができれば、おそらく、思いやり、同情、親切、愛こそが、究極的に私たちを人間らしくし、生きる価値を与えてくれるものだと認識するようになるのではないでしょうか。 おそらく人生の退屈を取り除くことで、AI は、より人間的な世界というビジョンを実現する手助けができるのではないでしょうか。 AI による監視、誤報や偽情報を助長する AIの役割、政治や国際関係における AIの役割、AIのガバナンスなどのトピックにもっと多くの時間を費やすことができるはずです。 しかし、世界をより良い場所にするためには、倫理に則ってそれを選択する必要があります。

多くの個人や組織の協調的な努力により、AI技術がより良い世界を作る手助けになることを期待できます。

この記事は、以下の過去の著作を基に構成されています。 “AI: Ethical Challenges and a Fast Approaching Future” (Oct. 2017) , “Some Ethical and Theological Reflections on Artificial Intelligence,” (Nov. 2017) , Artificial Intelligence and Ethics.”(人工知能と倫理)。 10の関心領域」(2017年11月)、「AIと倫理」(2018年3月)、「人工知能に関する倫理的考察」(2018年8月)、「人工知能と倫理」を数回発表する。 16の課題」(2019-20) .

Brian Patrick Green, “Artificial Intelligence and Ethics: 10の関心領域」Markkula Center for Applied Ethicsウェブサイト、2017年11月21日、入手可能。 https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics/

原文はStan Lee and Steve Ditko, “Spider-Man,” Amazing Fantasy vol.1, #15 (August 1962), exact phrase from Uncle Ben in J. Michael Straczynski, Amazing Spider-Man vol.2, #38 (February 2002)で言い換えられた。 詳しくはこちら。 https://en.wikipedia.org/wiki/With_great_power_comes_great_responsibility

Brian Patrick Green, “Artificial Intelligence and Ethics: Sixteen Issues”, various locations and dates: ロサンゼルス、メキシコシティ、サンフランシスコ、サンタクララ大学(2019-2020)

Bob Yirka, “Computer generated math proof is too large for humans to check,” Phys.org, February 19, 2014, available at: https://phys.org/news/2014-02-math-proof-large-humans.html

The Partnership on AI to Benefit People and Society, Inaugural Meeting, Berlin, Germany, October 23-24, 2017.

Leila Scola, “AI and the Ethics of Energy Efficiency,” Markkula Center for Applied Ethics website, May 26, 2020.3.26, available at: https://www.scu.edu/environmental-ethics/resources/ai-and-the-ethics-of-energy-efficiency/

Brian Patrick Green, “Artificial Intelligence, Decision-Making, and Moral Deskilling,” Markkula Center for Applied Ethics website, Mar 15, 2019.3.15.利用可能。 https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/artificial-intelligence-decision-making-and-moral-deskilling/

Shannon Vallor, “Moral Deskilling and Upskilling in a New Machine Age: 性格の曖昧な未来についての考察” Philosophy of Technology 28 (2015):107-124., available at: https://link.springer.com/article/10.1007/s13347-014-0156-9

Brad Sylvester, “Fact Check: アリストテレスは「われわれは繰り返し行うものだ」と言ったのか?” Check Your Fact ウェブサイト、2019年6月26日、利用可能。 https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/

Lee Mannion, “Britain appoints loneliness for minister amid growing isolation,” Reuters, January 17, 2018, available at: https://www.reuters.com/article/us-britain-politics-health/britain-appoints-minister-for-loneliness-amid-growing-isolation-idUSKBN1F61I6

Julianne Holt-Lunstad, Timothy B. Smith, Mark Baker,Tyler Harris, and David Stephenson, “Loneliness and Social Isolation as Risk Factors for Mortality.”(死亡率のリスク要因としての孤独と社会的孤立)。 A Meta-Analytic Review,” Perspectives on Psychological Science 10(2) (2015): 227-237, available at: https://journals.sagepub.com/doi/full/10.1177/1745691614568352

Markkula Center for Applied Ethics Staff, “AI: Ethical Challenges and a Fast Approaching Future: 人工知能に関するパネルディスカッション」Maya Ackerman, Sanjiv Das, Brian Green, and Irina Raicu, Santa Clara University, California, October 24, 2017, posted to the All About Ethics Blog, Oct 31, 2017, video available at: https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/

Brian Patrick Green, “Some Ethical and Theological Reflections on Artificial Intelligence,” Pacific Coast Theological Society (PCTS) meeting, Graduate Theological Union, Berkeley, 3-4 November, 2017、以下より入手可能。 http://www.pcts.org/meetings/2017/PCTS2017Nov-Green-ReflectionsAI.pdf

Brian Patrick Green, “AI and Ethics,” guest lecture in PACS003: What is an Ethical Life?, University of the Pacific, Stockton, March 21, 2018.

Brian Patrick Green, “Ethical Reflections on Artificial Intelligence,” Scientia et Fides 6(2), 24 August 2018.ブライアン・パトリック・グリーン「人工知能に関する倫理的考察」. で入手可能。 http://apcz.umk.pl/czasopisma/index.php/SetF/article/view/SetF.2018.015/15729

私がこのリストを発展させるのに役立ったすべての有益なフィードバックについて、Maya Ackermann, Kirk Bresniker, Sanjiv Das, Kirk Hanson, Brian Klunk, Thane Kreiner, Angelus McNally, Irina Raicu, Leila Scola, Lili Tavlan, Shannon Vallor, 複数の技術企業の社員、PCTS Fall 2017ミーティングの出席者、必要な.education meetings、数名の匿名査読者、University of the PacificのPACS003の教授と学生、私のENGR 344の学生たち。 AIと倫理のコース、そしてさらに多くの人たちです

コメントを残す

メールアドレスが公開されることはありません。