Brian Patrick Green es el director de Ética Tecnológica del Centro Markkula de Ética Aplicada. Este artículo es una actualización de un artículo anterior que puede encontrarse aquí . Las opiniones son suyas.

La inteligencia artificial y las tecnologías de aprendizaje automático están transformando rápidamente la sociedad y seguirán haciéndolo en las próximas décadas. Esta transformación social tendrá un profundo impacto ético, ya que estas poderosas nuevas tecnologías mejoran y perturban la vida de los seres humanos. La IA, como externalización de la inteligencia humana, nos ofrece de forma amplificada todo lo que la humanidad ya es, tanto el bien como el mal. Es mucho lo que está en juego. En esta encrucijada de la historia debemos pensar muy bien cómo hacer esta transición, o nos arriesgamos a potenciar el lado más sombrío de nuestra naturaleza, en lugar del más brillante.

¿Por qué la ética de la IA se está convirtiendo en un problema ahora? El aprendizaje automático (ML) a través de redes neuronales está avanzando rápidamente por tres razones: 1) Enorme aumento del tamaño de los conjuntos de datos; 2) Enorme aumento de la potencia de cálculo; 3) Enorme mejora de los algoritmos de ML y más talento humano para escribirlos. Estas tres tendencias centralizan el poder, y «un gran poder conlleva una gran responsabilidad».

Como institución, el Centro Markkula de Ética Aplicada lleva varios años reflexionando profundamente sobre la ética de la IA. Este artículo comenzó como presentaciones realizadas en conferencias académicas y desde entonces se ha ampliado a un artículo académico (enlaces más abajo) y más recientemente a una presentación de «Inteligencia Artificial y Ética: Dieciséis cuestiones» que he impartido en Estados Unidos y a nivel internacional. Con ese espíritu, ofrezco esta lista actual:

1. Seguridad técnica

La primera pregunta para cualquier tecnología es si funciona como se pretende. ¿Funcionarán los sistemas de IA como se promete o fallarán? Si fallan, y cuando lo hagan, ¿cuáles serán los resultados de esos fallos? Y si dependemos de ellos, ¿seremos capaces de sobrevivir sin ellos?

Por ejemplo, varias personas han muerto en un accidente de coche semiautónomo porque los vehículos se encontraron con situaciones en las que no tomaron decisiones seguras. Aunque redactar contratos muy detallados que limiten la responsabilidad podría reducir legalmente la responsabilidad de un fabricante, desde una perspectiva moral, no sólo la responsabilidad sigue recayendo en la empresa, sino que el propio contrato puede considerarse un plan poco ético para eludir la responsabilidad legítima.

La cuestión de la seguridad y los fallos técnicos es independiente de la cuestión de cómo una tecnología que funciona correctamente puede utilizarse para el bien o para el mal (preguntas 3 y 4, más adelante). Esta cuestión es meramente funcional, pero es la base sobre la que debe construirse todo el resto del análisis.

2. Transparencia y privacidad

Una vez que hemos determinado que la tecnología funciona adecuadamente, ¿podemos entender realmente cómo funciona y recopilar adecuadamente los datos sobre su funcionamiento? El análisis ético siempre depende de que se obtengan primero los hechos: sólo entonces puede comenzar la evaluación.

Resulta que con algunas técnicas de aprendizaje automático, como el aprendizaje profundo en redes neuronales, puede ser difícil o imposible entender realmente por qué la máquina toma las decisiones que toma. En otros casos, puede ser que la máquina pueda explicar algo, pero la explicación es demasiado compleja para que los humanos la entiendan.

Por ejemplo, en 2014 un ordenador demostró un teorema matemático, utilizando una demostración que era, al menos en ese momento, más larga que toda la enciclopedia Wikipedia . Explicaciones de este tipo podrían ser explicaciones verdaderas, pero los humanos nunca lo sabrán con seguridad.

Como punto adicional, en general, cuanto más poderoso es alguien o algo, más transparente debería ser, mientras que cuanto más débil es alguien, más derecho a la privacidad debería tener. Por lo tanto, la idea de que las IA poderosas puedan ser intrínsecamente opacas es desconcertante.

3. Uso beneficioso &Capacidad para el bien

El objetivo principal de la IA es, como el de cualquier otra tecnología, ayudar a las personas a llevar vidas más largas, más florecientes y más satisfactorias. Esto es bueno y, por lo tanto, en la medida en que la IA ayuda a las personas de esta manera, podemos alegrarnos y apreciar los beneficios que nos proporciona.

La inteligencia adicional probablemente proporcionará mejoras en casi todos los campos del quehacer humano, incluyendo, por ejemplo, la arqueología, la investigación biomédica, la comunicación, el análisis de datos, la educación, la eficiencia energética, la protección del medio ambiente, la agricultura, las finanzas, los servicios jurídicos, el diagnóstico médico, la gestión de recursos, la exploración espacial, el transporte, la gestión de residuos, etc.

Como ejemplo concreto de un beneficio de la IA, algunos equipos agrícolas tienen ahora sistemas informáticos capaces de identificar visualmente las malas hierbas y rociarlas con pequeñas dosis específicas de herbicida. Esto no sólo protege el medio ambiente al reducir el uso de productos químicos en los cultivos, sino que también protege la salud humana al reducir la exposición a estos productos químicos.

4. Uso malicioso &Capacidad para el mal

Una tecnología que funciona perfectamente bien, como un arma nuclear, puede, cuando se le da el uso previsto, causar un inmenso mal. La inteligencia artificial, al igual que la inteligencia humana, se utilizará de forma maliciosa, no cabe duda.

Por ejemplo, la vigilancia impulsada por la IA ya está muy extendida, tanto en contextos apropiados (por ejemplo, las cámaras de seguridad de los aeropuertos), como en otros quizá inapropiados (por ejemplo, productos con micrófonos siempre activos en nuestros hogares), y en otros definitivamente inapropiados (por ejemplo, productos que ayudan a los regímenes autoritarios a identificar y oprimir a sus ciudadanos). Otros ejemplos nefastos pueden ser la piratería informática asistida por IA y los sistemas de armas autónomas letales (LAWS), también conocidos como «robots asesinos». Otros temores, con distintos grados de verosimilitud, incluyen escenarios como los de las películas «2001: Una odisea del espacio», «Wargames» y «Terminator».

Aunque las películas y las tecnologías armamentísticas puedan parecer ejemplos extremos de cómo la IA podría potenciar el mal, debemos recordar que la competencia y la guerra son siempre los principales impulsores del avance tecnológico, y que los militares y las empresas están trabajando en estas tecnologías ahora mismo. La historia también muestra que los grandes males no siempre son del todo intencionados (por ejemplo, los tropiezos en la Primera Guerra Mundial y varios acercamientos nucleares en la Guerra Fría), por lo que tener poder destructivo, aunque no se pretenda utilizarlo, sigue siendo un riesgo de catástrofe. Por ello, prohibir, prohibir y renunciar a ciertos tipos de tecnología sería la solución más prudente.

5. Sesgo en los datos, conjuntos de entrenamiento, etc.

Una de las cosas interesantes de las redes neuronales, los actuales caballos de batalla de la inteligencia artificial, es que efectivamente fusionan un programa informático con los datos que se le dan. Esto tiene muchas ventajas, pero también corre el riesgo de sesgar todo el sistema de formas inesperadas y potencialmente perjudiciales.

Ya se han descubierto sesgos algorítmicos, por ejemplo, en áreas que van desde el castigo penal hasta el subtitulado de fotografías. Estos sesgos son más que vergonzosos para las corporaciones que producen estos productos defectuosos; tienen efectos negativos y perjudiciales concretos en las personas que son víctimas de estos sesgos, además de reducir la confianza en las corporaciones, el gobierno y otras instituciones que podrían estar utilizando estos productos sesgados. El sesgo algorítmico es una de las principales preocupaciones de la IA en este momento y lo seguirá siendo en el futuro, a menos que nos esforcemos por hacer que nuestros productos tecnológicos sean mejores que nosotros. Como dijo una persona en la primera reunión de la Asociación sobre IA, «Reproduciremos todos nuestros defectos humanos en forma artificial a menos que nos esforcemos ahora mismo para asegurarnos de que no lo hacemos».

6. Desempleo / falta de propósito & Significado

Mucha gente ya ha percibido que la IA será una amenaza para ciertas categorías de puestos de trabajo. De hecho, la automatización de la industria ha sido un factor importante que ha contribuido a la pérdida de puestos de trabajo desde el comienzo de la revolución industrial. La IA simplemente extenderá esta tendencia a más campos, incluidos los que tradicionalmente se han considerado más seguros frente a la automatización, por ejemplo, el derecho, la medicina y la educación. No está claro a qué nuevas profesiones podrán dedicarse los desempleados en última instancia, aunque cuanto más tenga que ver el trabajo con el cuidado de los demás, más probable será que la gente quiera tratar con otros seres humanos y no con las IA.

Además de la preocupación por el empleo, está la preocupación por la forma en que la humanidad pasa su tiempo y lo que hace que una vida esté bien empleada. ¿Qué harán millones de desempleados? ¿Qué buenos propósitos pueden tener? ¿Qué pueden aportar al bienestar de la sociedad? ¿Cómo evitará la sociedad que se desilusionen, que se amarguen y que se vean arrastrados por movimientos malignos como la supremacía blanca y el terrorismo?

7. Creciente desigualdad socioeconómica

Relacionada con el problema del desempleo está la cuestión de cómo sobrevivirá la gente si el desempleo alcanza niveles muy altos. ¿De dónde sacarán dinero para mantenerse a sí mismos y a sus familias? Aunque los precios pueden disminuir debido a la reducción de los costes de producción, los que controlan la IA también se llevarán probablemente gran parte del dinero que de otro modo habría ido a parar a los salarios de los ahora desempleados, y por tanto la desigualdad económica aumentará. Esto también afectará a la disparidad económica internacional y, por lo tanto, es probable que sea una gran amenaza para las naciones menos desarrolladas.

Algunos han sugerido una renta básica universal (UBI) para abordar el problema, pero esto requerirá una gran reestructuración de las economías nacionales. Otras soluciones a este problema pueden ser posibles, pero todas ellas implican cambios potencialmente importantes en la sociedad humana y el gobierno. En última instancia, se trata de un problema político, no técnico, por lo que esta solución, al igual que las de muchos de los problemas descritos aquí, debe abordarse a nivel político.

8. Efectos medioambientales

Los modelos de aprendizaje automático requieren enormes cantidades de energía para entrenarse, tanta energía que los costes pueden ascender a decenas de millones de dólares o más. Ni que decir tiene que si esta energía procede de combustibles fósiles, esto supone un gran impacto negativo en el cambio climático, por no hablar de que es perjudicial en otros puntos de la cadena de suministro de hidrocarburos.

El aprendizaje automático también puede hacer que la distribución y el uso de la electricidad sean mucho más eficientes, además de trabajar en la resolución de problemas de biodiversidad, investigación medioambiental, gestión de recursos, etc. La IA es, en algunos aspectos muy básicos, una tecnología centrada en la eficiencia, y la eficiencia energética es una de las formas en que pueden dirigirse sus capacidades.

En conjunto, parece que la IA podría ser un factor positivo neto para el medio ambiente -pero sólo si se dirige realmente hacia ese fin positivo, y no sólo hacia el consumo de energía para otros usos.

9. Automatización de la ética

Una de las ventajas de la IA es que puede automatizar la toma de decisiones, reduciendo así la carga de los seres humanos y agilizando -podría agilizar enormemente- algunos tipos de procesos de toma de decisiones. Sin embargo, esta automatización de la toma de decisiones planteará enormes problemas a la sociedad, porque si estas decisiones automatizadas son buenas, la sociedad se beneficiará, pero si son malas, la sociedad se verá perjudicada.

A medida que los agentes de la IA reciban más poderes para tomar decisiones, tendrán que tener codificadas normas éticas de algún tipo. Simplemente no hay forma de evitarlo: el proceso de toma de decisiones éticas podría ser tan simple como seguir un programa para distribuir de forma justa un beneficio, en el que la decisión es tomada por humanos y ejecutada por algoritmos, pero también podría implicar un análisis ético mucho más detallado, incluso si los humanos preferiríamos que no lo hiciera; esto se debe a que la IA operará mucho más rápido que los humanos, que en algunas circunstancias los humanos quedarán «fuera del bucle» de control debido a la lentitud humana. Esto ya ocurre con los ciberataques y el comercio de alta frecuencia (ambos llenos de cuestiones éticas que normalmente se ignoran) y sólo empeorará a medida que la IA amplíe su papel en la sociedad.

Dado que la IA puede ser tan poderosa, más vale que las normas éticas que le demos sean buenas.

10. Debilidad moral &Si entregamos nuestras capacidades de decisión a las máquinas, nos volveremos menos experimentados en la toma de decisiones. Por ejemplo, se trata de un fenómeno muy conocido entre los pilotos de avión: el piloto automático puede hacer todo lo relacionado con el pilotaje de un avión, desde el despegue hasta el aterrizaje, pero los pilotos eligen intencionadamente controlar manualmente el avión en los momentos cruciales (p. ej, Como uno de los usos de la IA será asistir o reemplazar a los humanos en la toma de ciertos tipos de decisiones (por ejemplo, la ortografía, la conducción, el comercio de acciones, etc.), debemos ser conscientes de que los humanos pueden empeorar en estas habilidades. En su forma más extrema, si la IA empieza a tomar decisiones éticas y políticas por nosotros, seremos peores en ética y política. Es posible que reduzcamos o atrofiemos nuestro desarrollo moral precisamente en el momento en que nuestro poder es mayor y nuestras decisiones más importantes.

Esto significa que el estudio de la ética y la formación ética son ahora más importantes que nunca. Deberíamos determinar las formas en que la IA puede realmente mejorar nuestro aprendizaje y formación éticos. Nunca deberíamos permitirnos quedar descalificados y debilitados en el ámbito de la ética, o cuando nuestra tecnología finalmente nos presente decisiones difíciles de tomar y problemas que debamos resolver -decisiones y problemas que, quizás, nuestros antepasados habrían sido capaces de resolver- los futuros humanos podrían no ser capaces de hacerlo.

Para más información sobre la descalificación, véase este artículo y el artículo original de Shannon Vallor sobre el tema.

11. Conciencia de la IA, personalidad y «derechos de los robots»

Algunos pensadores se han preguntado si las IA podrían llegar a tener conciencia de sí mismas, alcanzar su propia voluntad o merecer el reconocimiento de personas como nosotros. Desde el punto de vista legal, se ha otorgado la condición de persona a las corporaciones y (en otros países) a los ríos, por lo que ciertamente no es necesaria la conciencia incluso antes de que puedan surgir cuestiones legales.

Desde el punto de vista moral, podemos anticipar que los tecnólogos intentarán crear IAs y robots lo más parecidos a los humanos que sea posible, y quizás algún día serán tan buenas imitaciones que nos preguntaremos si podrían ser conscientes y merecer derechos, y puede que no seamos capaces de determinar esto de forma concluyente. Si los seres humanos del futuro llegan a la conclusión de que las IA y los robots podrían merecer un estatus moral, deberíamos pecar de precavidos y concedérselo.

En medio de esta incertidumbre sobre el estatus de nuestras creaciones, lo que sí sabremos es que los humanos tenemos caracteres morales y que, siguiendo una cita inexacta de Aristóteles, «nos convertimos en lo que hacemos repetidamente» . Así que no debemos tratar mal a las IAs y a los robots, o podríamos estar habituándonos a tener caracteres defectuosos, independientemente del estatus moral de los seres artificiales con los que interactuamos. En otras palabras, no importa el estatus de las IAs y los robots, por el bien de nuestro propio carácter moral deberíamos tratarlos bien, o al menos no abusar de ellos.

12. AGI y Superinteligencia

Si o cuando la IA alcance niveles humanos de inteligencia, haciendo todo lo que los humanos pueden hacer tan bien como el humano medio, entonces será una Inteligencia General Artificial -una AGI- y será la única otra inteligencia de este tipo que exista en la Tierra a nivel humano.

Si o cuando la AGI supere la inteligencia humana, se convertirá en una superinteligencia, una entidad potencialmente mucho más inteligente y capaz que nosotros: algo con lo que los humanos sólo se han relacionado en las religiones, los mitos y las historias.

Importante aquí, la tecnología de la IA está mejorando excesivamente rápido. Las corporaciones globales y los gobiernos están en una carrera para reclamar los poderes de la IA como propios. Igualmente importante es que no hay ninguna razón para que la mejora de la IA se detenga en la AGI. La IA es escalable y rápida. A diferencia de un cerebro humano, si le damos a la IA más hardware hará más y más, cada vez más rápido.

La llegada de la AGI o superinteligencia marcará el destronamiento de la humanidad como lo más inteligente de la Tierra. Nunca nos hemos enfrentado (en el mundo material) a nada más inteligente que nosotros. Cada vez que el Homo sapiens se encontró con otra especie humana inteligente en la historia de la vida en la Tierra, la otra especie se fusionó genéticamente con nosotros (como hicieron los neandertales) o se extinguió. Cuando nos encontremos con la AGI y la superinteligencia, deberíamos tener esto en cuenta; aunque, como la IA es una herramienta, puede haber formas de mantener un equilibrio ético entre el ser humano y la máquina.

13. Dependencia de la IA

Los humanos dependen de la tecnología. Siempre lo hemos hecho, desde que somos «humanos»; nuestra dependencia tecnológica es casi lo que nos define como especie. Sin embargo, lo que antes eran sólo piedras, palos y ropa de pieles se ha vuelto mucho más complejo y frágil. Perder la electricidad o la conectividad celular puede ser un problema grave, psicológico o incluso médico (si hay una emergencia). Y no hay dependencia como la de la inteligencia.

La dependencia de la inteligencia es una forma de dependencia como la de un niño a un adulto. La mayor parte del tiempo, los niños dependen de los adultos para que piensen por ellos, y en nuestros años de vejez, cuando algunas personas experimentan un declive cognitivo, los ancianos también dependen de los adultos más jóvenes. Ahora imaginemos que los adultos de mediana edad que cuidan de los niños y los ancianos dependen a su vez de la IA para que les guíe. No quedarían «adultos» humanos, sólo «adultos de IA». La humanidad se habría convertido en una raza de niños para nuestros cuidadores de IA.

Esto, por supuesto, plantea la cuestión de qué haría una raza humana infantilizada si nuestros padres de IA alguna vez funcionaran mal. Sin esa IA, si dependiéramos de ella, podríamos llegar a ser como niños perdidos sin saber cuidar de nosotros mismos ni de nuestra sociedad tecnológica. Este «extravío» ya ocurre cuando las aplicaciones de navegación de los teléfonos inteligentes funcionan mal (o simplemente se les acaba la batería), por ejemplo.

Ya estamos bien encaminados hacia la dependencia tecnológica. ¿Cómo podemos prepararnos ahora para evitar los peligros de la dependencia específica de la inteligencia artificial?

14. Adicción a la IA

Los fabricantes de aplicaciones para teléfonos inteligentes han convertido la adicción en una ciencia, y los videojuegos y aplicaciones impulsados por la IA pueden ser adictivos como las drogas. La IA puede explotar numerosos deseos y debilidades humanas, como la búsqueda de objetivos, el juego, la codicia, la libido, la violencia, etc.

La adicción no sólo nos manipula y controla, sino que también nos impide hacer otras cosas más importantes: educativas, económicas y sociales. Nos esclaviza y nos hace perder el tiempo cuando podríamos estar haciendo algo que valga la pena. Con la IA aprendiendo constantemente más sobre nosotros y trabajando más duro para mantenernos haciendo clic y desplazándonos, ¿qué esperanza hay de que escapemos de sus garras? O, más bien, de las garras de los fabricantes de aplicaciones que crean estas IAs para atraparnos, porque no son las IAs las que eligen tratar a la gente de esta manera, son otras personas.

Cuando hablo de este tema con cualquier grupo de estudiantes, descubro que todos ellos son «adictos» a una u otra aplicación. Puede que no sea una adicción clínica, pero esa es la forma en que los estudiantes la definen, y saben que están siendo explotados y perjudicados. Esto es algo que los fabricantes de aplicaciones deben dejar de hacer: La IA no debería diseñarse para explotar intencionadamente las vulnerabilidades de la psicología humana.

15. Aislamiento y soledad

La sociedad se encuentra en una crisis de soledad. Por ejemplo, recientemente un estudio reveló que «200.000 personas mayores en el Reino Unido no han tenido una conversación con un amigo o familiar en más de un mes» . Es una situación triste porque la soledad puede matar, literalmente. Es una pesadilla para la salud pública, por no mencionar que destruye el tejido mismo de la sociedad: nuestras relaciones humanas. La tecnología se ha visto implicada en tantas tendencias sociales y psicológicas negativas, como la soledad, el aislamiento, la depresión, el estrés y la ansiedad, que es fácil olvidar que las cosas podrían ser diferentes, y que de hecho eran bastante diferentes hace sólo unas décadas.

Uno podría pensar que los medios «sociales», los teléfonos inteligentes y la IA podrían ayudar, pero en realidad son las principales causas de la soledad, ya que las personas se enfrentan a las pantallas en lugar de a los demás. Lo que sí ayuda son las relaciones fuertes en persona, precisamente las relaciones que están siendo expulsadas por la tecnología adictiva (a menudo impulsada por la IA).

La soledad puede ser ayudada dejando de lado los dispositivos y construyendo relaciones de calidad en persona. En otras palabras: cuidando.

Esto puede no ser un trabajo fácil y ciertamente a nivel social puede ser muy difícil resistir las tendencias que ya hemos seguido hasta ahora. Pero debemos resistir, porque un mundo mejor y más humano es posible. La tecnología no tiene por qué hacer del mundo un lugar menos personal y solidario; podría hacer lo contrario, si así lo quisiéramos.

16. Efectos en el espíritu humano

Todas las áreas de interés anteriores tendrán efectos en la forma en que los seres humanos se perciben a sí mismos, se relacionan entre sí y viven sus vidas. Pero también hay una cuestión más existencial. Si el propósito y la identidad de la humanidad tienen algo que ver con nuestra inteligencia (como creían varios destacados filósofos griegos, por ejemplo), entonces al externalizar nuestra inteligencia y mejorarla más allá de la inteligencia humana, ¿nos estamos convirtiendo en seres de segunda clase frente a nuestras propias creaciones?

Esta es una cuestión más profunda con la inteligencia artificial que llega al núcleo de nuestra humanidad, a áreas tradicionalmente reservadas a la filosofía, la espiritualidad y la religión. ¿Qué pasará con el espíritu humano si o cuando seamos superados por nuestras propias creaciones en todo lo que hacemos? ¿Perderá la vida humana su sentido? ¿Llegaremos a un nuevo descubrimiento de nuestra identidad más allá de nuestra inteligencia?

Quizás la inteligencia no sea realmente tan importante para nuestra identidad como podríamos pensar que es, y quizás entregar la inteligencia a las máquinas nos ayude a darnos cuenta de ello. Si en cambio encontramos nuestra humanidad no en nuestros cerebros, sino en nuestros corazones, tal vez lleguemos a reconocer que el cuidado, la compasión, la bondad y el amor son, en última instancia, lo que nos hace humanos y lo que hace que la vida valga la pena. Tal vez, al eliminar parte del tedio de la vida, la IA pueda ayudarnos a cumplir esta visión de un mundo más humano.

Conclusión

Hay más cuestiones en la ética de la IA; aquí sólo he intentado señalar algunas de las principales. Se podría dedicar mucho más tiempo a temas como la vigilancia impulsada por la IA, el papel de la IA en la promoción de la desinformación y la desinformación, el papel de la IA en la política y las relaciones internacionales, la gobernanza de la IA, etc.

Las nuevas tecnologías siempre se crean por algo bueno, y la IA nos ofrece nuevas y sorprendentes capacidades para ayudar a la gente y hacer del mundo un lugar mejor. Pero para hacer del mundo un lugar mejor tenemos que elegir hacerlo, de acuerdo con la ética.

A través del esfuerzo concertado de muchas personas y organizaciones, podemos esperar que la tecnología de la IA nos ayude a hacer un mundo mejor.

Este artículo se basa en los siguientes trabajos anteriores: «IA: desafíos éticos y un futuro que se acerca rápidamente» (oct. 2017) , «Algunas reflexiones éticas y teológicas sobre la inteligencia artificial», (nov. 2017) , Inteligencia artificial y ética: Diez áreas de interés (nov. 2017) , «La IA y la ética» (mar. 2018) , «Reflexiones éticas sobre la inteligencia artificial»(ago. 2018) , y varias presentaciones de «Inteligencia artificial y ética: Dieciséis cuestiones» (2019-20) .

Brian Patrick Green, «Inteligencia artificial y ética: Diez áreas de interés», sitio web del Centro Markkula de Ética Aplicada, 21 de noviembre de 2017, disponible en: https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics/

Originalmente parafraseado en Stan Lee y Steve Ditko, «Spider-Man», Amazing Fantasy vol. 1, #15 (agosto de 1962), frase exacta del tío Ben en J. Michael Straczynski, Amazing Spider-Man vol. 2, #38 (febrero de 2002). Para más información: https://en.wikipedia.org/wiki/With_great_power_comes_great_responsibility

Brian Patrick Green, «Artificial Intelligence and Ethics: Sixteen Issues», en varios lugares y fechas: Los Ángeles, Ciudad de México, San Francisco, Universidad de Santa Clara (2019-2020).

Bob Yirka, «Computer generated math proof is too large for humans to check», Phys.org, 19 de febrero de 2014, disponible en: https://phys.org/news/2014-02-math-proof-large-humans.html

The Partnership on AI to Benefit People and Society, Inaugural Meeting, Berlín, Alemania, 23 y 24 de octubre de 2017.

Leila Scola, «AI and the Ethics of Energy Efficiency,» Markkula Center for Applied Ethics website, 26 de mayo de 2020, disponible en: https://www.scu.edu/environmental-ethics/resources/ai-and-the-ethics-of-energy-efficiency/

Brian Patrick Green, «Artificial Intelligence, Decision-Making, and Moral Deskilling,» Markkula Center for Applied Ethics website, Mar 15, 2019, disponible en: https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/artificial-intelligence-decision-making-and-moral-deskilling/

Shannon Vallor, «Moral Deskilling and Upskilling in a New Machine Age: Reflexiones sobre el ambiguo futuro del carácter». Philosophy of Technology 28 (2015):107-124., disponible en: https://link.springer.com/article/10.1007/s13347-014-0156-9

Brad Sylvester, «Fact Check: ¿Dijo Aristóteles que ‘somos lo que hacemos repetidamente’?» Sitio web Check Your Fact, 26 de junio de 2019, disponible en: https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/

Lee Mannion, «Gran Bretaña nombra ministro para la soledad en medio del creciente aislamiento», Reuters, 17 de enero de 2018, disponible en: https://www.reuters.com/article/us-britain-politics-health/britain-appoints-minister-for-loneliness-amid-growing-isolation-idUSKBN1F61I6

Julianne Holt-Lunstad, Timothy B. Smith, Mark Baker,Tyler Harris, y David Stephenson, «Loneliness and Social Isolation as Risk Factors for Mortality: A Meta-Analytic Review», Perspectives on Psychological Science 10(2) (2015): 227-237, disponible en: https://journals.sagepub.com/doi/full/10.1177/1745691614568352

Personal del Centro Markkula de Ética Aplicada, «IA: Desafíos éticos y un futuro que se acerca rápidamente: Una mesa redonda sobre inteligencia artificial», con Maya Ackerman, Sanjiv Das, Brian Green e Irina Raicu, Universidad de Santa Clara, California, 24 de octubre de 2017, publicado en el blog All About Ethics, 31 de octubre de 2017, vídeo disponible en: https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/

Brian Patrick Green, «Algunas reflexiones éticas y teológicas sobre la inteligencia artificial», reunión de la Pacific Coast Theological Society (PCTS), Graduate Theological Union, Berkeley, 3-4 de noviembre de 2017, disponible en: http://www.pcts.org/meetings/2017/PCTS2017Nov-Green-ReflectionsAI.pdf

Brian Patrick Green, «AI and Ethics», conferencia invitada en PACS003: ¿Qué es una vida ética?», Universidad del Pacífico, Stockton, 21 de marzo de 2018.

Brian Patrick Green, «Ethical Reflections on Artificial Intelligence», Scientia et Fides 6(2), 24 de agosto de 2018. Disponible en: http://apcz.umk.pl/czasopisma/index.php/SetF/article/view/SetF.2018.015/15729

Gracias a muchas personas por todos los útiles comentarios que me han ayudado a desarrollar esta lista, incluyendo a Maya Ackermann, Kirk Bresniker, Sanjiv Das, Kirk Hanson, Brian Klunk, Thane Kreiner, Angelus McNally, Irina Raicu, Leila Scola, Lili Tavlan, Shannon Vallor, los empleados de varias empresas tecnológicas, los asistentes a la reunión de otoño de 2017 del PCTS, los asistentes a las necesariaseducation meetings, varios revisores anónimos, los profesores y estudiantes de PACS003 en la Universidad del Pacífico, los estudiantes de mi curso ENGR 344: AI and Ethics course, así como muchos más.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.