Moralidad artificial: Agentes morales y Tauchain

in #tauchain8 years ago (edited)

En un artículo previo debatimos el valor de la ampliación de la inteligencia con el ejemplo de la ampliación a la moral. Ahora voy a entrar en algunos detalles acerca del concepto de la “moralidad artificial” que pertenece a los agentes autónomos. A un nivel filosófico hay diferentes caminos sobre los agentes autónomos, pero haré una lista de algunos.

  1. Agentes autónomos como identidades independientes que actúan en tu nombre.
  2. Agentes autónomos como herramientas.
  3. Agentes autónomos como una extensión de tú personalidad digital.

Para este debate vamos a hablar del tercer punto pensando en los agentes autónomos como una extensión de tú personalidad digital. Específicamente, como personalidad digital me estoy refiriendo a cómo será cuantificación y digitalizado. Nota: No voy a elaborar en este artículo sobre “lo que será” o si existe o no “el libre albedrío”, ya que es un debate filosófico enteramente aparte, sino simplemente utilizaré esta definición como una forma de pensar sobre la moralidad, la responsabilidad y los agentes autónomos.

¿Qué es la agencia moral?

La agencia moral es la habilidad de un individuo para hacer juicios morales basados en alguna noción sobre lo que es correcto y lo que es incorrecto y ser además responsable de esas acciones. [1] Un agente moral es “un ser que es capaz de actuar en base a al bien y al mal” [2]

Teniendo en cuenta la cita anterior, ¿Hay alguna razón para creer que un agente autónomo no puede llegar a entender la moralidad humana? Podría predecir que no sólo los agentes autónomos entenderán la moralidad humana, sino que podrá entenderla mejor que la mayoría de los humanos. Los seres humanos no tienen una comprensión muy clara de la moralidad humana debido a las limitaciones del cerebro humano, la complejidad del mundo y de las otras personas. Los agentes autónomos son la manera de manejar esta complejidad que redunda en un beneficio para los seres humanos.

En Tauchain habrá una base de conocimiento a nivel mundial (KB “Knowledgebase”) con alguna similitud con la Wikipedia. Este conocimiento (KB “Knowledgebase”) si se estructura de forma correcta será capaz de aceptar la contribución de personas humanas y AI agents (Agentes de Inteligencia artificial). El conocimiento de la moralidad al nivel del sentido común será posible, pero ¿hasta dónde podemos llevar el enfoque de la base del conocimiento base (KB) + el acercamiento de la inferencia? La moral deontológica se puede utilizar fácilmente en este contexto porque la lógica deontológica puede ser entrada en Tau que permite el razonamiento automatizado sobre la base del conocimiento de acuerdo con la moral deontológica. Pero, ¿pueden los agentes autónomos ser responsables de sus acciones?

¿Qué es la moralidad artificial?

La moralidad artificial es un programa de investigación para la construcción de máquinas morales que pretende avanzar en el estudio de los mecanismos éticos computacionales. El nombre es una analogía intencional con la inteligencia artificial (IA). La ciencia cognitiva se ha beneficiado del intento de implementar la inteligencia en sistemas computacionales; Se espera que la ciencia moral pueda ser informada mediante la construcción de modelos computacionales de mecanismos éticos, agentes y entornos. Como en el caso de la IA, los objetivos del proyecto van desde el objetivo teórico al utilizar modelos informáticos para comprender la moralidad de forma mecánica hasta el objetivo práctico de construir mejores programas. También en paralelo con la IA, la moral artificial puede adoptar una ingeniería o un enfoque científico.

Los agentes morales artificiales, tales como los agentes autónomos que han sido facultados para tomar decisiones, pueden tomar decisiones morales. No sólo los agentes morales artificiales pueden tomar decisiones morales a la par con los tomadores de decisiones humanos, sino que pueden superar las habilidades de los humanos para la toma de decisiones.

Un resultado de la iniciativa de Axelrod fue unir la ética y la teoría de los juegos. Por un lado, la teoría de juegos ofrece modelos simples de problemas difíciles para la ética, como el dilema del prisionero. En primer lugar, la teoría de los juegos hace explícitas las expectativas de la ética. Los primeros trabajos en este campo (Danielson 1992) esperaban que la ética resolviera problemas -como la cooperación en el dilema del prisionero en una sola partida- que la teoría de juegos considera imposible. Un trabajo más reciente (Binmore 1994, Skyrms 1996) reduce las expectativas de la ética. Considerando la recomendación de Axelrod de la estrategia tit-for-tat (ojo por ojo) como resultado de su relativo éxito en su torneo. Como el juego se repite, ojo por ojo no es irracionalmente cooperativo. Sin embargo, su éxito demuestra solamente el ojo por ojo es un equilibrio para este juego; Es racional jugar al ojo por ojo si bastantes otros lo hacen. Pero la teoría de juegos especifica que muchas estrategias, muchas veces infinitas, son equilibrios para el dilema repetido del prisionero. Así, la teoría de los juegos cambia el terreno de la discusión ética, desde la búsqueda del mejor principio o estrategia hasta la tarea más difícil de seleccionar entre muchas estrategias, cada una de las cuales es un equilibrio, es decir, una norma moral factible.

En algún momento del futuro los agentes autónomos podrán tener una mejor comprensión de las normas sociales actuales que cualquier ser humano en particular. Este conocimiento de las normas sociales y de la moral común ayudaría al agente autónomo a navegar dentro de un paisaje social, un paisaje legal y más. La teoría de juegos y la teoría cooperativa de juegos destacan cómo los jugadores racionales procederían bajo ciertas condiciones de información limitada. Los agentes autónomos son capaces de ser a la vez actores racionales, pero también con cierto nivel de comprensión moral y, lo que es más importante, una capacidad para procesar mucha más información que cualquier persona individual. Esto significaría que un agente autónomo tendría una comprensión completa de las leyes, y sería capaz de reducir el riesgo de las consecuencias jurídicas mejor que cualquier humano que tendría que trabajar con una comprensión limitada de las leyes.

La prueba moral de Turing

¿Cómo medimos el desempeño de los agentes morales artificiales? La Prueba Moral de Turing puede ser la respuesta. No basta simplemente con crear agentes morales que creemos o esperamos que van a actuar de manera moral en situaciones difíciles, por lo tanto, en su lugar podría ser necesario probarlos y aceptar sólo a los agentes morales artificiales que pueden pasar la prueba. Además, las simulaciones y otros enfoques pueden ayudar también, pero porque no todos los eventos se pueden predecir con antelación debe haber una manera de mejorar continuamente el diseño de los agentes morales ganadores y por esta razón será importante permitir que los seres humanos lleven a cabo mediciones y revisiones de la conducta de los agentes morales como un medio para promover una especie de evolución artificial.

Conclusión

Los agentes autónomos pueden mejorar el mundo, pero en mi opinión debe hacerse hincapié en asegurarse de que estos agentes autónomos son de alto estándar. Esto incluiría, al menos, que de alguna forma tuvieran ética y, para hacerlo, podría ser necesario hacer experimentos de moralidad artificial. Los agentes autónomos en Tauchain pueden ser agentes morales y necesariamente tienen que serlo. Si se hace correctamente, entonces los humanos podrán controlar a estos agentes autónomos si se salen de control, para mantenerlos dentro de la moralidad, e incluso los pueden diseñar para evolucionar continuamente, de este modo pueden ser cada vez más morales al aprender nuestra moralidad, como individuos y como grupo.

Post original de Dana Edwards en Inglés con permiso del autor para su traducción al español: Artificial morality: Moral agents and Tauchain

Referencias Web:

  1. https://en.wikipedia.org/wiki/Deontic_logic
  2. http://www.encyclopedia.com/science/encyclopedias-almanacs-transcripts-and-maps/artificial-morality
  3. https://philosophynow.org/issues/71/Moral_Machines_Teaching_Robots_Right_from_Wrong_by_Wendell_Wallach_and_Colin_Allen
  4. http://www.tauchain.org
  5. https://en.wikipedia.org/wiki/Extended_cognition