—¿Podrá un sistema computacional, utilizando la misma información que un ser humano, ser un agente moral adecuado?

—Las dimensiones éticas de esta toma de decisiones están en gran medida determinadas por los valores y principios que los creadores incorporan a los sistemas, implícita o explícitamente

Yo tengo un ‘smartphone’.

Tú tienes una tablet.

Él tiene un portátil.

Nosotros tenemos unas gafas de realidad virtual.

Vosotros tenéis un wearable gadget.

Ellos tienen un coche autónomo.

En esta era digital, pasamos mucho tiempo interactuando con aparatos digitales. Compramos en línea, trabajamos en la nube, nuestras relaciones sociales a veces están basadas en la red, hay relaciones de pareja basadas en skype… Los contextos en los que normalmente nos enfrentamos a decisiones éticas y participamos en comportamientos morales han cambiado. Hoy en día, los dilemas morales se presentan a menudo digitalmente, es decir, la información relevante y las decisiones se presentan y se toman en dispositivos tecnológicos. Pero todavía hay más. Los sistemas autónomos están llegando nos guste o no. ¿Serán éticos? ¿Serán buenos? ¿Y qué diantres queremos decir con “buenos”?

Muchos coincidimos en que los agentes morales artificiales son necesarios e inevitables. Otros dicen que la idea de agentes morales artificiales con tecnología de vanguardia intensifica su angustia. Hay algo paradójico en la idea de que uno podría aliviar la ansiedad creada por la tecnología con tecnología aún más sofisticada. La tensión existe entre la fascinación con las nuevas tecnologías y la ansiedad que provocan. Esto podría explicarse por dos motivos. Uno relacionado con todos los temores futuristas habituales sobre la tecnología siguiendo una trayectoria más allá del control humano (singularidad tecnológica). Y otro relacionado con las preocupaciones sobre lo que esta tecnología podría revelar sobre los seres humanos mismos. La cuestión no es cómo será la tecnología en el futuro, sino más bien ¿cómo seremos y en qué nos convertiremos a medida que creemos relaciones cada vez más íntimas con nuestras máquinas? ¿Cuáles serán las consecuencias humanas de intentar mecanizar la toma de decisiones morales?

Hoy en día, cuando los sistemas informáticos seleccionan entre diferentes cursos de acción, se involucran en una especie de proceso de toma de decisiones. Las dimensiones éticas de esta toma de decisiones están en gran medida determinadas por los valores y principios que los creadores incorporan a los sistemas, implícita o explícitamente. Hasta hace poco, los diseñadores no consideraban las formas en que sus propios valores estaban implícitamente incrustados en las tecnologías que producían (¡y debemos hacerlos más conscientes de las dimensiones éticas de su trabajo!). Pero el objetivo de la moralidad artificial mueve el activismo de la ingeniería más allá de enfatizar el papel de los valores de los autores en la formación de la moralidad operacional en sistemas complejos; tiene el objetivo de proporcionar a los propios sistemas con la capacidad de razonamiento moral explícito y la toma de decisiones.

Una distinción clave con respecto a los juicios morales se refiere a las decisiones deontológicas versus utilitarias. En nuestras investigaciones en el campo de las ciencias cognitivas usamos lo que llamamos “modelos morales de doble proceso” que contrastan los juicios deontológicos, que generalmente son impulsados por respuestas automáticas/no-reflexivas/intuitivas, inducidas por el contenido emocional de un dilema, con los juicios utilitarios, que son el resultado de reflexiones no-emocionales/racionales/controladas, impulsadas por una consciente evaluación de las consecuencias potenciales de un dilema. ¿Son estos principios, patrones, teorías y marcos éticos útiles para guiar el diseño de sistemas computacionales capaces de actuar con cierto grado de autonomía?

La tarea de mejorar las capacidades morales de los agentes autónomos obligará a hacer una deconstrucción de la toma de decisiones morales en todos sus componentes. ¿El hecho de construir un robot moral se reduce solo a una cuestión de encontrar el conjunto adecuado de restricciones y algoritmos correctos para resolver conflictos? Intentemos seguir dos enfoques. Por ejemplo, un enfoque “top-down” adoptaría una teoría ética (por ejemplo, el utilitarismo), analizaría los requisitos informativos y procedimentales necesarios para implementar esta teoría en un sistema informático y aplicaría ese análisis para diseñar una serie de subsistemas (y sus relaciones entre sí) con el fin de implementar dicha teoría. Por otro lado, un enfoque “bottom-up”, haría hincapié en crear un entorno en el que un agente explorara cursos de acción y aprendiera (a través de la recompensa) los tipos de comportamientos que son moralmente loables. A diferencia de las teorías éticas de “top-down”, que definen lo que es y no es moral, en un enfoque “bottom-up” los principios éticos van emergiendo a través de la experiencia.

Algunos podrían sostener que el utilitarismo no es una teoría particularmente útil o práctica argumentando que los cálculos que una máquina debería hacer para llegar a tomar una decisión deben ser detenidos precisamente en el punto en el que continuar calculando, en lugar de actuar, tiene un efecto negativo sobre lo que llamaríamos utilidad agregada. Pero, ¿cómo saber si vale la pena hacer un cálculo sin realmente hacer el cálculo en sí? ¿Cómo lo hacemos los humanos? En general, practicamos lo que Herbert Simon, uno de los fundadores de la inteligencia artificial y ganador del Premio Nobel de Economía en 1982, denominó racionalidad limitada. Cuando los individuos tomamos decisiones, su racionalidad está limitada por la información disponible, la viabilidad de la decisión, las limitaciones cognitivas de nuestra mente y el tiempo disponible para tomar la decisión. Actuamos en cierto sentido como “satisfactores”, buscando una solución complaciente y no óptima. Simon utilizó la analogía/metáfora de un par de tijeras, donde una hoja representa las limitaciones cognitivas de los humanos y la otra las estructuras del entorno, ilustrando cómo las mentes compensan los limitados recursos, explotando las regularidades estructurales de nuestro entorno. La cuestión es si un sistema computacional más restringido, aun utilizando la misma información que un ser humano, sería un agente moral adecuado. Pero, así como los utilitaristas no están de acuerdo en cómo medir la utilidad, los deontólogos no están de acuerdo en qué lista de normas, reglas y deberes un agente moral debería seguir o aplicar.

El desafío actual es en encontrar estructuras y formatos de generación de conocimiento capaces de hacer frente a estos hitos que nos plantean problemas existenciales como especie. No es suficiente con el trabajo interdisciplinario (cuando personas de diferentes disciplinas trabajan juntas); hay que apostar por la antidisciplinariedad, proyectos que no son una suma de un montón de disciplinas, sino que crean algo totalmente nuevo y que no pertenecen a ninguna estructura establecida. La disruptividad como método. Solo así permitiremos que las interacciones entre hombre y máquina evolucionen de manera dinámica y ambos agentes se adapten el uno al otro. Será una relación simbiótica o no será. Debemos alejarnos por completo de esta confrontación hombre versus máquina. Mis experiencias tanto en el mundo más académico como en el artístico me dicen que la inteligencia artificial nos ofrece a los individuos algo más allá de un asistente o alumno: un nuevo colaborador, no un competidor.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.