La bibliografía sobre esta cuestión es desbordante, de ahí que en principio tomemos un hilo conductor, en este caso un artículo de Catrin Misselhorn (2019) que plantea el tema en el siguiente sentido. En primer lugar, para entender que un sistema artificial puede ser un agente moral tiene que ser de algún modo fuente de autooriginante de sus acciones. Esto significa que sus acciones puedan no ser determinadas por factores externos, supongan cierta flexibilidad o estén bajo el control del agente. Y, en segundo lugar, que el agente pueda actuar “por razones”. En cuanto a ser fuente de las propias acciones, se puede apelar a dos sentidos de “originación”: uno muy exigente, es decir, que el agente actúe sin una causa anterior, o bien uno más débil, es decir, que pueda interactuar con su entorno, cambiar de estado sin un estímulo externo y adaptar su conducta a nuevas situaciones.
Ciertamente, la capacidad de cambiar de estado sin un estímulo externo se denomina a menudo “autonomía”, pero, a mi juicio, es más adecuado denominarla “independencia externa” porque entiendo que la autonomía es una capacidad más exigente que la independencia externa y está ya relacionada con el mundo moral. Pero en el contexto en que nos encontramos aceptaremos por el momento la denominación de “autonomía” tomándola en sentido funcional.
En cuanto a la capacidad de actuar “por razones”, se dice que un sistema inteligente puede deliberar sobre planes y ejecutarlos, contando con las informaciones que se le han proporcionado tanto de hechos como de finalidades. Pero no creo que sea así: lo cierto es que no delibera en el sentido humano, sino de nuevo que actúa por razones en un sentido funcional, que actúa con representaciones funcionalmente equivalentes a las de los agentes humanos. Se toman, pues estos vocablos en un sentido ingenieril, no ontológico: “como si” fueran autónomos. Las diferencias entre la agencia moral de lo seres humanos, que es una agencia moral plena, y la artificial serían las siguientes:
1.Los agentes morales plenos están dotados de creencias, preferencias, emociones morales (empatía, simpatía, culpabilidad, vergüenza), voluntad libre y la capacidad de reflexionar sobre sus razones morales, modificarlas, justificar las bases normativas de sus decisiones morales y tener en cuenta otros cursos de acción. Esto es clave para la libertad de la voluntad. La agencia moral plena se aplica potencialmente a cualquier contexto, como es propio de la inteligencia general de los humanos.
2.Los sistemas inteligentes, por su parte, limitan su competencia a un área específica de actuación, dado que gozan de una inteligencia especial. Lo cual tiene sus ventajas para su uso, porque necesitan aplicar principios morales a los casos concretos para los que pueden emplearse, como pueden ser el cuidado de ancianos, la conducción autónoma, el trato con mascotas, las prácticas sexuales o los conflictos bélicos.
Por su parte, Allen y Wallach destacan dos dimensiones en relación con los sistemas autónomos- autonomía y sensibilidad a los hechos éticamente relevantes- y hablan de tres tipos de moralidad:
1.Moralidad operacional, propia de los sistemas con autonomía y sensibilidad limitadas. En este caso, la significación moral está en manos de los diseñadores y los usuarios.
2.Moralidad funcional, atribuible a las máquinas que tienen la posibilidad de valorar y responder a los desafíos morales.
3.Moralidad genuina de las máquinas que, en teoría, será posible en el futuro, creando auténticos agentes morales, con responsabilidades y derechos comparables a los de los humanos.
Ante la pregunta sobre si pueden ser morales seres son conciencia ni emociones, llegan a la conclusión de que lo apropiado es situarse pragmáticamente en la moralidad funcional, entre la operacional y la agencia moral genuina. Los enfoques basados en el procesamiento de símbolos y en redes neuronales de cognición encarnada pueden proporcionar tecnologías que apoyen la moralidad funcional. De la genuina, en el caso de las máquinas, afirman que el futuro dirá.
En este sentido, es muy acertada la pregunta que en algún momento formulan Anderson y Anderson: imagine que está usted en una residencia de ancianos donde “trabajan” robots asistenciales. Usted quiere ver en la televisión un programa determinado, pero otro residente prefiere otro, y el robot le da el mando al segundo residente. Sin embargo, el robot también da una razón para obrar así y es que usted estuvo viendo ayer su programa favorito. Luego podríamos decir que la razón para tomar la decisión es universalizable y, por tanto, la decisión es equitativa: la equidad exige que todos puedan gozar de su programa favorito. Pero también es verdad que con esto no habríamos resuelto el problema, porque no cabe afirmar que el robot actuó de esta forma con intención consciente de hacerlo, sino que había sido programado para actuar siguiendo ese principio.
En esta línea es muy interesante la posición de autores como John Danaher al proponer que se hable de un “conductismo ético”, pero no sólo en el caso de los sistemas inteligentes, sino también en el de los seres humanos. Danaher aborda el tema de la sexualidad y cuenta cómo en 2017 se produjo el primer matrimonio humano-robot y cómo a partir de entonces ha aumentado este tipo de compromisos. ¿Los seres humanos podemos mantener una relación amorosa con robots que han sido programados para amarnos, cuando se entiende habitualmente que el amor debe ser libremente elegido, y no programado? La respuesta de Danaher es afirmativa: los robots amorosos actúan como si sintieran emociones, y no podemos traspasar la capa de la conducta llegando a la intimidad; sin embargo, esto sucede también con los seres humanos, porque en ningún tipo de seres podemos acceder a esas propiedades metafísicas que solemos aducir para atribuirles una conducta moral, es decir, a la conciencia, a capacidades cognitivas elevadas, a intereses. Lo que hacemos es inferir esas propiedades a partir de su conducta. Podríamos hacer lo mismo con los sistemas inteligentes.
A mi juicio, sin embargo, la diferencia esencial es que los seres humanos pueden reflexionar sobre su conducta a través de ese “pensar despacio” del que habla Kahneman, y entablar un diálogo con gentes cercanas a través del que pueden descubrir los móviles de su acción en el intercambio de argumentos. Con las máquinas es imposible. Y en este punto no ayuda en absoluto la IA generativa, incapaz de sacar a la luz una intención de sus “acciones”. Como muy bien apunta José Luis Mendívil, los modelos masivos de lenguaje, como ChatGPT, no entienden lo que dicen y se basan en calcular probabilidades de que una palabra ( un token) aparezca después de otra. Es la pura arbitrariedad, no tienen la menor intención comunicativa.
Pero esto no es un obstáculo para que los consideremos como agentes morales funcionalmente, sino para que los consideremos responsables de sus decisiones. La atribución de responsabilidad exigiría que pudieran actuar según el deber y por mor del deber, cosa que no pueden hacer porque carecen de autonomía, voluntad libre y conciencia. Sin embargo, sí que les atribuimos agencia moral y, por tanto, conviene dotarlos de unos principios o valores morales, que incorporarán mediante el aprendizaje profundo. Qué principios o valores transmitirles es un problema de envergadura en un mundo multicultural, en el que también conviven distintas teorías éticas.
A la hora de decidir qué tipo de ética debería programarse en las máquinas inteligentes entramos en el ámbito filosófico de una “metaética de máquinas”, porque nos interesa saber qué modelos éticos serían adecuados para construir esas programaciones.
En la amplísima bibliografía que aborda este tema podemos espigar al menos tres enfoques:
1.Un enfoque de arriba abajo, que trata de integrar reglas en los robots, presumiblemente algorítmicas y programables. Para diseñarlas se puede seguir o bien la tradición deontológica, según la cual las reglas éticas valen por sí mismas, no por las consecuencias que pueden producir, o bien la tradición utilitarista, que mide la corrección de las reglas por sus consecuencias, entendiendo por tales la utilidad que proporcionan al mayor número de seres sintientes.
2.Un enfoque de abajo arriba, propio de una ética de la virtud, al modo aristotélico, que cuenta con los contextos concretos de acción, las emociones y la experiencia.
3.Un enfoque híbrido, que operaría sobre la base de un marco de principios éticos, y lo adaptaría a contextos morales específicos, tomando en cuenta inductivamente las experiencias de esos contextos.
A mi modo de ver, el enfoque híbrido es irrenunciable, porque es necesario contar con un marco general y con la retroalimentación que procede del proceso inductivo a partir de las experiencias concretas. En el ámbito de las éticas aplicadas, es preciso recurrir al método de la hermenéutica crítica, que entiende la aplicación como un momento de la comprensión del sistema entero.
Se trataría entonces de trabajar en dos niveles estrechamente conectados entre sí: diseñar un marco, contando con teorías éticas acreditadas y, dentro de él, articular las normas y reglas adecuadas para el razonamiento, la decisión y la actuación, obtenidas a partir de las particularidades y las experiencias concretas de los afectados en ese ámbito. Como bien se ha dicho, la programación no puede ser general, válida para cualesquiera ámbitos sociales, porque los valores y las normas apropiados para una máquina que atiende al cuidado de ancianos no pueden ser los mismos que deben tenerse en cuenta para los robots militares, para los robots mascota o para las máquinas domésticas. Hay una regionalización de esferas sociales que exige particularizar las programaciones, articulándolas en el marco de la teoría general.
(Adela Cortina. ¿Ética o ideología de la inteligencia artificial? Editorial Paidós. Barcelona. 2024)