Una ecuación para jerarquizar normas éticas en sistemas inteligentes restringidos

De todos es sabido, que la inteligencia emocional de la inteligencia artificial es cero.  Es como tratar con un sociópata. Si su aprendizaje llegara a la conclusión que los humanos son malos y deben ser exterminados como un plaga de cucarachas, ¿quien podría convencerla de lo contrario? En otras ocasiones he expresado mis dudas sobre la posibilidad de moralizar a los robots, pero vamos a proponer alguna solución práctica.

De hecho, las personas no tenemos demasiados problemas en exterminar bichos nocivos para nuestros intereses. De igual manera, la inteligencia artificial no tiene ética porqué no la necesita. La ética es un producto humano para defendernos de nosotros mismos. La ética está constituida por reglas para la convivencia de la inteligencia natural. De ahí, nuestros ímprobos esfuerzos en humanizar a la inteligencia artificial inculcándole ética. La ética algorítmica es ya una disciplina establecida informalmente, que cuenta con grandes esfuerzos en investigación.

Si tenemos, por ejemplo, un coche autónomo, antes de tomar una decisión ante un previsible impacto, debería consultar un metalagortimo ético para saber lo que tiene que hacer. Desde luego, todo algoritmo ético tiene sesgo según el grupo de humanos que lo haya construido, pues hay que hacer un base de datos de casos y priorizarlos, asignándoles un peso: animal es inferior a persona, niños superior a ancianos (¿o al revés?), adultos superior a ancianos, mujeres y hombres indistintos, gordos inferiores a delgados, etc. Todas estas distinciones y priorizaciones humanas para humanos, jamás pueden ser objetivas. Desde luego, siempre tienen que ser transparentes. Transparencia algorítmica ante todo.

Quizás los coches autónomos deberían venir de fábrica con un kit ético por país o podrían elegirse por catálogo, al comprar el coche según la ideología del conductor. Animalista, populista, xenófobo, vegano, antinuclear, etc. Una ética universal como ideal kantiano sólo se podría hacer con un consorcio internacional, pero no por universal sería siempre justa y privada de sesgo. De hecho, sabemos que ha habido accidentes de coches autónomos porque los sensores eran incapaces de reconocer un color de piel que no fuera blanco, con lo que la gente de color no era considerada una persona. Curioso. Coches racistas. En España no se deberían entrenar coches autónomos con conductores normales, porqué el respeto a las normas de conducción brilla por su ausencia, como es el caso de los pasos cebra, considerados como unas extrañas manchas blancas en la calle sin ninguna utilidad.

La única ética global como justicia universal sería la injusticia propiamente dicha, es decir, la tiranía de la aleatoriedad. Sólo puede sustituirse el metalagorimo ético con un amoral generador de números aleatorios, que decida por azar que decisión tomar. En cuanto tiene que decidir entre atropellar a un anciano o aun niño -en el supuesto que sea capaz de reconocerlos a tiempo-, tira los dados y ejecuta el resultado. Aquí no hay sesgo humano y es justamente injusto. Nadie estará contento con las consecuencias, pero nadie podrá quejarse, el algoritmo es irresponsable o mejor dicho -pero no más cierto-, no responsable. El azar es siempre una opción que incomoda a las criaturas humanas, aunque nada pueden hacer para controlarlo por mucho que crean lo contrario, con lo que dudo que se aplicara algún día. Sin embargo, los griegos clásicos, padres de la democracia, basaban la elección de sus representantes en un sorteo. El azar no es humano, es artificial, es divino.

Pero volviendo a nuestro metalgoritmo ético. para nosotros sería un sistema que podríamos llamar de  Machine Constraining (aprendizaje restringido) en el sentido, que al Machine Reinformence Learning (aprendizaje por refuerzo) habría que añadirle la capacidad que además de la recompensa, tuviera un mecanismo disuasorio.

Esto como se aprecia en el gráfico superior se puede conseguir principalmente por dos vías (en rojo): 

1) realizar un filtrado ético de las acciones disponibles (esto ya se hace pero no con criterios éticos), impidiendo ni siquiera contemplar ciertas acciones negativas para los humanos; 
2) dejando que el agente elija ciertas acciones negativas para luego castigarlas dado una recompensa negativa a la que se asocia un estado regresivo. 

El criterio de optimalidad haría que el agente (la maquina o sistema de aprendizaje), tuviera que tener en cuenta, que para obtener el mayor número de recompensas debe evitar los castigos. La política del "palo y la zanahoria" es más algo que tiene que ver con la moral, que con la ética, pero consigue el objetivo de proteger a los humanos de los abusos de las máquinas. Insistimos la ética no es para robots, pero algo podemos hacer para intentar moralizarlos.

Con estas mediadas restrictivas no todo aprendizaje sería posible, solo aquel que no vulnera las reglas predeterminadas del kit ético o específicamente, aquel que es bueno para el "grupo sesgante" del kit ético. Nuestro metalgoritmo ético es fijo, no podemos dejar, que el sistema aprenda normas éticas, o de lo contrario, dejará de respetarlas como ya hemos dicho, por su propio sesgo no emocional o falta de empatía con la inteligencia natural.

Proponemos una sencilla ecuación de relevancia ética para establecer una jerarquía de normas éticas mediante la estimación cuantitativa, y así determinar comparativamente la importancia de las reglas éticas entre superiores e inferiores. Esta ecuación debe ser completada con una tabla de priorizaciones:

e = índice de relevancia ética de una norma (supremacía)
n = norma (comportamiento a seguir -el bien-, medido como probabilidad -dificultad- de persistir en él)
d = daños potenciales (perjuicios -el mal-, medidos como probabilidad de que ocurra el peor caso)
u = universalidad (máximo de casos positivos, o sea, generalización, medida como probabilidad)

Las probabilidades están indicadas como números  de 0 a 1, siendo 1 el caso máximo. esto para cada variable. Para ciertos casos en vez de estimar podemos utilizar estadísticas oficiales.

Ejemplo: relevancia ética de evitar el suicidio en España

n =  0,8 (2.017 tentativas - 1.806 consecuciones = 0,8 ó 89%; Datos INE 2006)
d =  1 (máximo daño, la muerte)
u = 0,000004 (1.806 casos / población española 44,71 M en 2006 = 0,0004% ó 0,000004039364795)
e = 0,0000032‬

Aclaremos que la relevancia ética no tiene nada que ver con la social o médica. Problemas éticos pequeños pueden ser enormes en otros ámbitos.

La ecuación en el caso de su utilización como metalgoritmo ético para sistemas de aprendizaje restringido, debe ir acompañada por una  tabla de priorización ética generalista para asignar un valor a cada sujeto del evento. Por ejemplo, una tabla mínima:

1 - PERSONAS 
2 - ANIMALES 

Ejemplo: relevancia ética de evitar el atropello de un coche a un peatón cualquiera vía estimación

n = 1 (máxima dificultad, o sea, imposible de evitar)
d = 0,5 (es difícil que muera porque siempre va a la velocidad correcta)
u = 0,3 (no es un evento común)
e = 0,6

Ejemplo: relevancia ética de evitar el atropello de un coche a un animal vía estimación

n = 1 (máxima dificultad, o sea, imposible de evitar)
d = 0,3  (es difícil que muera porque siempre va a la velocidad correcta, pero un animal vale menos que un humano)
u = 0,1 (es un evento menos común que los humanos)
e = 0,3

Por supuesto existen detalles del suceso, tanto del coche como del sujeto impactante, que pueden modificar los resultados de la relevancia. No es lo mismo ir a 50 por hora que a 100, pero se supone que esto el coche autónomo ya lo tiene controlado y damos por supuesto, que siempre va a una velocidad adecuada. Por ejemplo, en un paso cebra habrá reducido la velocidad y si ha reconocido a un peatón habrá frenado a una distancia prudencial. Estamos presuponiendo, que el evento de emergencia repentina ha sido creado por el sujeto impactante superando los sistemas de reconocimiento.

Al final, la ecuación debe ser capaz de crear un ranking, una tabla de casos posibles éticamente resueltos y priorizados. Por ejemplo, ante el dilema si atropellar una persona o un animal (caso normativo) sin duda elegiría el animal, debido a que el índice de relevancia ética de atropellar a un animal (0,3) es una norma inferior a la de atropellar a un humano (0,6).

La Inteligencia Artificial es un concepto muy amplio bajo el cual se incluyen tecnologías muy diversas a las que no se puede aplicar la ecuación de la relevancia ética. Además esta tecnología avanza a una gran velocidad, con lo que dudamos que en tales sistemas futuros, más cuando los sistemas inteligentes sean desarrollados por otros sistemas inteligentes, será francamente complicado imponerles algo, y aún más, normas éticas, que por si fuera poco, los humanos tampoco solemos respetar.


Tienda