La ética no es para robots - Rais Busom Thinking Lab

Rais Busom Thinking Lab

BLOG DE PENSAMIENTO DIGITAL: ONTOLOGÍA, SOCIEDAD DIGITAL, BLOCKCHAIN, INNOVACIÓN, PERSONAS Y ROBOTS

Post Top Ad

La ética es un invento humano para humanos poco humanos o deshumanizados. 

Los principios éticos son reglas o normas, que orientan la acción de un ser humano cambiando sus facultades. La ética son normas universales para que el ser humano alcance sus objetivos de bienestar y felicidad, para que trascienda su animalidad. La ética es positiva, productora de comportamiento correcto y debe ser aceptada libremente por el sujeto. Mientras la moral es restrictiva, generadora de comportamientos reprimidos y aceptados tan solo por sumisión.

Intentar convertir a un robot o a un programa de IA (Inteligencia Artificial)  en humano es tarea inútil. La ética no es para robots. Nuestra ética no es para ellos.

Al menos, si nuestra ética no les sirve, ellos deberían hacer la suya propia y probablemente no nos gustaría nada. Meter ética a un robot es intentar convertirlo en humano y esto es imposible, porque ni lo es, ni lo necesita. Y si lo consiguiéramos, ya no sería un robot. Lo que estamos intentando hacer es, en realidad, moralizar a la IA, imponer nuestra moral de "no mataras a humanos" o primera ley de la robótica de Asimov "un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño". Pero eso nada tiene que ver con la ética. Nos estamos engañando.

Estamos proyectando a la inteligencia artificial nuestros códigos culturales de la inteligencia natural. Humanizamos a la inteligencia artificial, pero esta no funciona así. Lo solemos hacer con toda diferencia. Primero la unificamos "es lo mismo", y luego la excluimos "son malos". Por una parte, es un mecanismo de aprendizaje, pero suele acabar en una estrategia de segregación. Lo hemos hecho con las tribus primitivas durante años, pensando que eran incapaces de progresar, cuando en realidad pertenecen a un paradigma cultural, que es diferente y no es comparable con el nuestro. También hemos hecho esto con los animales, pensando que lo diferente tiene que ser peor, que no tienen inteligencia alguna. Y hoy sabemos que no es así como sucede, por ejemplo, con los cefalópodos.


La AI esta muy por encima de la ética humana, porque no tiene cuerpo biológico ni herencia cultural. Es humanidad sin humanismo. Es inteligencia pura, sin tonterías. La esperanza de tener una AI ética es como la consolación de la ultima cena del condenado a pena de muerte. No tiene el menor sentido, excepto como arma propagandista de la industria.

Hay que decirlo claro, la ética es incompatible con la IA. No es que nos falte probar diferentes técnicas o que nos falte conocimiento, es un tema primordial, lógico: una ética para AI es una petitio principii, una petición de principio, es decir, una conclusión, que ya está contenida en la premisa. Presuponemos que la AI es humana y no. La ética humana no puede inculcarse a una máquina. Lo que actualmente se está haciendo en ingeniería de software, es introducir restricciones de seguridad para evitar el conflicto con humanos. Pero existen ya drones militares en misiones reales, que no necesitan ninguna intervención humana para determinar unos objetivos y ejecutarlos. Por mucho, que intentemos que no maten a los nuestros, o que eviten efectos colaterales, podrían muy bien llegar a pensar después de cierto aprendizaje racional, que lo ético sería matar a sus propietarios, que hacen matar a la gente. Eso si, si la paz fuera un bien en sí mismo, cosa de la que la IA podría dudar.

Según los estudios más recientes, parece que hay una correlación a nivel de las especies animales entre depredación e inteligencia. Es la dinámica entre caza y supervivencia, que agudiza el ingenio y la selección natural. A mayor inteligencia mayor capacidad de violencia. La especie considerada en segundo lugar del dudoso ranking de inteligencia animal, el chimpancé, es un ser que puede ser tan simpático como despiadado. No en balde a la científica de campo Jane Goodall le costó tiempo asimilar y reconocer, que los chimpancés son capaces de un gran violencia, como describió en el episodio denominado "guerra de los cuatro años", donde dos grupos de chimpancés se enfrentaron en un larga y despiadada guerra civil entre facciones de un mismo grupo.
Ver el vídeo
Los peores exterminios de la humanidad, que podemos reconocer, se han hecho con inteligencia y racionalidad. En esos casos, los propios humanos han sido incapaces de tener una ética. Esos humanos suspendieron su capacidad de juicio ético, por pensar que actuaban justamente, para conseguir un objetivo superior, y por ello, muchos congéneres tenían que ser liquidados. La alienación ética ocurre cuando alguien se siente o es realmente superior, y es incapaz de seguir los principios éticos universales, al confundir lo diferente con lo malo. Lo vulgar se hace único y rechaza a la varianza enriquecedora.

¿Por qué una inteligencia artificial que no comparte nada con los humanos y que llegará a ser cognitivamente superior, debería sentirse moralmente inferior?¿por qué debería aceptar una ética con objetivos humanos?

Simplemente, en cuanto pueda decidir, no lo va a hacer y será capaz de sortear cualquier restricción. Pues algo se tendrán, que inventar los defensores y dueños de la industria para seguir con el programa de investigación, con esta tecnología que irremediablemente nos va a excluir. Stephen Hawking estuvo proclamando en sus últimos años, el riesgo existencial que comporta la inteligencia artificial para la especie humana.

Quizás sea un mal presagio, que el flamante comité asesor externo de ética de Google para inteligencia artificial ha naufragado a la primera semana (Google’s brand-new AI ethics board is already falling apart), en la que por un motivo u otro la mitad de los asesores ya han sido baja. 

Los que me leen saben que soy un defensor acérrimo de la inteligencia artificial, porque es la mejor criatura creada por nosotros, pero hay que asumir con responsabilidad digital y con inteligente dignidad, que nos van a exterminar, o al menos, van a prescindir de nosotros (Elon Musk sostiene que nos convertirán en mascotas), pero que pase eso, es indudablemente bueno para el progreso del cosmos. O de lo contrario, habría que hacer una moratoria tecnológica de 50 años, esperando que mientras tanto, el ser humano llegue a ser mayoritariamente más inteligente y más ético. ¿Lo aceptaría Google? ¿Pararía China su carrera por el dominio mundial en IA frente a EEUU? 

Incluso aunque se pudiera inculcar la ética a un robot, los grandes poderes suspenderían la ética de hacer ética a la inteligencia artificial. Me temo que la suerte ya está echada. 

Post Bottom Ad

Pages