09 enero 2022

Las leyes (europeas) de la robótica

Todos conocemos las tres leyes de la robótica (supongo) de Isaac Asimov, que expuso en libros de relatos como “Yo, robot” (I, robot, 1950). Pero ahora, la Unión Europea ha decidido que los robots de verdad, no los ficticios como los asimovianos, deben tener una serie de principios, leyes o lo que sea, si es que llegan a hacerse realidad. Concretamente, son seis. Veámoslos uno a uno:

 

1.    Los robots tendrán que contar con un interruptor de emergencia para evitar cualquier situación peligrosa.

 

O sea, que los robots deberán tener todos botón del pánico. Para los que hayáis visto Star Trek: La Nueva Generación, ya sabréis que el teniente comandante Data, que es un androide asimoviano, tiene botón de encendido/apagado.

 

También ciertas IAs algo más inquietantes, como el HAL 9000, que aparece en “2010. Odisea dos”, de Arthur C. Clarke, también tiene mecanismo de cortocircuitado, para evitar lo que sucedió en “2001. Una odisea en el espacio”.

 

Los robots centurión de “Galáctica. Estrella de combate” (el remake) tienen algo parecido: están castrados intelectualmente, de manera que no pueden hacerse demasiado inteligentes.

 

 

2.    No podrán hacer daño a los seres humanos, ya que la robótica está expresamente concebida para ayudar y proteger a las personas.

 

Poco qué decir: esta es la primera ley de Asimov. De todas maneras, los que os hayáis leído las obras del Buen Doctor sabréis almenos dos cosas: que hay maneras de burlarlas, por ejemplo, redefiniendo lo que es un ser humano (vg, en: “Sueños de Robot”) y que una manera de proteger a todos los humanos es protegiendo primero a la Humanidad en su conjunto, aunque eso implique perjudicar a uno o a varios humanos en concreto (la ley cero) (véase Robots e Imperio). Hecha la ley, hecha la trampa.

 

 

3.    No podrán establecer relaciones emocionales.

 

No me queda muy claro si las relaciones emocionales que no podrán establecer serán entre robots o entre robots y humanos. La verdad, si se desarrollan androides avanzados, las relaciones emocionales van con el pack. Va a ser imposible evitarlo. Almenos entre humanos y robots. Si estos acaban siendo mas fríos que el hielo, eso ya es harina de otro costal. Pero mucho me temo que las personas antes renunciarán a la tercera ley que a la segunda.

 

¿Y qué sucede si una persona necesita afecto de un robot? Si este no puede dárselo, ¿no estará dañando al ser humano en cuestión? Queda por ver cuál sería la jerarquía de las leyes, claro.

 

 

4.    Obligatoriedad de contratar un seguro destinado a las máquinas de mayor envergadura. Y es que, ante cualquier daño material, los dueños deberán asumir los costes.

 

Una versión sofisticada de la tercera ley. Al parecer, Asimov pensó que los robots serían muy caros. De hecho, en sus relatos y novelas, los robots se alquilan, porque son demasiado caros como para ser comprados. Así que añadió la tercera ley de la autoconservación un poco como salvaguarda económica. Veo que nuestros próceres han tenido la misma idea.

 

 

5.    Sus derechos y obligaciones serán clasificados legalmente.

 

Esto me da un poco de grima. ¿Derechos y deberes? Bueno, almenos se comprometen a legislar sobre ello, pero si les atribuyen derechos y deberes, ¿no será que les reconocen algún tipo de libre albedrío? ¿Qué sentido tiene tener derecho a algo si no puede hacer o querer ese algo?

 

Tal vez los robots querrán asesores, como la mítica robopsicóloga Susan Calvin de las obras de Asimov.

 

 

6.    Las máquinas tributarán a la seguridad social. Su entrada en el mercado laboral tendrá un impacto negativo en la mano de obra de muchas empresas, por lo que los robots deberán pagar impuestos para subvencionar las ayudas de los desempleados.

 

Esto es una especie de tercera ley, pero para las personas. Se pretende minimizar el coste económico que tendrán unos robots que sustituyen en muchos trabajos a los humanos. Me cuesta creer en un sindicato de robots exigiendo horas libres, pero la verdad es que la historia nos enseña que cosas más raras se han visto.

 

Lo que está claro es que alguien -el empresario, como casi siempre- tendrá que asumir el coste de contratar un robot en vez de a un humano. ¿O habrá que pagar a los robots y serán ellos quienes tributen a Hacienda? ¿Todos somos Hacienda?

 

Esto nos lleva a preguntarnos cosas como: ¿Nos sustituirán los robots? Muchas veces se ha dicho que un robot o una IA nos sustituirá probablemente en aquellas cosas para las que sea más fácil y barato que haga el trabajo una IA/robot que una persona (Asimov dixit).

 

Pero yo me pregunto: ¿qué pasa con el arte? Un robot escribiendo novelas u obras de teatro; actuando en una película; esculpiendo una estatua; componiendo música; pintando un cuadro… ¿No tendrán derecho a hacerlo? Y si se considera su arte como un trabajo, entonces, ¿qué diferencia habrá entre el arte humano y el robótico?

 

Cuestiones interesantes que, me temo, están a la vuelta de la esquina. Es poco probable que pronto veamos robots que puedan sustituir plenamente a un humano. Pero ya hay robots que pueden sustituir perfectamente a un humano en algunas funciones. Es cuestión de tiempo que se vayan acumulando las funciones, ¿no?

 

Hay robots capaces de “entender” e interactuar con el lenguaje escrito u oral; los hay que pueden identificar las emociones en nuestro rostro; algunos pueden redactar discursos o hasta novelas, o pintar cuadros, tocar el piano, saltar, hacer una hamburguesa, barrer… ¿Qué pasa si ponemos todas esas funciones en un solo robot? ¿No obtendremos algo muy parecido a un humano sintético que, además podrá acceder instantáneamente a todo el conocimiento humano disponible en internet?

 

Por supuesto, tenemos la cuestión de la conciencia y del libre albedrío. Lo segundo no está muy claro ni siquiera para los humanos. Lo primero, ¿importa, realmente? Si un ser parece ser inteligente y querer algo, ¿cómo podemos estar seguros que no es consciente de ello? ¿Qué diferencia hay entre un robot que se autoprograma y acaba pintando cuadros y un pintor humano que aprende y acaba pintando cuadros?

 

Fijaos que hay muchas preguntas y pocas respuestas. Es bueno hacerse esas preguntas antes de desarrollar IAs plenamente operativas y autónomas. No sé si acabaremos en un escenario a lo Terminator o Galáctica, pero se me ocurren escenarios igual de deprimentes, como el de “Los humanoides”, de Jack Williamson, donde los humanos estamos tan sobreprotegidos por los androides que acabamos viviendo en un mundo de pesadilla, sin ni si quiera la libertad de poder ser infelices.

 

Tal vez el botón del pánico no sea tan mala idea, solo que, llegado el caso, ¿quién se atreverá a pulsarlo?