02 noviembre 2020

Confundiendo la realidad

Hace unos días, en un partido de fútbol, una cámara guiada por inteligencia artificial confundió el esférico, vaya, el balón de toda la vida, con el cráneo calvo de un árbitro y se perdieron algunas jugadas centrales del partido para los televidentes.

 

La cosa parece de chiste, pero es estrictamente cierta. Concretamente sucedió en un encuentro en casa del Inverness Caledonian Thistle FC, un equipo escocés de fútbol, quien anunció hace unas semanas a bombo y platillo que las cámaras instaladas en su campo ya no requerían de personal humano para su manejo.

 

Claro, sustituyes personas por IAs y después pasa lo que pasa. Supongo que es cuestión de tiempo que mejoren el algoritmo, pero hay cosas que mejor dejarlas en manos humanas.

 

Asimov, el gran apóstol de los robots inteligentes, decía en uno de sus ensayos científicos que el criterio para saber cuándo algo lo tenía que hacer un humano o una IA era básicamente el precio.

 

La cosas han evolucionado mucho desde que dijo eso y tal vez hoy no estaría totalmente de acuerdo, pero aunque es posible crear un algoritmo que imite los textos de Asimov, no es tan sencillo crear uno que los haga creíbles.

 

Vaya, que entrenar una máquina para que consulte una biblioteca, pongamos de Astronomía, escoja un tema y escriba un ensayo de manera inteligible para la mayor parte de la gente no es imposible, pero es más barato contratar a un escritor por unos cuantos euros. Será más rápido, más barato y más auténtico.

 

En cambio, un robot que inspeccione el reactor de una central nuclear, seguro que tiene mucho más sentido que una persona ataviada con un costosísimo traje de protección. Aquí combinamos coste y seguridad (aunque no estoy muy seguro que lo segundo importe tanto a algunas personas).

 

Pasa un poco como con los coches de conducción automática. ¿De verdad queremos dejar en manos de algoritmos nuestra seguridad? Es posible que sean estadísticamente más seguros que la conducción humana, pero la estadística no lo es todo. También es una cuestión ética. ¿Qué decisión tomará nuestro coche inteligente entre dos opciones igual de plausibles de accidente? ¿A quién sacrificará? Y, sobre todo, ¿quién tendrá la responsabilidad última del accidente?