Hace algo menos de una década, el investigador Hans Moravec predijo que la inteligencia de los robots sería análoga a la de los lagartos en el 2010, a la de los ratones en el 2020, a la de los monos en el 2030 y, finalmente, a la de los humanos en el 2040. El vaticinio de Moravec, que trabaja en el Instituto de Robótica de la universidad norteamericana de Carnegie Mellon, vendría después refrendado por los tecnócratas de los dos países que más recursos destinan a la vida artificial, Japón y Corea del Sur --el Gobierno surcoreano ya ha dicho que pretende que cada hogar tenga su propio robot dentro de unos 10 años--, quienes creen que la sociedad en la que los robots coexistan con los humanos codo con codo emergerá alrededor del 2030, dentro de 20 años.

Entonces comenzarán a verse sofisticados robots de nueva generación capaces de tomar sus propias decisiones, que formarán parte del día a día de las personas fuera de los ámbitos industriales, prestando servicios de enfermería, seguridad, domésticos o educativos. El problema es que, a diferencia de lo que ocurre en la física nuclear o la ingeniería genética, se ha reflexionado poco sobre los límites a la investigación con robots y cómo deben ser legisladas estas nuevas criaturas. Hasta ahora. Una nueva corriente de expertos quiere desarrollar criterios sobre quién regula a las máquinas, cómo se las castiga cuando infringen daños --una posibilidad que se multiplicará-- y qué estatus jurídico darles.

Lo importante, sostiene Josh Hall, científico y autor del libro Más allá de la inteligencia artificial: Creando la conciencia de una máquina (inédito en España), es dejar de fabricar de una vez "robots psicópatas". ¿Robots psicópatas? De acuerdo con Hall, "si construyes inteligencia artificial sin pensar sobre su sentido moral o sin crear la capacidad de arrepentirse cuando esa máquina hace algo mal, entonces, técnicamente, esa máquina es una psicópata. Para que tomen decisiones de acuerdo a una serie ilimitada de criterios, faltan entre 10 y 20 años".

"Es posible construir una máquina que actúe de forma absolutamente fiable, como si tuviese conciencia moral, y eso es todo lo que se necesita para hacer que esas máquinas sean útiles y seguras --continúa el científico--. El resto se lo dejo a los filósofos". ¿Cómo? "La máquina ha de estar construida para que aprenda ética igual que lo hace una persona: llevará inserto un sistema moral que será su punto de partida, pero después aprenderá en base a su experiencia y a lo que observa en otras personas y máquinas".

ALGORITMOS DE APRENDIZAJE Carme Torras, investigadora del Institut de Robòtica CSIC-UPC lo explica de otra manera: "Existen una serie de algoritmos, llamados de aprendizaje por refuerzo, que hacen que, cuando el robot actúa frente a estímulos, reciba del entorno una realimentación que en el futuro favorezca o penalice que vuelva a actuar de la misma manera".

Cuando un robot causa un daño, como ocurrió hace un par de años en Suráfrica, donde una máquina del ejército tuvo un fallo y acabó con la vida de nueve soldados, la responsabilidad puede ser de quien ha fabricado la máquina o de quien la ha manipulado. El especialista en ética robótica Michael Nagenborg ha escrito que en casos como este "el dueño del robot tendrá que probar siempre su inocencia. Por ejemplo, puede ser considerado inocente si actuó de acuerdo con las instrucciones del diseñador. En este caso, sería el diseñador quien tendría que asumir la responsabilidad del daño". No obstante, hay quienes consideran que es este un planteamiento simplista para encarar la coexistencia entre humanos y robots que comenzará a darse en breve.

Sin embargo, Hall considera que habrá casos complicados. "En ocasiones, con los humanos, es complicado decidir si la responsabilidad de determinado acto es de los padres o de los niños.

Lo que planea sobre todas estas cuestiones, en el fondo, es qué tipo de estatus jurídico tendrán los robots del futuro. "Hay investigadores que abogan por que los robots sean considerados una especie autónoma --señala Carme Torras--. No estoy de acuerdo. Creo que han de ser considerados como una herramienta para los humanos. De lo contrario, podrían convertirse en un peligro".