Hace algo menos de una década, el investigador Hans Moravec predijo que la inteligencia de los robots sería análoga a la de los lagartos en el 2010, a la de los ratones en el 2020, a la de los monos en el 2030 y, finalmente, a la de los humanos en el 2040. El vaticinio de Moravec vendría después refrendado por los tecnócratas de los dos países que más recursos destinan a la vida artificial, Japón y Corea del Sur --el Gobierno surcoreano ya ha dicho que pretende que cada hogar tenga su propio robot dentro de unos 10 años--, quienes creen que la sociedad en la que los robots coexistan con los humanos codo con codo emergerá alrededor del 2030, dentro de 20 años.

Entonces comenzarán a verse sofisticados robots de nueva generación capaces de tomar sus propias decisiones, que formarán parte del día a día de las personas fuera de los ámbitos industriales, prestando servicios de enfermería, seguridad, domésticos o educativos. El problema es que, a diferencia de lo que ocurre en la física nuclear o la ingeniería genética, se ha reflexionado poco sobre los límites a la investigación con robots y cómo deben ser legisladas estas nuevas criaturas. Hasta ahora. Una nueva corriente de expertos quiere desarrollar criterios sobre quién regula a las máquinas, cómo se las castiga cuando infringen daños --una posibilidad que se multiplicará en el nuevo mundo robótico-- y qué estatus jurídico darles.

Lo importante, sostiene Josh Hall, científico, es dejar de fabricar de una vez robots psicópatas. ¿Robots psicópatas? De acuerdo con Hall, "si construyes inteligencia artificial sin pensar sobre su sentido moral o sin crear la capacidad de arrepentirse cuando esa máquina hace algo mal, entonces, técnicamente, esa máquina es una psicópata. Ya tenemos robots que toman decisiones de acuerdo con una serie de criterios preseleccionados, y en las áreas donde son expertos, toman buenas decisiones. Para que tomen decisiones de acuerdo a una serie ilimitada de criterios, faltan entre 10 y 20 años".

"Es posible construir una máquina que actúe de forma absolutamente fiable, como si tuviese conciencia moral, y eso es todo lo que se necesita para hacer que esas máquinas sean útiles y seguras. El resto se lo dejo a los filósofos". ¿Cómo? "La máquina ha de estar construida para que aprenda ética igual que lo hace una persona: llevará inserto un sistema moral que será su punto de partida, pero después aprenderá en base a su experiencia y a lo que observa en otras personas y máquinas",.concluye el científico.

Pasa a página siguiente