Los Robots y la Ética


Los robots no dejan de inquietarnos porque todos en el fondo tememos que cuando nos superen y adquieran poder de decisión lo primero que harán será aniquilarnos.

Sin embargo supuestamente son fabricados para que nos ayuden, y para que todos puedan tener uno en función a sus necesidades.

Ya existen robots que hacen innumerables funciones, manejan aviones, limpian casas y desempeñan gran cantidad de tareas en fábricas; son comunes en el mundo del espectáculo y ya fue construido el primer robot con un programa que incluye principios éticos.

Un robot podría ser un buen auxiliar para personas de edad avanzada si pudiera tomar decisiones autónomas basadas en principios éticos.  Una  máquina con inteligencia artificial, podría inferir principios éticos mediante deducciones lógicas de situaciones cotidianas concretas; pero para un robot esa es una tarea muy difícil , porque para programarlo hay que prever todas las respuestas para todas las situaciones posibles que se le pueden presentar en su trato con humanos y lo ideal sería que fueran capaces de tomar decisiones éticas en situaciones nuevas e imprevistas.

Creo que si los robots llegan a actuar en forma ética y tomar decisiones con esos principios, habrán logrado ser mejor que muchos humanos que actúan sin tener en cuenta ningún código ético. Tendrán la inocencia de un niño pero con una inteligencia superior y como no tienen necesidad de especular, no se cansan, no comen, no necesitan vacaciones ni obtener ganancias, serán mucho más confiables, más lógicos y más coherentes que los humanos, quienes deberán adoptar una filosofía basada en la ética si desean competir en las mismas condiciones.

El problema que se les presenta a los programadores de robots es cuáles serían estos principios éticos.

Isaac Asimov, enunció tres leyes de la robótica que fueron incluidas en su obra “Yo, robot” ya en 1950.

1) un robot no debe hacerle daño a un humano o dejar que sufra un daño por falta de acción.

2) debe obedecer las órdenes que le da un humano salvo que esas órdenes impliquen contradecir la primera ley, o sea hacer daño a un humano o que sufra un daño por falta de acción.

3) debe protegerse a si mismo a menos que dicha protección implique contradecir las leyes una y dos, o sea que dañe a un ser humano o lo haga sufrir un daño por falta de acción o que implique desobedecer sus  órdenes.

Sin embargo el cumplimiento de estas tres leyes en ocasiones puede ser impracticable.

La ética y los valores no son cuantificables sino que son elementos abstractos que tienen muchas dimensiones; de modo que tratar de programar un robot para que tenga comportamiento ético parece ser un objetivo imposible.

En cuanto al factor emocional, es el elemento que generalmente hace ignorar al ser humano su código ético.

Sin embargo, es probable que algún día no muy lejano se lleguen a construir robots con la capacidad de actuar de manera imparcial, lógica, ética y que además pueda considerar también en sus decisiones las emociones.

Fuente: “Investigación y Ciencia”, edición española de Scientific American, “Ética para robots”, Michael Anderson y Susan Leigh Anderson, diciembre 2010