LAS LEYES DE LA ROBÓTICA DE ASIMOV Y SUS LIMITACIONES
¿Tienen sentido hoy en día las leyes de la robótica de Asimov?
La primera idea de que el ser humano debería protegerse de algún modo de las inteligencias no humanas quedó plasmada probablemente en un código moral para robots redactado por Isaac Asimov en 1942 y que aparecía en el relato Círculo vicioso (Runaround), recogido en la recopilación de relatos de 1950 Yo, Robot.
Publicidad
Las leyes de Asimov son “formulaciones matemáticas impresas en los senderos positrónicos del cerebro” del robot, según sus propias palabras, y establecen lo siguiente:
1.- Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
2.- Un robot deberá obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la medida con la primera ley.
3.- Un robot deberá proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.
4.- Más tarde, Asimov advirtió que estas sencillas normas también podrían entrar en contradicción, y añadió una cuarta, la número cero: un robot no puede hacer daño a la humanidad o, por inacción, permitir que la humanidad sufra daño.
Más que normas morales, las leyes de la robótica de Asimov son normas utilitarias, pero incluso en ese sentido se nos antojan un tanto difíciles de implementar en el mundo real, mucho más complejo que el mundo de la ficción.
En realidad, en el momento en que una IA empieza a ser autónoma (no está controlada por nadie, ni siquiera por los programadores o los creadores de la IA), las leyes de Asimov son insuficientes, como podemos observar ya actualmente en el ámbito de los coches autónomos: si la IA del coche debe proteger la vida del conductor, ¿debería atropellar a dos peatones que están justo delante porque evitarlos supondría volcar y matar al conductor? ¿Quién decide que una opción es mejor que la otra y por qué?
Siguiendo la primera ley de Asimov, la máquina entraría en un bucle irresoluble al tener que escoger entre matar directamente a un humano al girar o en dejar que mueran otros por inacción, cuando está programado para no poder hacer ninguna de las dos acciones.
Leyes asimovianas para el mundo real
En el mundo real, además, estas leyes suponen que una inteligencia artificial es como una inteligencia humana, y de momento no es así (ni sabemos con seguridad si algún día lo podrá ser). Por el momento, las inteligencias artificiales actuales son llamadas inteligencias estrechas, orientadas a realizar determinadas tareas. Las leyes de Asimov, en tal caso, puede incluso paralizar el programa de inteligencia artificial.
En consecuencia, las leyes de la robótica no deberían ser tanto para los robots como para los fabricantes y programadores de robots. Por ello, en septiembre de 2010, el Consejo de Investigación de Ingeniería y Ciencias Físicas, junto con el Consejo de Investigación de Artes y Humanidades de Inglaterra concluyeron las siguientes leyes para humanos en relación a los robots:
1.- Los robots no deben ser diseñados principalmente para matar o dañar humanos.
2.- Los seres humanos son los responsables, no los robots.
3.- Los robots deben ser diseñados de tal manera que aseguren su protección y seguridad.
4.- Los robots son objetos, no deben ser diseñados para evocar una respuesta emocional.
5.- Debe ser siempre posible averiguar quién es el responsable y dueño legal del robot.
En ese sentido, el pasado 14 de abril se reunieron en Ginebra expertos en sistemas de armas letales autónomas para debatir acerca de una legislación internacional que regule su uso, y organizaciones como Human Rights Watch han puesto en marcha una campaña contra su fabricación: Stop Killer Robots.
Con todo, la inteligencia artificial podría empezar a ser tan autónoma y versátil que quizá sí que necesitemos protegernos de ella de algún modo. Por esa razón, un grupo de intelectuales y expertos en IA, entre los que destacan Stephen Hawking, Noam Chomsky o Elon Musk firmaron un manifiesto alertando sobre los peligros de desarrollar robots diseñados para matar.
Probablemente, pues, en un futuro próximo no solo deberemos regular mediante normas y leyes a los fabricantes y programadores de máquinas inteligentes, sino también a esas propias inteligencias, propiciando el desarrollo de tratados morales más complejos, que también eviten comportamientos sexistas o racistas, como ya hace The British Standards Institute (BSI) en Robots and robotic devices. Guide to the ethical design and application of robots and robotic systems.
Publicidad