3 Leyes para una IA #S02E08


¿Qué dicen las leyes de la robótica?¿Son aplicables a una inteligencia artificial? ¿Podemos hacer que una IA nos proteja?

Las leyes de la robótica

Las tres leyes de la robótica:

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño

  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.

  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Con un par de vueltas a las leyes, vemos que en cuanto fuerzas a que alguna no se cumpla aparecen problemas adicionales.

De estos problemas, se formuló lo que se llama la ley cero:

Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño

¿De dónde han salido estas leyes de la robótica?

Se considera que el creador de estas leyes fue el escritor y profesor de Bioquímica Isaac Asimov (aunque este a su vez se las atribuye a John W Campbell). Se puede entender, que empezamos mal: que estamos usando unas leyes que han creado un par de simples escritores, pero no es así. Se les ha dado cierto crédito, básicamente, porque muchas de las predicciones, teorías e ideas de Asimov en sus libros, o se han cumplido, o a día de hoy siguen siendo como factibles para un futuro no muy lejano.

¿Una IA cumpliendo leyes?

Para mi el problema fundamental, no es tanto el hecho de si estas leyes funcionarían o no, sino de cómo podríamos imponérselas a una IA.

La raíz del problema, es quien pretende imponer ciertas leyes o prohibiciones, considera que una IA funciona a partir de un programa, o un código que ha escrito alguien, cuando, en realidad, ese código se genera a partir de una entrenamiento concreto, desconociendo cómo funciona el programa internamente.

Si algo se sabe del tema del Machine y Deep Learning, es que no son efectivos al 100%. No tienen una fiabilidad absoluta.

ANI, AGI, ASI y las leyes

Para explicarlo con más detalle, vamos a ir viendo cada tipo de IA y viendo que se puede o no hacer.

ANI

El problema que tenemos con este tipo de IA, es que no tiene ningún tipo de consciencia y además solo sabe razonar en un campo muy determinado: muy estrecho. Por tanto, una ANI no es compatible con establecerle unas normas, sobre algo que no es su propio campo de actuación.

AGI

El problema: antes de tocar lo que sería la Singularidad en sí misma, el sistema no tendría la capacidad suficiente para poder entender las leyes. Es decir, podría tener cierta voluntad de cumplir unas leyes establecidas, pero no sabría cómo cumplirlas. Es lo que hablamos: comparando en términos “humanos” sería como un niño de 4 años.

ASI

Una vez alcanzada la Singularidad, el problema que tendríamos es que el crecimiento de esa inteligencia sería exponencial. En horas sería varios órdenes de magnitud más inteligente que nosotros, y como creo que es obvio, no tiene porqué atender a nuestras exigencias. Del mismo modo que creo que no nos consideraría ni una triste amenaza, tampoco tiene por qué velar por nosotros. Creo que es fácil de entender si nos la imaginamos como una especie distinta a la nuestra:

Conclusión

Para mi el problema no es tanto la idea de si una IA puede o no cumplir las leyes de la robótica, como plantean los medios, sino más bien si pueden cumplir unas leyes que les establezcamos nosotros.

Desde mi punto de vista, y esto ya es personal, creo que no va a ser posible. Creo que como ya he comentado en otros vídeos, tendremos que acabar considerándolas como otra especie con la que convivir, y a la que podremos pedirle que nos eche una mano.

Fuentes

https://es.wikipedia.org/wiki/Tres_leyes_de_la_rob%C3%B3tica
https://es.wikipedia.org/wiki/John_W._Campbell
https://es.wikipedia.org/wiki/Isaac_Asimov
http://www.teknlife.com/noticia/las-leyes-de-la-robotica-que-quieren-los-expertos-en-inteligencia-artificial/

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

To create code blocks or other preformatted text, indent by four spaces:

    This will be displayed in a monospaced font. The first four 
    spaces will be stripped off, but all other whitespace
    will be preserved.
    
    Markdown is turned off in code blocks:
     [This is not a link](http://example.com)

To create not a block, but an inline code span, use backticks:

Here is some inline `code`.

For more help see http://daringfireball.net/projects/markdown/syntax