¿ Nos gobernarán algún día las máquinas?

Por: flickr.com/photos/bippix/6886658738/

Matrix ya lo advirtió. Y también Terminator.

Quizá pueda parecer muy exagerado, pero si esas películas nos llaman la atención es porque hay un miedo dentro de nosotros.

¿Es un miedo justificado?

En el tiempo que llevo de vida, los avances de la tecnología han sido espectaculares. Pero si hay un campo en el que todo haya avanzado inmensamente es el de las computadoras.

Cuando yo era pequeño las computadoras eran armarios inmensos con una capacidad de procesamiento que ahora nos parece ridícula. Ahora pasa todo lo contario, aparatos muy pequeños tienen una capacidad enorme.

Pero posiblemente lo que más no inquieta son los progresos en inteligencia artificial.

 

La evolución en la inteligencia artificial.

 

En su fascinante charla en TED.com  Nick Bostrom  habla del cambio de paradigma que se ha producido en los últimos años en inteligencia artificial. Antes la inteligencia artificial consistía en introducir datos para conseguir que las computadoras aprendieran de ellos. Ahora se trata de crear algoritmos que tengan la capacidad de aprender de datos que no les han sido introducidos.

Con ese cambio, las posibilidades que se abren son muy grandes. Además al igual que el cerebro de un hombre es físicamente parecido al de un simio pero capaz de hacer muchas más cosas, un ordenador con alguna modificación física pequeña podría tener un rendimiento mucho más elevado que un ordenador actual.

 

Por: flickr.com/photos/legoalbert/8868875680/

¿Cuándo alcanzarán las máquinas a los hombres?

 

“Es muy difícil hacer predicciones, especialmente sobre el futuro” decía  Nils Bohr. Pero según Nick Bostrom a la pregunta de “¿cuándo consideras que hay un 50% de posibilidades de que las máquinas alcancen la capacidad mental de los seres humanos?”, la respuesta de los expertos es que alrededor del año 2050.

35 años y las máquinas podrían pensar igual que nosotros. ¿De verdad no tienes miedo de Matrix?

La gran diferencia entre las máquinas y nosotros es que el potencial crecimiento de su inteligencia es prácticamente ilimitado. No tienen que estar dentro de los límites físicos de un cráneo y sus materiales se pueden actualizar sin problema.

Una vez que un ordenador sea capaz de pensar como un ser humano normal, el tiempo que falta hasta llegar a la capacidad de un genio es muy pequeño. Aunque a nosotros nos parezca que hay grandes diferencias entre los seres humanos, la diferencia es muy pequeña en comparación con la que diferencia que hay entre un ser humano y con otros animales.

Nick Bostrom lo compara a un tren en movimiento. Si la inteligencia artificial fuera un tren que avanza, una vez que llegue al nivel de un ser humano pasará rápidamente desde el nivel de un humano básico hasta el de un genio, y sin parar,  seguirá avanzando hasta capacidades sobre-humanas.

Aquí es donde podemos empezar a asustarnos. Al igual que nuestra inteligencia superior a otros animales nos hace tener poder sobre ellos, la inteligencia de una supermáquina le daría poder sobre nosotros.

Ni siquiera podríamos desenchufar una máquina que fuera así de poderosa, porque siendo un adversario más inteligente que nosotros, tendría medios de evitarlo.

Por: flickr.com/photos/morganiseit/8921014538/

Cómo evitar Matrix.

Para Bostrom el gran problema es que  una máquina es solo una forma de optimizar la consecución de un resultado. Si nuestra definición del resultado deseado no es la adecuada, podemos producir un desastre. El Rey Midas pidió “convertir todo lo que tocara en oro” y se encontró con el desastre de que su hija y su comida se transformaban también oro. Lo mismo nos podría pasar si creamos un ordenador y le damos una misión sin especificar claramente las cosas que no queremos.

Bostrom pone un ejemplo gráfico. Si le decimos a una máquina que haga que la gente sonría más, sin darle más detalles, podría caer en la tentación de forzarnos a sonreír usando electrodos.

Por: flickr.com/photos/harrypotts/6699357319/

¿Cómo solucionar ese problema? ¿Cómo asegurarnos de no estar bajo el poder de unas máquinas que pueden tener finalidades muy diferentes a las nuestras?

Para Bostrom la respuesta está en programar las máquinas para aprender nuestros valores y regirse por ellos. El problema es que crear una máquina que aprenda nuestros valores es un esfuerzo superior a crear simplemente una inteligencia artificial no segura. Y quizá alguien no se moleste en esperar a conseguir que la inteligencia artificial sea segura antes de crearla.

El miedo.

La charla me ha dejado intranquilo. No creo que la seguridad sea un valor imperante en un mundo que se guía por la lucha de empresas y el cortoplacismo. No creo que los valores estén demasiado de moda.  Hay muchas posibilidades de que la tecnología inadecuada acabe en manos de alguien que no piense en las consecuencias.

Además, incluso si se hiciera de la manera que Bostrom comenta, haciendo que las máquinas estén programadas para descubrir nuestros valores y gobernarse según ellos ¿no sería aún posible que las máquinas fueran capaces de reprogramarse para escapar a esas limitaciones?

Me ha parecido fascinante la charla. No en la forma, sino en el contenido. Y en su importancia.  Bostrom dice que quizá las generaciones posteriores al mirar hacia atrás al siglo XXI nos juzguen precisamente por lo bien o mal que resolvimos el problema de cómo evitar la rebelión de las máquinas.

A continuación tienes la charla. Te la recomiendo.

 

Si te gusta esta entrada no la copies, compártela en tus redes mencionando el origen. Muchas gracias

4 comentarios en «¿ Nos gobernarán algún día las máquinas?»

  1. Yo lo tengo claro cristalino :”Isarah Connor al habla” ya me quede sola en la resistencia!!
    Antes que meter en casa a un robot andante pensante meto a una pitón de 10 metros.
    No cambio ni harta de vino una paella a pie de playa por una paella virtual !!!!
    Haciendo memoria rápida debe haber 4 o 5 pelis que me encantaron cuando las ví y las puedo volver a ver una y otra vez,dos de ellas son: Terminator 2 y terminator 3 🙂

    Responder
  2. Creo que el temor del dominio de las máquinas es que dependemos de ellas y los humanos no somos un buen ejemplo, además en realidad el ser humano es muy frágil, una máquina no necesita divertirse, vacaciones, derechos, etc. además la ciencia y la tecnología no se han desarrollado bajo valores éticos

    Responder
    • Todos los motivos que das me parecen muy ciertos. Pero además de eso, es innegable que es una posibilidad real. Es cómo lo de las películas de epidemias o de el cambio de clima. Lo tememos porque lo vemos como una posibilidad. Gracias por comentar Gaby.

      Responder

Deja un comentario