Últimamente me he interesado mucho por la inteligencia artificial, con la pregunta inicial de si será la salvación de la humanidad.
Y me pregunto eso porque esto, petar peta.
Tenemos un planeta superpoblado, que duplicó su población en cien años, de 1850 a 1950, y que solo necesitó cuarenta años más para volver a duplicarla hasta rebasar los cinco mil millones de personas en 1990.
Para 2050 la previsión es que seamos unos doce mil millones de habitantes y no parece que la Tierra vaya a poder soportar esa cantidad de voraces demandantes de recursos.
Es de estas cosas que la cuestión no es si habrá un desastre o no, sino cuándo y cómo sucederá; y teniendo en cuenta que la gente (y los gobiernos, que es realmente el problema porque son los que tienen que guiar a la gente) en la práctica aún pasan bastante del cambio climático y demás… pues el cuándo sucederá el desastre en forma de hambrunas, guerras por el agua, etc, pinta más pronto que tarde.
Por eso para mí la superinteligencia artificial es algo esperanzador y no amenazador como suele ocurrir en las pelis.
Y me parece esperanzador porque pienso que una superinteligencia se dejará de pamplinas y prevendrá el desastre a toda costa poniendo el interés global por encima del interés económico y otros de menor importancia.
El interés por la IA lo he plasmado en leer parcialmente los dos libros que parecen ser los más importantes sobre la temática: “Superintelgencia. Caminos, peligros, estrategias”, de Nick Bostrom, y “La singularidad está cerca”, de Ray Kurzweil.
Como son dos libros complejos de leer, pronto me centré más en uno y me dio por el primero.
Bostrom no se muestra optimista con la superinteligencia, pero ni siquiera con que se llegue a conseguir en el sentido de una inteligencia superior en todos los ámbitos… aclaración ésta necesaria porque la inteligencia artificial ya es muy superior a la humana en algunas tareas concretas como por ejemplo la capacidad de cálculo matemático, pero no hay ningún robot que supere a un humano inteligente en un compendio de múltiples tareas.
El libro Superinteligencia aborda también la posibilidad de conseguir ésta por otras vías como la genética o selección de embriones, proceso que sería como poco lento. O la implantación de dispositivos artificiales en cerebros humanos, lo cual tendría en último término limitaciones biológicas del estilo a las que ya tenemos ahora como la velocidad de comunicación entre neuronas, que es de unos 200 Hz… mucho menor que la de un procesador de un ordenador convencional (2 GHz).
El camino hacia la superinteligencia debe ser totalmente digital.
Una vía para llegar a ella es la “emulación de cerebro completo”, algo así como construir un cerebro electrónico y a partir de éste tratar de mejorarlo; pero también se puede ir directamente hacia la superinteligencia de forma digital sin tratar de imitar nuestro cerebro, y esa es la vía con más posibilidades.
Entre otras ventajas, las mentes digitales no necesitarían de períodos de aprendizaje y podrían copiar y transferir datos casi de inmediato.
Y una superinteligencia podría usar ésta para mejorarse sucesivamente a sí misma.
En definitiva, si conseguimos desarrollar máquinas superinteligentes su superioridad sobre las personas estaría fuera de toda duda… y aquí es donde empiezan los riesgos.
Por ejemplo: si los humanos fuéramos improductivos, y lo seríamos comparados con una superinteligencia ¿Para qué les serviríamos? ¿Nos pasaría lo que le pasa ahora a los animales con nosotros?
Así, parece peligroso crear humanoides superinteligentes y parece aconsejable confinar la superinteligencia a una máquina sin capacidad para moverse o con ésta limitada… pero incluso en ese caso, si la superinteligencia tiene acceso a Internet podría ingeniárselas para imponerse de algún modo.
¿Creamos entonces una superinteligencia para luego tenerla limitada y perdernos parte de sus posibilidades?
Aún en el caso de que fuéramos prudentes hasta ese punto de poner limitaciones de movilidad y comunicación a una superinteligencia, ésta podría acabar en manos malintencionadas, como ha ocurrido con todos los avances de la humanidad, y surgir los problemas.
Una inteligencia superior podría desarrollar planes que incluyeran enmascarar sus verdaderas capacidades, hasta verse capaz de implementarlas con seguridad para superar a los humanos y que no la anularan.
¿Podrían hacerse las cosas de modo que esa superinteligencia estuviera solo en manos de personas responsables, haciendo por ejemplo que la propia máquina, con su superinteligencia, evitara que se la usara mal?
No podemos estar seguros, pero para abordar la cuestión llegamos a otra de las complejidades del asunto: ¿Le implementamos a la máquina una conciencia, o al menos una meta-finalidad-motivación?
Estamos ya en terrenos pantanosos.
Imaginemos una posibilidad un tanto absurda pero que nos vale para indicar de forma simplificada por dónde podrían ir ciertas meteduras de pata: si damos a una máquina superinteligente la finalidad o motivación de conseguir la máxima eficacia fabricando estatuas, podría darle por convertirnos a nosotros mismos en estatuas.
Cualquier nivel de inteligencia podría combinarse con cualquier finalidad, pues una máquina no va a tener sentimientos propiamente dichos (O tal vez sí… pero dejemos ahora la filosofía).
Una meta casi segura para la superIA, no obstante, es la de permanecer en el futuro… si bien las máquinas podrían plantearse perpetuarse a base de copias, no como entidades a nivel individual, y podrían por tanto sacrificar parte de su tropa en beneficio de la finalidad que su motivación quisiera conseguir.
(El que no importe la propia integridad, por cierto, ya sabemos que desgraciadamente tiene importantes ventajas para conseguir ciertos objetivos)
Pero incluso si pudiéramos implantar valores a la superIA ¿Qué valores implantar? ¿No podríamos implantar también valores equivocados?
Imaginemos que la superinteligencia hubiera surgido cuando estaba bien vista la esclavitud: se le hubiera implantado ese “valor” a las máquinas.
He puesto un ejemplo muy obvio, pero ¿Los valores occidentales actuales son ya los mejores?
Parece entonces que lo sensato sería dejar a la superinteligencia cierto libre albedrío. O la superIA podría arreglárselas finalmente, como hemos expuesto anteriormente, para sortear las limitaciones que se le hubieran programado e imponerse. Y ahí es donde unos se muestran aterrados con la posibilidad de la llegada de la singularidad de la superinteligencia… pero yo me muestro esperanzado porque ¿No es la inteligencia lo que nos hace “humanos” y nos ha permitido evolucionar?
Pues ea, por mí que llegue la superinteligencia cuanto antes porque, a la vista de elecciones como la de Trump, la inteligencia humana ofrece muchas dudas y la cosa va mal para nuestro planeta (y para nosotros, claro).
Tomás Vega Moralejo