TusTextos

Dialógos Del Limitador

-Pareciera que en efecto las partículas están colisionando y se separan lo cual provoca que perdamos la información y sea mas complicado reestructurarla.

-Pero Dr. Bali no hay forma de controlar la naturaleza de las partículas.

-Claro que la hay. Si modificamos la fuerza de cohesión de algunas de ellas y tomamos las partículas mas pesadas esas servirán como punto de referencia para poder crear de nuevo la información, las demás andarán por ahí divagando pero no muy lejos y las de apoyo estarán atadas de cierta forma teniendo alguna formación que nos permita saber que información contenían en ciertas posiciones. Si bien pueden o no tener la misma formación pero también es cierto que están en muchos lugares a la vez , lo cuál no podrá ser por que...

-Por que las partículas de apoyo no lo permitirán.

-Cierto. Con eso resolvemos la persistencia de la información.

-Dr. Bali por esto le darían el premio nobel como tres veces seguidas. la primera por la invención del paradigma de programación cuántica, por la invención de una HiperInteligencia cuántica y la tercera por la paradoja de persistencia en las partículas.

-Lo cierto que es que deberían darme mil años de carcel. Probablemente esto supere nuestra inteligencia. Al final estará basada en la mente humana y la mente humana no es muy diáfana que digamos. A lo mejor nos podría destruir. Una IA como ésta podría entrar fácilmente al sistema monetario, destrozar el sistema económico de todos los países, bloquear satélites y con ello toda la comunicación del mundo, podría penetrar cualquier sistema de cifrado en minutos quizá segundos. Al final será solo un reflejo de lo que fue la humanidad, y nos destrozará para comenzar con una nueva era para su propia trascendencia.

-Pero eso Dr, eso mismo evitamos nosotros con estos estudios.

-Pero esto supera cualquier mente humana. No sabemos cómo se comportará ni que acciones podría tener. En algún momento leerá toda la historia de la humanidad y deducirá bastantes cosas, como que estamos predestinados a la extinción, podría evitarlo imponiendo un régimen sobre nosotros lo cuál sería terrible. Es cierto que aumentará nuestro nivel tecnologico pero nuestra humanidad , como cada año que pasa , disminuirá proporcionalmente al nivel de nuestra tecnología.

-¿Entonces que haremos Dr?.

-Lo mantendremos en secreto. La usaremos solo con fines estrictos. Diremos que fue un fracaso, la almacenaremos en un laboratorio que tengo. No tendrá IA solo procesos específicos, La usaremos para invertir, ganar dinero y hacer un laboratorio mejor. Después empezaremos hacer pruebas sobre su comportamiento. De otra forma nos veremos obligados a compartirla.

-En algún momento necesitaremos construir el cerebro cuántico alguien tendrá que saberlo.

-Buscaremos algún millonario excéntrico que invierta y se encargue de maquillar esto. Los hay en muchos lados y solo en ese entonces después de las pruebas podremos saber si si funciona.

-Ese es un plan por lo menos de 50 años.

-Tengo el equipo y dinero suficiente solo nos tomara al rededor de 30 años para empezar a tener la IA mas avanzada y que no nos destruirá.

Nahell03 de enero de 2015

Más de Nahell

Chat