miércoles, 29 de agosto de 2012

Introducción a la Computación Cuántica

Voy a publicar en elkorcho por entregas y bajo Creative Commons, un trabajo que hice en 2011 para la universidad con dos compañeros mas, sobre Computación Cuántica, y para el que tuve que aprender lo básico de física cuántica. Quede tan maravillado con el tema y lleno de inquietudes cósmicas, que creo conveniente compartirlo con todos, y quien sabe, a lo mejor al igual que yo, alguien aprende algo que no sabía:



En la actualidad, a medida que evoluciona la tecnología aumenta la escala de integración: más transistores en menor espacio, lo que implica microchips más pequeños que, a su vez, se traduce en mayor velocidad de proceso. Basada en esta realidad, la Ley de Moore, que es más bien una observación empírica que una ley, estableció que cada dieciocho meses (y posteriormente se modificó a cada veinticuatro) se duplica el número de transistores contenidos en un circuito integrado (los chips dividen por dos su tamaño, al tiempo que duplican su capacidad).

Pero Moore igualmente vaticinó que llegará un punto en el que sencillamente no sea posible que se siga cumpliendo por problemas de espacio, ya que hay un límite atómico para el tamaño de un transistor.  También predice que la tecnología actual habrá de ser sustituida por otro paradigma diferente que permita seguir progresando de manera similar.

Actualmente se están desarrollando transistores de 28 nanómetros, pero el problema radica en que por cada transistor y sus interconexiones tienen que circular electrones, y estos se comportan como partículas cuánticas, y si los canales por los que viajan no son lo suficientemente grandes, tienden a su comportamiento como ondas y saltan de un canal a otro, corrompiendo la información (efecto túnel).

Por otro lado, recordando a grosso modo cómo funciona la computación digital, nuestros ordenadores permiten el paso de la corriente eléctrica  o, por el contrario, la interrumpen. Traducido a un lenguaje más manejable para los humanos, estos dos estados (encendido y apagado) se corresponden con dos valores posibles, 1 y 0, que determinan, además, la cantidad de información mínima con que trabaja un ordenador. A esto le llamamos bit. Si, por ejemplo, utilizamos tres bits para almacenar información, y dado que cada bit sólo puede tomar un único valor en un momento determinado (o es 0 o es 1), contemplando todas las posibles combinaciones de esos tres bits podemos representar como máximo  ocho valores distintos. ¡Esto ya lo sabíamos!

Pero, ¿qué pasaría si nuestro pequeño almacén de información pudiera tomar simultáneamente varios valores distintos? ¿Y si nuestro bit pudiera valer 0, 1 y combinaciones de estos a la vez?..... Pues que estaríamos ante un nuevo concepto de computación.


No hay comentarios: