jueves, 28 de diciembre de 2006

Computación Cuántica

Computación Cuántica
(primera parte)

1.- ¿Qué significa esto?

Se refiere a los fenómenos que tendrá que enfrentar la tecnología de las computadoras cuando el tamaño de sus componentes (transistores, circuitos, etc.) rebase un límite inferior determinado, para el que las leyes de la física son fundamentalmente diferentes a las que se aplican en el mundo macroscópico.

2.- ¿A que se refieren con leyes diferentes?

Hay que hacer aquí un poco de historia. A principios del siglo pasado (¡1900’s !), con el avance en el conocimiento de los mecanismos internos del átomo; físicos de la talla de Niels Bohr, Max Planck, Werner Heisenberg, etc. llegaron a la conclusión de que la física newtoniana - también llamada mecánica clásica- no podía aplicarse al mundo subatómico, en el cual las leyes del movimiento responden a principios diferentes que en ocasiones contradicen nuestro sentido común. Esto los llevó a fundar una nueva rama de la física: La Mecánica Cuántica.

Pongamos un ejemplo sencillo: la mecánica newtoniana es capaz de establecer con una gran precisión, la velocidad y la posición de objetos de mayor tamaño que el átomo; en este sentido se puede establecer con objetividad la trayectoria que por ejemplo siguen la Luna o el Sol, y ésta determinación es independiente del método de estudio empleado; es decir, la observación que hagamos no influye en forma significativa en las conclusiones que obtenemos sobre el movimiento estudiado (en este sentido, nuestra observación es objetiva).

Sin embargo, cuando se trata de observar y estudiar objetos del tamaño del átomo o menores, la mecánica cuántica sostiene que es imposible hacer observaciones objetivas, en el sentido de que no perturben de manera importante nuestro objeto de estudio. Se aplica aquí un principio denominado Principio de Incertidumbre de Heisenberg.

3.- ¿podrían explicar en que consiste este principio?

Claro. Este principio simplemente establece que hay un límite en la precisión de cualquier observación que hagamos del mundo atómico o subatómico. En este sentido, podemos conocer con bastante precisión la posición actual de una partícula subatómica, pero a costa de perder precisión en el conocimiento de otras variables (por ejemplo su velocidad), ya que nuestra observación de su posición afecta de manera no controlable el equilibrio atómico (incluso una observación demasiado precisa podría destruirlo).

En forma inversa, podemos establecer con gran aproximación la velocidad de, por ejemplo, un electrón (el electrón es la partícula que transporta la electricidad), pero renunciando a conocer con precisión su posición actual o futura. En este sentido, las trayectorias objetivas a las que estamos acostumbrados en nuestra vida diaria, pierden validez en el mundo del átomo.

4.- Sin embargo, el desarrollo tecnológico seguramente nos permitirá salvar este problema, ¿no es así?.

La física cuántica responde a esto con un NO rotundo, ya que la limitación no se haya tanto en los métodos de observación o en las herramientas empleadas, sino en la física misma: hay un límite mínimo en toda interacción, es decir, no se puede eliminar la influencia de las observaciones en el objeto de estudio ya que la observación misma es una interacción.

Lo anterior nos lleva a leyes fundamentalmente diferentes, leyes que se establecen en términos probabilísticos y ya no determinísticos. Así por ejemplo, el movimiento de un electrón ya no se describe mediante una trayectoria nítida (una línea recta o curva), sino que al considerarlo, el electrón se tiene que tratar no sólo como partícula, sino también como una ¡onda! que se propaga y cuya forma nos da información sobre las diferentes probabilidades de posición del electrón. Es un poco como si el electrón estuviera "desparramado" en el espacio: una parte aquí, otra más allá......

5.- ¿Y esto que tiene que ver con la computación?

Aproximadamente cada dos años, la velocidad y la capacidad de almacenamiento de las computadoras se han venido duplicando; esto ha venido acompañado de una miniaturización del componente fundamental del hardware: el transistor. Actualmente por ejemplo, IBM puede fabricar chips (circuitos integrados de la computadora) de un cuarto de micrón (un micrón es una millonésima de metro), conteniendo cerca de 200 millones de transistores.

Sin embargo, a ésta escala las leyes de la física clásica siguen siendo válidas, y el transistor puede seguir siendo tratado como un objeto que responde a leyes clásicas, en base a las cuales están construidas todas las computadoras actualmente. Pero de seguir la tendencia en la reducción en el tamaño de los componentes, tendremos muy probablemente que enfrentarnos con las leyes cuánticas, cuando el tamaño de éstos alcance niveles atómicos.

A este nivel, el transistor quizás pase a ser una pieza de museo y sea sustituido por una ¡molécula!, pero de esto trataremos en el siguiente artículo.

6.- ¿Podrían darnos un avance?

Bueno. La computación cuántica tiene básicamente dos efectos en la tecnología de las computadoras:


  • A nivel de hardware

  • A nivel de los algoritmos utilizados

En términos de hardware, a medida que la información pase a ser representada por unas cuantas partículas subatómicas, (a diferencia de como se representa ahora mediante una gran cantidad de éstas a través de los diferenciales de voltaje en los componentes de la computadora), los dispositivos deberán de reconocer los fenómenos cuánticos, como por ejemplo: las partículas pueden tener varios estados atómicos a la vez (niveles de energía), pueden atravezar barreras aparentemente infranqueables, pueden seguir varias rutas a la vez, etc...


En relación a los algoritmos (procedimientos matemáticos para resolver problemas), la computación cuántica abre posibilidades antes no imaginadas: disminuciones exponenciales en el tiempo de procesamiento y realización de operaciones en paralelo sin la necesidad de agregar procesadores a la máquina.


En el siguiente artículo retomaremos estas ideas.
Powered By Blogger