II. HISTORIA DE LA COMPUTACIÓN

EN LA historia de la ciencia, hay ciertos momentos claves en los que el ingenio e inteligencia de ciertas personas, aunados a toda una situación social e ideológica propicias, les permiten percibir algo que nadie antes había sido capaz de ver. En muchas ocasiones esta revolución en los conceptos viene acompañada de innovaciones tecnológicas que constituyen grandes saltos en el desarrollo de nuevos aparatos. De esta manera, nos encontramos con que en general el avance científico-tecnológico tiene dos tipos de etapas: en la primera surge una idea o descubrimiento innovador muy importante, y la segunda comprende los tiempos durante los cuales se maduran y establecen las ideas. Durante estos periodos, se construyen aparatos cada vez más elaborados con base en estos principios. Este proceso continúa hasta que surge una nueva idea que permite de nueva cuenta un avance significativo.

Con esta idea en mente, podríamos dividir la historia de la computación en varias etapas, cada una caracterizada por una revolución tecnológica importante. A continuación relataremos de manera muy general el desarrollo de la computación, desde sus orígenes hasta finales de los años ochenta.

SISTEMAS NUMERALES

Puede decirse que la historia de la computación comienza cuando el hombre adquiere la necesidad de contar. Seguramente en un principio el hombre comenzó a contar con los dedos, para después hacerlo mediante marcas en el piso o utilizando piedras. Con la invención de la escritura, diferentes civilizaciones encontraron sendas maneras de contar y más tarde, de efectuar operaciones. La figura 6 nos muestra, de una manera comparativa, algunos sistemas numerales.

Figura 6. Esta figura nos muestra algunos sistemas numerales.

Figura 7. En la numeración maya un punto representa una unidad, una barra corresponde a cinco unidades, y el número cero es representado por una concha. Combinando estos signos pueden escribirse los números del 0 al 19. Para designar Números mayores al 19 se utiliza el sistema de posiciones: de abajo hacia arriba, la n-ésima posición representa unidades de n-ésimo orden.

Una de las escrituras más antiguas que se conoce es la egipcia. Esta civilización adoptó un sistema de contar de diez en diez, de manera que marcaban las unidades con líneas verticales y las decenas con un signo similar a la U invertida. Otras culturas adoptaron sistemas más complicados; por ejemplo, los babilonios contaban de 60 en 60, y aunque su sistema era muy poco práctico, se cree que de ellos provienen las bases del sistema actual de contar los minutos y los segundos.

Otra numeración antiguamente utilizada fue la romana, la cual era muy simple y permitía efectuar operaciones aritméticas aunque no con mucha sencillez. Aún perdura la tradición de utilizarla en algunos contextos específicos; por ejemplo, en las carátulas de los relojes, para denominar los tomos o capítulos de los libros, para escribir algunas fechas, etcétera.

Entre las culturas de América, es interesante señalar que los mayas contaron con un sistema numeral vigesimal muy avanzado y utilizaron el cero aun antes que en Europa o Asia. La figura 7 nos muestra esta numeración.

Figura 8. En el sistema decimal se utiliza un criterio de posiciones con el cual cada dígito tiene un peso diferente, de acuerdo con una base diez. Esta figura nos muestra la forma en que se construye el número 1 968.

Podríamos continuar esta lista señalando más culturas y explicando sus sistemas de numeración, sin embargo, tan sólo queremos hacer hincapié en lo siguiente: la forma en que contamos actualmente, eso es, utilizando el sistema decimal (arábico), no es ni la única posible ni la única correcta, sino sólo una forma que hemos heredado de nuestros antepasados y que ha sobrevivido por ser simple y adecuada para nosotros debido a que tenemos diez dedos en las manos. Los principios de esta numeración se ilustran en la figura 8.

USO DE ARTEFACTOS PARA SUMAR

El siguiente paso en el desarrollo de la computación se dio con la invención de aparatos útiles para efectuar operaciones matemáticas. El ábaco es la primera calculadora o computadora de que tenemos noticias. Aunque se inventó hace aproximadamente 4 000 años, aún tiene un uso muy amplio en algunos países de Asia, debido a que se trata de una calculadora muy rápida y práctica, útil para efectuar operaciones de adición, substracción, multiplicación y división. Este artefacto se muestra en la figura 9.

Muchos años tuvieron que pasar antes de que se lograran progresos en el desarrollo de nuevas calculadoras. En 1617, el escocés John Napier inventa los llamados huesos de Napier o tablas de multiplicar (de donde proviene el nombre utilizado hasta nuestros días). Éstos consisten de una regla fija y otra móvil que se desliza sobre la primera, de manera que deja ver el producto de dos números cualesquiera (véase la figura 10). Posteriormente las tablas de Napier evolucionaron hasta llegar a la regla de cálculo, la cual funciona con el mismo principio pero es útil para llevar a cabo operaciones de multiplicación, división y raíz cuadrada, entre otras. Debido a su portabilidad, este artefacto tuvo una gran acogida en el mundo occidental y fue de uso frecuente hasta hace pocos años, cuando se generalizó el uso de las calculadoras de bolsillo.

A mediados del siglo XVII se inicia una nueva era de calculadoras mecánicas cuando, en 1642, Blaise Pascal, quien sólo contaba con 19 años de edad, introduce una máquina sumadora mecánica con el objeto de facilitar los cálculos de su padre (Figura 11). Esta máquina consistía en un sistema con ruedas pequeñas acopladas entre sí y que, de derecha a izquierda correspondían a unidades, decenas, centenas, etcétera. Estas ruedas se encontraban divididas en 10 partes iguales; de manera que para efectuar una suma se hacían girar manualmente un número de pasos acorde con el número que se deseaba introducir. La rotación completa de un círculo en la dirección positiva, causaba automáticamente que el círculo a su izquierda avanzara una posición. Para efectuar sustracciones el proceso era el inverso.

Figura 9. En el ábaco, cada barra horizontal contiene siete móviles separadas por una barra vertical. Aquéllas en el lado izquierdo valen uno, y las del lado derecho valen cinco; el número cero está representado cuando todas las cuentas están alejadas de la barra central. Las sumas se efectúan al mover, hacia la barra central, las cuentas correspondientes a la cantidad que se desea sumar.

Algunos años más tarde, Leibniz inventa una máquina similar a la de Pascal pero más compleja, la cual podía sumar, restar, multiplicar y dividir. Es la computadora, ilustrada en la figura 12, se empleó extensivamente hasta el advenimiento de las computadoras electrónicas.

LA ERA DE LA PROGRAMACIÓN SE INICIA

Los siguientes avances significativos se logran hasta el siglo XIX, cuando Joseph Jacquard, quien era obrero en una fábrica de sedas de Lyon, introduce la idea de programar máquinas mediante el uso de tarjetas perforadas. La invención de Jacquard consistió en un telar que utilizaba tarjetas perforadas para controlar de manera automática el diseño y los colores de los tejidos. Esta idea es adaptada a la computación, en la llamada "máquina analítica" (Figura 13), por un matemático inglés llamado Charles Babbage, quien vivió obsesionado con el diseño y construcción de máquinas calculadoras. Más adelante hablaremos de esta máquina.

Figura 10. Esta figura muestra una variante de las "tablas de multiplicar", en la cual las tablas se ven substituidas por elementos que giran. Este aparato nunca llegó a funcionar satisfactoriamente.

Figura 11. Máquina de Pascal.

Figura 12. Diagrama que muestra un corte de la máquina de calcular de Leibniz.

Babbage hizo su primer esbozo de una máquina calculadora a la que llamó máquina diferencial", en 1822. Sin embargo, constantemente tenía nuevas ideas que mejoraban el diseño original, por lo cual iba echando por tierra todo el trabajo realizado anteriormente. Es probable que esta situación hubiese continuado por muchos años, de no ser por una discusión que tuvo con su mecánico, después de la cual este último desmontó el taller y partió con todos los diseños. En esta coyuntura, Babbage tiene que empezar un nuevo diseño, y así concibe una calculadora totalmente nueva: su "máquina analítica", la cual habría de ser más fácil de construir y tendría mayor poder de cálculo que la anterior. Así, diseña una computadora mecánica digital a la cual habrían de suministrársele datos e instrucciones a seguir a través de tarjetas perforadas de acuerdo con un código. La computadora a su vez proporcionaría las soluciones también en forma de perforaciones en tarjeta. Como consecuencia, esta máquina "programable" ofrecía dos nuevas ventajas: i) por primera vez, una máquina sería capaz de utilizar durante un cálculo los resultados de otro anterior sin necesidad de reconfigurar la máquina, lo cual permitiría llevar a cabo cálculos iterativos, y ii) habría la posibilidad de que la computadora siguiese instrucciones alternas, dependiendo de los resultados de una etapa anterior del cálculo. Babbage describió esta máquina como "la máquina que se muerde la cola".

Figura 13. El dispositivo que se muestra en esta figura, forma parte de la máquina analítica de Babbage y nos da idea de su complicación; está diseñado para efectuar la operación de leamirba

multiplicar ( o dividir) un número por una potencia de diez.

Los planes de Babbage eran crear una máquina de no menos de 20 cifras de capacidad y precisión de seis cifras. Probablemente, las debilidades más grandes de este diseño fueron el cuidado y precisión requeridos para su construcción. De manera que, aunque su diseñador dedicó el resto de su vida, y gran parte de su fortuna, a tratar de terminar esta máquina, sólo pudo hacer una versión pequeña del modelo. De haberse construido, la máquina hubiese consistido de cerca de dos toneladas de maquinaria de relojería de latón y acero.

Para dar una idea al lector de la importancia de "la máquina que se muerde la cola", diremos que hasta ese momento, cada vez que se quería efectuar una serie de operaciones matemáticas, había que introducir, una a una y manualmente, todas las instrucciones y datos de la operación conforme se iban necesitando. A cada paso la máquina iba dando el resultado parcial de la operación específica efectuada, de manera que el "usuario" de la máquina podía decidir cuál sería la siguiente operación.

LA ERA MODERNA DE LA COMPUTACIÓN

Con el desarrollo posterior de la electricidad aparecieron las llamadas computadoras electromecánicas, las cuales utilizaban solenoides e interruptores mecánicos operados eléctricamente. La primera de ellas se creó en 1944 y fue la llamada Mark I. Las instrucciones "se cargaban" por medio de cinta de papel con perforaciones, y los datos se proporcionaban en tarjetas de cartón, también perforadas. Esta computadora tenía aproximadamente 15.5 m. de largo por 2.5 de altura, y multiplicaba dos números en aproximadamente 3 segundos. Tres años más tarde, la computadora Mark II. era capaz de llevar a cabo la misma operación en menos de un cuarto de segundo; esto es, 12 veces más rápido.

Mientras estas computadoras analógicas 1

eran construidas, se gestaba un nuevo concepto de computadoras. Éstas eran las llamadas computadoras digitales, acerca de cuya paternidad existen gran cantidad de disputas. Sin embargo, como narraremos a continuación, en una batalla legal en las cortes de los Estados Unidos de América se atribuyó el derecho a llamarse "inventor de la computadora digital" a John V. Atanasoff, un físico estadounidense, hijo de un ingeniero eléctrico y una maestra de álgebra.

Desde muy pequeño, Atanasoff encontró gran placer en el estudio del álgebra. Cuando tenía 10 años de edad, su madre le dio un libro en el cual se explicaba cómo calcular números en otras bases diferentes a la base diez. Años más tarde, Atanasoff comentaría: "Cuando inicié mi trabajo en computadoras, una de las cosas que tenía en mente era que tal vez las computadoras trabajarían mejor si utilizaran para sus cálculos alguna otra base que no fuese diez."

Más adelante, Atanasoff estudió ingeniería eléctrica e hizo estudios de posgrado en matemática y física, para posteriormente llegar a ser profesor asociado de física y matemáticas en la Universidad de Iowa. Una de las motivaciones de Atanasoff para trabajar en el diseño de computadoras fue su gran frustración ante la incapacidad de sus alumnos para encontrar las soluciones de sistemas grandes de ecuaciones diferenciales simultáneas; ya que consideraba que el tiempo invertido en esta tarea les impedía dedicarse a otros problemas más interesantes. Dicho sea de paso, la solución de este problema matemático era imposible de obtener utilizando las calculadoras analógicas existentes en ese momento. Es en esta época cuando Atanasoff tuvo varias ideas muy brillantes que revolucionaron las máquinas calculadoras y que de hecho hicieron posible el inicio de la era moderna de la computación. Estas ideas fueron las siguientes:

1) El remplazo de los relevadores electromecánicos por bulbos. Los relevadores electromecánicos utilizados hasta ese momento eran una especie de interruptores que podían abrirse o cerrarse cientos de veces por minuto. Dada la naturaleza de este proceso, no podía llevarse a cabo con más rapidez. Por otro lado, los bulbos pueden prenderse y apagarse (conducen o dejan de conducir electrones), cientos de veces por segundo. Esto es, operan con una rapidez mucho mayor que los relevadores electromecánicos.

2) La substitución del sistema decimal por el sistema binario. Tanto los circuitos electrónicos como los relevadores electromecánicos tienen dos estados posibles; esto es, pueden estar prendidos o apagados, lo cual puede estar representado por ceros y unos, respectivamente. Esto hace que sea más natural para una computadora efectuar cálculos utilizando para ello un sistema numérico binario.

3) La utilización de condensadores para construir dispositivos encargados de guardar información ("memorias"). Estos nuevos dispositivos estarían formados por un gran número de condensadores (también llamados capacitores), los cuales, al estar cargados o descargados, guardarían información, de acuerdo con un código binario. Sin embargo dado que es imposible lograr un aislamiento eléctrico perfecto del dispositivo, era de esperarse que la carga se "escaparía" en cuestión de milisegundos. Atanasoff ideó entonces un procedimiento llamado refrescamiento de memoria, el cual consiste en leer la información registrada en cada área de la memoria e inmediatamente reescribirla en el mismo lugar. Esta operación debería llevarse a cabo periódica y automáticamente, a intervalos de tiempo regulares.

Durante los años subsecuentes, Atanasoff trabajó junto con un estudiante en la construcción de un prototipo de computadora que utilizara estos principios, y que fue de hecho la primera en hacer aritmética electrónicamente. Ésta fue la llamada ABC (Atanasoff-Berry Computer), la cual utilizaba 300 bulbos para los circuitos lógicos, y capacitores para la regeneración automática de la memoria. Por otro lado, mientras esto sucedía, Atanasoff firmó un convenio con la universidad en la que prestaba sus servicios. En dicho documento, el inventor convenía en ceder a la universidad la mitad de las regalías obtenidas por su computadora. A su vez, la universidad se comprometía a tramitar la patente. Desafortunadamente, la universidad nunca cumplió con su parte, aparentemente debido a negligencia y falta de confianza en este proyecto por parte de las autoridades.

Fue en est época, mientras trabajaba en el perfeccionamiento de la ABC, que Atanasoff tuvo su primer encuentro con un experto en computadoras llamado John Mauchly. Con esta persona tuvo largas discusiones acerca del tema que a ambos interesaba, le mostró los principios de operación de su computadora y le pidió que guardara el secreto de su existencia hasta que ésta estuviese patentada. Fue entonces cuando estalló la segunda Guerra Mundial; Atanasoff fue llamado entonces a colaborar con la Fuerza Naval de su país en un proyecto relacionado con la supervisión de pruebas acústicas de minas. Debido a estas circunstancias, se tuvo que abandonar el proyecto de la computadora ABC, por lo cual ésta nunca superó la etapa de pruebas.

La primera máquina que llegó a estar en plena operación utilizando los principios ideados por Atanasoff fue la llamada ENIAC y fue ¡precisamente Mauchly! quien la construyó junto con otro colaborador llamado Presper Eckert. Esta computadora tenía 19 000 bulbos, 1 500 relevadores, cientos de miles de capacitores, resistores e inductores, y aproximadamente 500 000 conexiones soldadas. Por otro lado, consumía casi 200 kilovatios de potencia y llevaba a cabo una multiplicación en 2.8 milisegundos (1 000 milisegundos = 1 segundo), esto es, ¡mil veces más rápido que su predecesora, la computadora Mark II!

Aunque Mauchly sostenía que esta computadora era totalmente diferente de la ABC, años más tarde la patente de la ENIAC fue invalidada. Después de una batalla de demandas y contrademandas entre compañías constructoras de computadoras, por no pagar los derechos de patente, Atanasoff, apoyado por la IBM, inicio un juicio contra la patente de la ENIAC. En este juicio, fue reconstruida la ABC y se demostraron los principios que ésta utilizaba en su funcionamiento. El 19 de octubre de 1973, 28 años después de construida la ENIAC, el juez falló en favor de Atanasoff. Sin embargo, esta noticia no tuvo el impacto que era de esperar, debido a que ese mismo día salió a la luz el escándalo de Watergate.

En años subsecuentes ha habido un desarrollo acelerado de las computadoras electrónicas digitales: el invento del transistor y el avance posterior en la electrónica han logrado una diferencia dramática en eficiencia y costos. Así se han logrado: un aumento en la rapidez con que se efectúan las operaciones matemáticas, un aumento en la cantidad de información que es posible manejar y almacenar, la disminución del volumen de las máquinas, y la disminución de su costo de operación y mantenimiento. Para dar una idea de la magnitud de estos avances, diremos que una pequeña calculadora programable de bolsillo tiene, hoy día, el mismo o un mayor poder para hacer cálculos que las voluminosas computadoras de principios de los años cincuenta, además de estar al alcance de casi cualquier bolsillo y tener un costo de mantenimiento prácticamente nulo.

La historia reciente de la computación se ha dividido en las llamadas generaciones de computadoras, cada una de las cuales está caracterizada por un desarrollo o una innovación importante. A continuación haremos una breve reseña de estas etapas.

Primera generación:

bulbos

Ésta es la era de las computadoras construidas con bulbos; se inicia en 1951 con la primera computadora industrial, la llamada UNIVAC 1. Las computadoras de esta generación eran muy grandes y de funcionamiento costoso. Los bulbos eran de gran tamaño y consumían mucha energía eléctrica, por lo que generaban mucho calor y se fundían con frecuencia. Por lo anterior estas computadoras debían ser instaladas en cuartos con aire acondicionado, con el propósito de mantener el sistema lo más frío posible para disminuir la ocurrencia de fallas.

Segunda generación:

el transistor

La segunda generación de computadoras se inició, a finales de los años cincuenta, con el remplazo de los bulbos por transistores. Los transistores son dispositivos electrónicos útiles para generar, amplificar y controlar señales eléctricas. Si comparamos los bulbos con los transistores, podemos ver que estos últimos son mucho más pequeños, más confiables, generan menos calor y requieren menos energía para su operación. Todo esto contribuyó a crear computadoras más pequeñas, baratas y confiables. En esta época comenzó el auge de las computadoras desde el punto de vista comercial, se crearon muchas compañías dedicadas a su diseño y construcción.

Tercera generación:

las familias de computadoras

y los circuitos integrados

Las máquinas de la tercera generación se distinguen por dos aspectos importantes: por un lado, su componente fundamental lo constituyen los circuitos integrados, y por otro, se forman las familias de computadoras caracterizadas por tener compatibilidad hacia arriba. A continuación hablaremos de estos dos puntos.

Los circuitos integrados están formados por un elemento base de silicio (chip), con un gran número de transistores y otras componentes integradas, interconectadas, que ocupan un espacio aproximado de 2.5 cm de largo por 1.25 cm de ancho. El uso de estos circuitos hizo a las computadoras más económicas, confiables, compactas y con un costo de operación mucho más bajo. Todo esto, con respecto a las computadoras de generaciones anteriores.

Las familias de computadoras fueron creadas en un intento por lograr compatibilidad entre máquinas de modelos diferentes, construidas por un mismo fabricante. Las computadoras de la segunda generación tenían el problema de que los programas escritos para máquinas pequeñas no podían ser utilizados por máquinas más grandes (ni viceversa), aunque ambas fuesen producidas por la misma firma comercial. Al construirse máquinas compatibles se dio un paso muy importante desde el punto de vista comercial y práctico, ya que permitió a pequeñas empresas en desarrollo el ir adquiriendo máquinas cada vez más poderosas según el aumento de sus necesidades. De esta manera, los programas escritos para las máquinas pequeñas podrían ejecutarse en máquinas más grandes de la misma familia, haciendo, en el peor de los casos, tan sólo pequeñas modificaciones.

Cuarta generación:

el microprocesador

La cuarta generación de computadoras se caracteriza por el uso del microprocesador. Éste consiste en un solo circuito integrado, el cual contiene en su totalidad a la unidad central de procesamiento (CPU), o cerebro de la computadora. En esta generación, el mayor logro consistió en hacer computadoras pequeñas, con mayor poder y menor volumen y costo.

Quinta generación:

procesamiento en paralelo,

redes neuronales y

computadoras ópticas

Actualmente se trabaja en la creación de la quinta generación de computadoras. Esta nueva generación seguramente incluirá dos cambios importantes. El primero consiste en un cambio fundamental en la manera de efectuar el procesamiento de la información, y por tanto, implica el diseño de arquitecturas conceptualmente diferentes. 2 El segundo cambio que esperamos, consiste en el desarrollo y adaptación de nuevas tecnologías.

Las computadoras convencionales procesan la información en serie, efectúan una instrucción después de otra. Como consecuencia, la mayor parte de la computadora y de sus periféricos están ociosos gran parte del tiempo mientras esperan instrucciones del procesador central. Con el objeto de proceso, han sido diseñadas grandes máquinas, llamadas supercomputadoras, cuyo propósito es llevar a cabo el procesamiento de la información en paralelo; esto es, constan de varios elementos procesadores, cada uno de los cuales efectúa tareas de manera independiente y simultánea. De esta forma, el trabajo se divide en subtrabajos independientes, los cuales son asignados a diferentes elementos procesadores. Un ejemplo de estas máquinas es la computadora modelo CRAY 1, la cual consta de 64 elementos procesadores.

Estas supercomputadoras paralelas tienen un costo de producción muy alto, que se refleja en su costo de uso comercial; 3 de manera que existen muy pocas en el mundo. Debido a esto, en los Estados Unidos de América se han organizado centros de supercomputación en los cuales se da servicio a un gran número de usuarios, a través de la línea telefónica.

Además de su elevado costo, este tipo de computación presenta algunas inconveniencias: es difícil programar una computación paralela, ya que el programador debe fraccionar el problema en pequeñas tareas independientes, y optimizar la manera de asignarlas. Además, la mayor parte de los problemas no son paralelos por naturaleza; es decir, no siempre es posible dividir un trabajo en subtrabajos independientes, o hacerlo de manera eficiente, pues algunos procesadores requieren de los resultados obtenidos por otros para poder continuar sus cálculos. Como consecuencia, a menudo nos encontramos con que la más veloz supercomputadora opera casi a la misma velocidad que un procesador en serie. Este problema es conocido como el cuello de botella de Neumann.

En los últimos años, ha aparecido un nuevo concepto en la computación, que probablemente proporcionará una solución a algunos de los problemas recién indicados. Este nuevo concepto, conocido con el nombre de redes neuronales, es radicalmente diferente al anterior: se utilizan elementos electrónicos que emulan neuronas simplificadas, los cuales se conectan entre sí formando redes similares a las que se encuentran en el cerebro, aunque a una escala mucho menor. Recientemente, los investigadores dedicados al desarrollo de las redes neuronales han logrado resultados sorprendentes, y todo parece indicar que, en el futuro, estos dispositivos podrán dotar a las computadoras de capacidades similares a las humanas para la solución de problemas complejos. Más adelante explicaremos las bases de las redes neuronales y discutiremos algunas de las perspectivas inmediatas en cuanto a su aplicación a la computación.

El segundo cambio que creemos caracterizará a la quinta generación de computación consiste en el desarrollo y adaptación de nuevas tecnologías. No es posible continuar reduciendo indefinidamente el tamaño de los circuitos integrados, ni lograr que disipen menos energía, como tampoco es posible conseguir que los electrones se transporten con mayor rapidez. Si se desea hacer una mejora substancial, es necesario recurrir al desarrollo y adaptación de nuevas tecnologías que ofrezcan ventajas sobre las actuales. En este terreno, se avecina la era de las computadoras ópticas, las cuales utilizarán fuentes de luz coherente (rayos láser), lentes, y fibras ópticas para transportar a los fotones a lo largo de trayectorias no rectas. Por consiguiente, funcionarán con base en el transporte de fotones y no de electrones, como sucede en la actualidad. Por último, tal vez pronto veremos reflejado en las nuevas computadoras el hallazgo reciente de materiales que son superconductores a temperaturas relativamente altas (hasta ahora del orden de -150°C). Lo cual significa que si estos materiales se mantienen por debajo de una cierta temperatura, sus electrones son capaces de viajar sin disipar energía y por lo tanto, sin producir calor. 4

Una computadora analógica maneja información cuyos valores varían de manera continua, un ejemplo de un dispositivo analógico simple es el velocímetro de un automóvil. Las computadoras digitales, en cambio, no miden, sino que cuentan, ya que funcionan en términos de todo o nada. Esto es, funcionan con señales discretas que existen o no existen.
Estas máquinas no suplirán a las actuales, sino que las complementarán, pues serán útiles para resolver un tipo diferente de problemas.
El costo comercial de uso de estas computadoras es de aproximadamente 2 000.00 dólares por hora.
Cabe mencionar que en los materiales conductores normales, los electrones disipan energía al transportarse, lo cual hace que el material se caliente, y por consiguiente aumenta la posibilidad de ocurrencia de fallas. Además de las limitaciones tecnológicas, lo anterior es uno de los motivos por los cuales no es posible seguir reduciendo el tamaño de los circuitos: al aumentar la concentración de éstos, aumenta el calor generado por unidad de área. De aquí la importancia de tener materiales superconductores, en los cuales no haya disipación de calor.