Historia del Ordenador
La historia de la computadora el muy interesante ya que muestra como el hombre logra producir las primeras herramientas para registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos empezaron a formar naciones y el comercio era ya medio de vida.
En sus orígenes, bastantes años antes de Cristo, el cálculo tenía bastantes
problemas para poder desarrollarse. Uno de ellos era que no existía un
mecanismo fácil para escribir el enunciado de los problemas y para anotar los
resultados intermedios, dificultando así el trabajo de las personas que
buscaban la solución de un cálculo. Dado este problema y la necesidad de
obtener resultados rápidos y exactos procedente de los campos del comercio,
impuestos, calendarios, organización militar, etc., en la historia de la
humanidad se han ido construyendo distintos instrumentos y maquinas que
simplificaran notablemente los cálculos humanos.
Cálculo con los dedos
Los dedos se han usado de tres formas distintas como ayuda al cálculo, estas
son:
- Para contar con ellos.
- Para representar números mediante posiciones complejas, y así guardar resultados intermedios durante la ejecución de cálculos mentales.
- Para realizar operaciones de multiplicación.
El Ábaco
Desde épocas
tempranas se han manipulado piedras sobre el polvo o usado un palo o el propio
dedo sobre tablas de polvo (como sustitución del papel y la tinta) para hacer
operaciones. Por eso se cree que la palabra semítica abaq (polvo) es la raíz de nuestra palabra moderna ábaco; y que fue adoptada por los
griegos que utilizaban la palabra abax
para nombrar la superficie plana en la que dibujaban sus líneas de cálculo.
Como gran parte de la aritmética se realizaba en el ábaco, llegó un momento en
el que ambas palabras se utilizaban indistintamente, considerándose sinónimos.
Su origen no está muy
claro, y probablemente comenzó simplemente como piedras que se movían en líneas
dibujadas sobre polvo. Pero lo que sí es seguro es que por el 1000 a.C. en la
civilización china el ábaco era una herramienta indispensable para efectuar todas
las transacciones comerciales en las que era necesario realizar operaciones
rápidas y eficaces.
El ábaco no era otra cosa que un
rudimentario marco o tablilla de madera dotada de una serie de varillas
verticales que dividían la tabla en varias columnas, en las cuales había una
serie de bolas o anillos a modo de cuentas. La columna situada más a la derecha
representaba las unidades, la anterior a las decenas y así sucesivamente. En la
parte inferior de cada columna existían cinco cuentas elementales y, situadas
en la parte superior otras dos de distinto color que representaban cinco
unidades. Así, representando un número en el ábaco mediante las cuentas
situadas en las columnas correspondientes, las sumas se realizaban añadiendo
las cuentas necesarias a cada columna dígito a dígito, de forma que si en este
proceso se completaba alguna columna con diez cuentas, éstas eran eliminadas y
se sumaba una cuenta en la columna inmediatamente a su izquierda.
El ábaco se ha usado en muchas culturas,
incluso en la europea; pero al disponerse de papel y lápiz su uso era limitado.
Como muestra de ello hay varias variantes de ábaco:
1. Ábaco ruso: Es decimal, dispone de diez anillos de madera en cada columna.
2. Ábaco Europeo: Era una mesa de conteo en el que se dibujaban unas líneas con tiza o tinta.
La línea de la parte inferior representaba las unidades y en cada salto de
línea se multiplicaba por diez el valor anterior. El valor entre líneas
representaba cinco veces el valor anterior.
3. Ábaco Chino: Consistía en un marco con dos zonas y 17 barras con siete cuentas en cada
una, cinco en la sección inferior (tierra) de valor unidad, y dos en la
superior (cielo) de valor cinco. Con lo que en cada barra se podía
representar un número del 1 al 15.
4. Ábaco Japonés (soroban): Se diferencia del chino en que en el cielo sólo pone una cuenta y en tierra
sólo cinco. Se puede considerar el último desarrollo del ábaco, en el que además
las cuentas se han modificado en su perfil para facilitar el manejo por los
dedos del operador; consiguiéndose una gran velocidad a la hora de realizar
sumas o restas con acarreo.
Como nota característica diremos que el 12-11-1946 compitieron el soldado Wood del ejército de EE.UU., que era el operador de máquinas eléctricas de calcular más experto; y Kiyoshi Matsuzaki, un japonés muy entrenado en el uso del Soroban. Y que en cuatro de las cinco pruebas ganó el ábaco con diferencia, perdiendo solo en la prueba de la multiplicación.Con esto queda demostrado que el ábaco no era un juguete de niños como muchos afirman, sino que si se sabe utilizar es muy potente.
Las Tablas de Neper
Tras el ábaco hubo un vacío en el que no apareció nada que revolucionase el cálculo, hasta que en 1614 John Napier (1550-1617) anunciara el descubrimiento de los logaritmos. Éstos eran funciones matemáticas que permitían que los resultados de complicadas multiplicaciones y divisiones se redujeran a un proceso de simples sumas y restas, respectivamente.
Inventó un dispositivo consistente en unos palillos con números impresos que merced a un ingenioso mecanismo le permitía realizar operaciones de multiplicar y dividir. A este dispositivo se le conoce como Tablas de Neper
Herramientas Analógicas
En la época de Neper (s. XVI-XVII) los problemas de cálculo más importantes
eran los de astronomía, navegación y cálculo de horóscopos; con lo que
aparecieron una serie de herramientas que facilitaban éstos:
- Cuadrante: Tenía bastantes funciones relacionadas con la trigonometría de la
época.
- Compas: Entre sus
funciones destacaban, la reducción y ampliación de dibujos a escala,
dividir un círculo en x partes iguales y la determinación de raíces
cuadradas y cúbicas.
- Sector: Útil y
potente para cálculos trigonométricos.
- Astrolabio: Servía para realizar diferentes observaciones y cálculos astronómicos
(más de mil se decía).
- Regla de cálculo: Hacia 1622 William Oughtred
utilizó los recién inventados logaritmos para fabricar un dispositivo que
simplificaría la multiplicación y la división. Consistía en dos reglas
graduadas unidas que se deslizaban una sobre la otra.
LAS PRIMERAS MÁQUINAS DE CÁLCULO
El afán por
reducir al máximo el trabajo al realizar las funciones aritméticas, y quizá una
pequeña mejora en la disponibilidad de instrumentos, provocan que a partir del
siglo XVII empiecen a aparecer en plan masivo máquinas o proyectos de las
mismas. En muchos de los casos los autores no llegaron a construir la maquina en
su totalidad, o no llegó a ser operativa); pero esto no se debía a que los
creadores no fueran lo suficientemente inteligentes, o a que no tuviesen las
ideas muy claras, sino que la tecnología de la época era bastante limitada y se
quedaba muy atrás en comparación con las exigencias del matemático, que veía
como sus proyectos se paralizaban.
Wilhelm
Schickard
Schickard fue el próximo en diseñar una máquina basada en las Tablas de Neper, la cual sumaba, multiplicaba y dividía semiautomáticamente.
La máquina se
dividía en dos partes:
- Parte inferior: servía para anotar resultados intermedios, sin necesidad de utilizar
papel y lápiz, rodando una serie de ruedas.
- Parte superior: era con la que se multiplicaba. Consistía en una serie de Tablas de
Neper las cuales estaban escritas sobre unos cilindros con lo que se podía
seleccionar una tabla en particular solo con girar un dial.
Blaise Pascal
Creo su calculadora en 1642, veinticinco años después que Neper publicase
una memoria describiendo su dispositivo ('Tablas de
Neper'). A los dieciocho años Pascal
deseaba dar con la forma de reducir el trabajo de cálculo de su padre, y en
general evitar a los hombres realizar cálculos repetitivos. Por ello Blaise se
preparó como mecánico y con sólo diecinueve años creo su máquina, la cual tenía
el tamaño de un cartón de tabaco. Su principio de funcionamiento era semejante
al ábaco, es decir, utilizaba el sistema de numeración decimal; pero las
primitivas varillas habían sido sustituidas por un número determinado de ruedas
dentada que al rodar diez dientes de la primera rueda avanzaba un diente de la
segunda, lo mismo con la 2ª y 3ª, y así sucesivamente. Las ruedas estaban
marcadas con números de 0 al 9, habiendo dos para los decimales y seis para los
enteros, con lo que se podía manejar números entre 000000 01 y 999999 99.
Gottfried Wilhelm Leibnitz
La célebre
calculadora inteligente del alemán Leibnitz
fue uno de los primeros autómatas de las historia; pero sobre todo la
informática le debe la genial idea de utilizar el sistema binario -0 y 1- como
método de cálculo.
Su gran curiosidad
científica le llevó a estudiar los campos de la lógica, matemática, física,
biología, ingeniería, historia, política, filosofía, jurisprudencia, metafísica
y teología. Esta relación de ciencias podría hacer creer que su labor fue muy
dispersa y no hizo nada en concreto; pero no es así.
Se esforzó por lograr
una síntesis intelectual a la vez que propuso el establecimiento de un lenguaje
universal, científico y formal. Relacionaba este proyecto lingüístico con su
plan de reforma científica basada en un cálculo matemático de índole
lógico-matemática.
En fin, la brillante
constelación intelectual de teorías y trabajos de Leibnitz afecta de forma esencial a la computación y entrar en su
historia por tres grandes logros:
- El formidable uso del sistema de numeración
binario. Base de numeración empleada por los modernos ordenadores
actuales.
- La calculadora mecánica: En un principio estudió a Pascal y diseñó un añadido para que pudiera hacer multiplicaciones; pero abandonó este proyecto posiblemente porque ambas partes no se llegaron a adaptar y a acoplar correctamente.
- La máquina que le ha dado tanta fama apareció en 1672, y se diferenciaba en la de Pascal en varios aspectos, tres de los cuales era que podía multiplicar, dividir y sacar raíces cuadradas. Constaba de dos secciones, una superior que contenía el mecanismo de inicialización y el registro de resultados. Y otra inferior donde se encuentra el mecanismo básico, el tambor en escalera.
Samuel Morland
Fabricó instrumentos de diversos tipos, entre ellos:
- Una máquina sencilla de sumar: Consistía en un juego de ruedas que se giraban con un pequeño punzón.
No había mecanismo de acarreo, sino que incorporaba unos diales auxiliares
que avanzaban una posición cuando el dial principal pasaba de 9 a 0. Al
finalizar la suma indicaban cuantos acarreos quedaban por hacer.
- Un juego sencillo de Tablas de Neper: esta segunda máquina servía como ayuda a la multiplicación y a la
división usando Tablas de Neper. Poseía un conjunto de discos que eran una
versión circular de la Tablas, para trabajar mejor con ellas.
Ambas máquinas formaban un buen conjunto, ya que además de complementarse
se necesitaban, ya que era preciso sumar al multiplicar con las Tablas de
Neper.
Joseph Jacquard
Utilizó un mecanismo
de tarjetas perforadas para controlar el dibujo formado por los hilos de las
telas controlados por una máquina de tejer. Jacquard fue el primero en emplear
tarjetas perforadas para almacenar información y además programar la
máquina.
En 1801 creó el Telar de Tejido, para elaborar la trama del diseño de una tela. La información necesaria para realizar su confección era almacenada en tarjetas perforadas. El telar realizaba el diseño leyendo la información contenida en las tarjetas. De esta forma, se podían obtener varios diseños, cambiando solamente las tarjetas. Se dice que Jacquard programó un diseño en 24 000 tarjetas, para tejer su propio autorretrato.
Charles Babbage
Matemático
inglés, posiblemente el más importante de los autores vistos hasta el momento En
1812 vio que las tablas trigonométricas estaban plagadas de errores al haber
sido calculadas a mano, y que estos fallos podían ocasionar desde grandes
desviaciones en las trayectorias navales hasta la pérdida de los documentos de
los pagos anuales del Gobierno. Él estaba seguro que una máquina realizaría
esas tablas mucho mejor y sin errores. Así pues en la década de 1820 diseño la MÁQUINA DIFERENCIAL.
Era una máquina
automática para el cálculo, lo que fue una revolución en la historia de la
computación. Podía realizar cálculos matemáticos sin necesidad de realizar
operaciones de multiplicar y dividir. Calculaba tablas de funciones, es decir,
calculaba el valor numérico de una función polinómica sobre una progresión
aritmética, dado que las funciones se pueden aproximar a polinomios. Además de
realizar estos cálculos, hubiese impreso las tablas en papel o metal, a pesar
de la dificultad de la época para llevar a cabo una impresión.
Las tablas
matemáticas que generaría la máquina eran calculadas mediante el método de las
diferencias, el cual es casi tan fácil como calcular una suma, y tiene la
ventaja de que el resultado depende de un valor previo.
Hacia 1822 había
creado un modelo de máquina que podía manipular diferencias de segundo orden.
Esta máquina se utilizó para el cálculo de tablas de navegación y artillería,
lo que le permitió conseguir una subvención recomendada por la Sociedad Real,
para respaldarle en la creación de una máquina de escala completa. Aquí es
donde empezaron los problemas, ya que la complejidad de la máquina puso en
evidencia la capacidad ingeniera de la época.
Fue acusado de desperdiciar el dinero del Gobierno en sus intereses; a pesar de todo el Gobierno le proporcionó más dinero y prosiguió con su trabajo, hasta que tuvo una disputa con el principal de sus mecánicos (1834), que hizo que el proyecto se aplazara.
Sin embargo había diseñado un modelo que calculaba diferencias de hasta tercer orden y había desarrollado un ingenioso método para trabajar redondeando errores. Si la última máquina diferencial hubiese sido construida habría calculado diferencias de hasta sexto orden, y sería capaz de trabajar con números de hasta dieciocho dígitos.
El diseño básico de
la máquina era como el de los computadores modernos. Tenía cuatro componentes
básicos:
- Un almacenamiento (memoria) con capacidad para guardar 50000 dígitos decimales, que se
usaba para guardar estados intermedios, variables y resultados.
- Una unidad de cómputo, que podía recibir órdenes para hacer las cuatro operaciones básicas
y podía almacenar en la memoria.
- Una unidad de entrada, mediante tarjetas perforadas que almacenaban el conjunto de órdenes
que se deseaba ejecutar.
- Una unidad de salida, mediante tarjetas perforadas o salida impresa.
Ada
Augusta Byron
Se considera la
primera programadora de la historia, es decir, la primera persona capaz de
entender el lenguaje de computadora y el lenguaje de programación, ya que
publicó una serie de programas para resolver ecuaciones trascendentes e
integrales definidas con la máquina de Babbage. Destaquemos que en dichos
programas se hacía uso de bifurcaciones hacia delante y hacia atrás, y de
bucles.
Su relación con
Charles Babbage comenzó cuando ella visitaba su taller a temprana edad. Babbage
estaba muy impresionado con la manera en que ella entendía su computadora.
Luego él pasó a ser su tutor y más tarde trabajaron juntos.
La primera
publicación de Ada fue una
traducción y análisis de un ensayo, escrito por un matemático italiano, sobre
la máquina de Babbage.
En sus notas
personales sobre sus habilidades con las computadoras decía que la máquina sólo
podía dar información disponible, es decir, vio claramente que no podía
originar conocimiento. También detectó que el motor podía generar música; en
fin, que entendía a la perfección cada una de las operaciones de la máquina
El que Ada entendiese a Babbage no es una simple anécdota, ya que además de confirmarla como la primera programadora, nos demuestra que al menos alguien entendió a Babbage, y que si sus máquinas no llegaron a ser construidas no es porque él quisiera crear algo imposible, sino porque en su época no hubo un acuerdo entre la técnica y sus proyectos.
George Boole
Publicó una aplicación de métodos algebraicos para la solución de ecuaciones diferenciales, y por este trabajo obtuvo la medalla de la Real Sociedad; a partir de aquí empezó su fama. En 1854 publicó también una investigación de leyes del pensamiento sobre las cuales son basadas las teorías matemáticas de lógica y probabilidad.
Boole aproximó la lógica en una nueva dirección reduciéndola a un álgebra simple, incorporando así la lógica a las matemáticas. Agudizó la analogía entre los símbolos algebraicos y aquellos que representan formas lógicas. Comenzaba el Álgebra Booleana también llamada Álgebra de Boole, la cual fue un paso fundamental en la revolución de los computadores de hoy en día. Entre sus muchas aplicaciones está la construcción de computadores y circuitos eléctricos.
.
Herman Hollerith
Fue la primera
persona que construyó una máquina basada en el tratamiento automático de la información.
En la década de 1880
se realizó un concurso, promovido por la oficina del Censo de EE.UU., en el que
se proponía la invención de una máquina que facilitara la realización del
censo. En dicho concurso quedaron tres finalistas: William C. Hunt que ideó un
sistema de tarjetas coloreadas, Charles P. Pidgin con un sistema de fichas
codificadas también coloreadas, y Herman
Hollerith con un sistema de tarjetas perforadas que resultó ser dos
veces más rápido que el de sus competidores. Dichas fichas eran leídas por una
máquina tabuladora, llamada máquina de censos (véase Figura 17). Éstas corrían
por unos cepillos y cuando la máquina detectaba mediante un baño de mercurio
(Hg) un orificio (eran características de la población), se cerraba un circuito
eléctrico haciendo que aumentara en una unidad el contador de dicha
característica de población. Finalmente los datos se registraban en una
tabuladora
.
Su invento era muy
útil a la hora de realizar cálculos estadísticos, y se convertiría más adelante
en un descubrimiento de gran importancia para el mundo de informática. Gracias
a él, el censo de 1890 se terminó en menos de tres años, siendo todo un éxito
ya que el de 1880 se acabó en 1888, y además se produjo un ahorro de cinco
millones de dólares.
Destaquemos que Herman no tomó la idea de las tarjetas
perforadas del invento de Jacquard, sino de la fotografía de perforación.
Vio que algunas líneas ferroviarias de la época expedían boletos con
descripciones físicas del pasajero; los conductores hacían agujeros en los
boletos que describían el color de pelo, de ojos, forma de la nariz, etc. de
los pasajeros; y esto le dio la idea para hacer fotografía perforada de cada
persona que iba a tabular.
En 1896 abandonó la oficina del Censo para crear su propia empresa, la Tabulating Machine Company, con la que vendió sus productos por todo el mundo. La demanda de sus máquinas se extendió incluso hasta Rusia. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto, una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1911 la Tabulating Machine Company al unirse con otras dos formó la Computing-Tabulating-Recording-Company. En 1919 se anunció la aparición de la impresora/listadora. Esta innovación revolucionó la manera en la que las compañías realizaban sus operaciones. En 1924, para reflejar mejor el alcance de sus intereses comerciales, la compañía pasó a llamarse International Bussines Machines Corporation, la mundialmente conocida IBM.
Konrad Zuse
Posee un
lugar especial en la historia de la informática, porque fue el primero en
construir ordenadores electromecánicos, y el primero en diseñar y construir un
ordenador calculador controlado automáticamente;
Su ordenador no era
electrónico ni tenía ningún programa residente en memoria; pero era capaz de
ser controlado por un lector externo que tomaba instrucciones desde una cinta
perforada.
El Z-1
Fue una máquina completamente mecánica. Sus componentes básicos eran una
especie de ingeniosas puertas construidas con una serie de placas deslizantes
conectadas entre ellas por unos rodillos.
El control del Z-1 se llevaba a cabo por medio de una
cinta, con las instrucciones perforadas en ella. Mientras la mayoría de la
gente usaba dichas cintas que conseguían en los lugares que proporcionaban
material a las centrales de telex, Zuse
usaba una cinta de vídeo de 35mm, que él mismo perforaba con un punzón manual.
La idea de usar esto se la dio su colega Helmut Schreyer que había trabajado
como proyeccionista de cine. La ventaja de ésta cinta residía en su mayor
resistencia y en que podía utilizar un proyector de cine para hacer que la
película se moviera a pequeños pasos por dentro de la máquina automáticamente.
La entrada de datos se basaba en un simple
teclado de cuatro posiciones decimales mientras que el de salida era un sistema
con cuatro impulsos eléctricos que eran mostrados mediante una lámpara.
El Z-2
El Z-2
fue diseñado para funcionar con la memoria mecánica del Z1 mientras que el
resto de la máquina iba a funcionar mediante relés. Los relés normales eran
demasiado caros para la cantidad que él necesitaba, que era de unos cuantos
cientos de ellos; por eso se hizo con unos cuantos de segunda mano que él y sus
amigos reconstruyeron para usar en el Z-2.
Schreyer diseñó un sistema de memoria que
funcionaba con pequeñas lámparas de neón controladas por una serie de tubos de
vacío. El prototipo podía manejar números de más de 10 bits de longitud y su
construcción requirió 100 tubos de vacío; pero desafortunadamente el modelo fue
destruido en un ataque aéreo.
Cuando acabó la
unidad aritmética basada en relés y tuvo la unidad de control funcionando, le
añadió la memoria mecánica y preparó una demostración para el Deutsche
Versuchsanstalt fur Luftahrt (Instituto de Investigación Aeronáutica Alemán).
La maquina funcionó a las mil maravillas, pero la construcción de la máquina no
resultaba rentable para su uso práctico; pero la utilización de los relés
convenció a los del DVL y aceptaron financiar a Zuse para la
construcción de una máquina más ambiciosa, que sería llamada Z-3.
El Z-3
El Z-3 fue una maquina muy al
estilo del Z1 y Z2, seguía funcionando con la cinta de vídeo, y seguía teniendo
los mismos dispositivos de entrada/salida. Toda la máquina se basaba en la
tecnología de relés, alrededor de unos 2.600 de éstos eran requeridos: 1400
para la memoria, 600 para la unidad aritmética y el resto para los circuitos de
control; que se colocaron en 3 estantes, 2 para la memoria y otro para la
unidad aritmética y la de control. Y cada uno tendría alrededor de 6 pies de
altura por 3 de ancho.
La memoria de 64 palabras fue, como en sus
predecesores, binaria en coma flotante; pero esta vez tenía una longitud de 22
bits: 14 para la mantisa, 7 para el exponente y uno para el signo. Todos los
números en coma flotante solían ser almacenados de una manera normalizada, en
la cual la mantisa era trasladada a la izquierda hasta que el número de más a
la izquierda fuera 1, el exponente se ajustaba de acuerdo a esto. Zuse
se dio cuenta de que esto no era realmente necesario si tenías presente que en
todos los números, la mantisa se desplazaba siempre hacia la izquierda y la
unidad aritmética le añadía el uno perdido, en todos los casos excepto en el 0.
Esta técnica se usa aún hoy en día y data de 1941.
Al igual que sus anteriores máquinas, la
unidad aritmética consistía en dos piezas separadas, una para el exponente y
otra para la mantisa, pudiendo operar en paralelo. Esta unidad no sólo tenía la
circuitería para realizar las 4 operaciones esenciales, sino que incluía
también ayudas para calcular raíces cuadradas y una serie de instrucciones en
la misma máquina para realizar multiplicaciones por -1;0.1;0.5;2 o 10.
El Z-3 superaba en velocidad al Harvard Mark I aunque este último fue terminado
alrededor de dos años y medio después. El Z-3 podía hacer 3 o 4 sumas y
multiplicar 2 números al mismo tiempo en 4 o 5 segundos.
El Z-4
El DVL siempre había
considerado al Z-3 como un mero prototipo, entonces, cuando éste fue completado
Zuse comenzó a trabajar con el Z-4. Básicamente era la misma
máquina que el Z-3 pero con una longitud de palabra de 32 bits.
El controlador de la cinta siempre leía
dos pasos por delante de la instrucción que se estaba ejecutando en dicho
momento, lo que permitió que a la máquina se le implementaran técnicas para
aumentar la velocidad como éstas:
- Ésas dos instrucciones siguientes se podían ejecutar en orden inverso, siempre que ello no afectara al cálculo, lo cual podía aumentar la velocidad de la máquina, porque esto hacía posible la lectura de los resultados intermedios.
- Dos operaciones de memoria se podían ejecutar antes de tiempo de manera que la menor velocidad de la memoria mecánica no disminuyera el rendimiento de la máquina.
- Se hizo posible que la unidad de control guardase un número que luego podría ser requerido por alguna de esas siguientes dos instrucciones.
Jonh Vincent Atanasoff
Era un físico
estadounidense, que daba clases en la universidad del estado de Iowa, donde
empezó haciendo un sencillo sistema de cálculo por medio de tubos de vacío.
Aficionado a la electrónica y conocedor de
la máquina de Pascal y de las teorías de
Babbage, empezó a considerar la posibilidad de construir una calculadora digital.
Decidió que la máquina operaría en sistema binario, haciendo los cálculos de
modo distinto a como los realizaban las calculadoras mecánicas; e incluso
concibió un dispositivo de memoria mediante almacenamiento de carga eléctrica.
Se podría decir que es el primer
ordenador electrónico digital. Podía realizar ecuaciones lineales y funcionaba
mediante 45 válvulas de vacío; pero nunca fue totalmente operativo debido a que
Atanasoff fue llamado por el
ejército para ingresar en la Naval Ordenance Laboratory en Washington, 2ª Guerra Mundial.
Primera
Generación (1945-1955)
La sustitución de los relés por Tubos
de vacío dio lugar a la
primera generación de ordenadores electrónicos.
El principal estímulo
para desarrollar computadoras electrónicas estuvo en la segunda guerra mundial.
Los submarinos alemanes, que destruían a la flota inglesa, se comunicaban por
radio con sus almirantes en Berlín. Los británicos podían captar las señales de
radio, pero los mensajes estaban encriptados usando un dispositivo llamado
ENIGMA. La inteligencia británica había podido obtener una máquina ENIGMA
robada a los alemanes, pero para quebrar los códigos era necesaria una gran
cantidad de cálculo, que debía hacerse a alta velocidad.
Para descodificar
estos mensajes, el gobierno británico construyó un laboratorio para construir
una computadora, llamada COLOSSUS.
Alan Turing, T. Flowers y M. Newman construyeron esta computadora (1943), que
fue la primera computadora electrónica de la historia. .Realizaba una amplia
gama de cálculos y procesos de datos y supuso el comienzo del cálculo
electrónico Estaba construida con válvulas de vacío y no tenía dispositivos
electromecánicos. A pesar de ello, al ser un secreto militar, su construcción
no tuvo ninguna influencia posterior.
En EE.UU.,
simultáneamente, había interés de la armada para obtener tablas que pudieran
usarse para mejorar la precisión en los disparos de artillería pesada (en
particular para armas antiaéreas), ya que hacerlos manualmente era tedioso y
frecuentemente con errores.
En 1943, John Mauchly y uno de sus alumnos, un joven ingeniero llamado John P. Eckert obtienen un subsidio de la armada para construir una computadora electrónica, que llamaron Electronic Numerical Integrator and Computer (ENIAC), primera computadora electrónica.
John Mauchly propuso construir una computadora
electrónica digital para reemplazar al analizador diferencial, dando dos
ventajas principales: la velocidad de la electrónica, y la precisión del
principio digital. Se construyó en la Universidad de Pensilvania con el
propósito de calcular tablas de artillería. La computadora consistía de 18000
válvulas de vacío y 1500 relés. Consumía 140 KW/h y pesaba 30 toneladas. Tenía
que ser programada manualmente mediante clavijas.
Su hardware
electrónico era 10 veces más rápidos que los del analizador diferencial y 100
veces más rápido que un calculista humano: podía hacer 5000 sumas por segundo.
La computadora era programada por completo usando una técnica similar a los
tableros de enchufes de las antiguas máquinas de calcular (encendiendo y
apagando llaves y enchufando y desenchufando cables). Esta computadora no era
binaria, sino decimal: los números se representaban en forma decimal, y la
aritmética se hacía en el sistema decimal. Tenía 20 registros que podían usarse
como un acumulador, cada uno de los cuales almacenaba números decimales de 10
dígitos.
Después de que la ENIAC estuviese operativa, se vio que
tomaba tiempo considerable en preparar un programa e incorporarlo en el
cableado; con lo que máquina se modificó, de tal forma que una secuencia de
instrucciones pudiera leerse como una secuencia de números de dos dígitos que
se ponían en una tabla de funciones. Para mantener la lógica simple, un solo
registro quedó de acumulador, y los demás fueron usados como memoria.
El profesor Howard H. Aiken, de la Universidad de Harvard, trabajó en IBM para construir la Mark I, también llamada calculadora automática de secuencia controlada, que entró en funcionamiento en 1944. Los cálculos se controlaban por cinta de papel perforada, con una serie de interruptores accionados manualmente y por paneles de control con conexiones especiales.
En 1947, la Mark
II estuvo operativa en Harvard. En el mismo año se introduce el tambor
magnético, un dispositivo de acceso aleatorio que puede usarse como almacenamiento
para computadoras. En este mismo año William Shockley, John Bardeen y Walter
Brattain, de los laboratorios Bell, inventaron la resistencia de transferencia
(transfer resistor), comúnmente conocida como Transistor. El concepto
estuvo basado en el hecho de que el flujo de electricidad a través de un sólido
(como el silicio) puede controlarse agregándose impurezas con las
configuraciones electrónicas adecuadas. Las válvulas de vacío requieren
cables, platos de metal, una cápsula de vidrio y vacío; en cambio, el transistor
es un dispositivo de estado sólido.
En 1948, Claude
Shannon presenta su "Teoría matemática de las comunicaciones". En el
mismo año, entra en operación la Manchester Mark I, la primera
computadora de programa almacenado. Fue diseñada por F. C. Williams y T.
Kilburn en la Universidad de Manchester, y era un modelo experimental para
probar una memoria basada en válvulas de vacío.
En 1949, Jay
Forrester construye la computadora Whirlwind en el MIT. Contenía 5000
válvulas, palabras de 16 bits, y estaba específicamente diseñada para controlar
dispositivos en tiempo real.
En el mismo año, la EDSAC (Electronic Delayed Storage Automatic Computer) estuvo operativa en Cambridge. Era una computadora de programa almacenado, que fue diseñada por Maurice Wilkes. Esta fue propuesta especialmente para resolver problemas reales, y pudo resolver variedad de cálculos. Su primer programa (una tabla de raíces cuadradas) lo ejecutó el 6 de Mayo de 1949, y siguió operando hasta 1958. La EDSAC tenía 512 palabras de 17 bits. Su diseño era bastante útil para el usuario. Un botón de inicio activaba un uniselector que cargaba un programa que estaba cableado a la Memoria, y este programa cargaba programas que estaban escritos en cinta de papel en la memoria, y se comenzaba a ejecutar. En esta época los cálculos se hacían bit por bit.
En 1949, el
laboratorio de Los Álamos, se empieza a construir la computadora MANIAC I,
que se terminó en Marzo de 1952. Esta computadora tenía un tambor auxiliar de
10.000 palabras de 40 bits en paralelo, y la unidad de entrada/salida tenía una
cinta de papel de 5 canales, un drive de cinta de un solo canal, y también una
impresora de línea.
Se dice que en este
año, John Mauchly desarrolla el lenguaje "Short Order Code",
que sería el primer lenguaje de programación de alto nivel.
En 1950 la EDVAC
se pone operativa, pero la Remington Rand Corporation (que se transformaría más
adelante en la Unisys Corporation) compra la Eckert-Mauchly Computer
Corporation
.
En 1951, Jay
Forrester presenta, dentro del proyecto Whirlwind, una memoria no volátil: la
memoria de núcleos, que sería ampliamente difundida.
La primera UNIVAC
I (Universal Automatic Computer) es puesta en funcionamiento en la Oficina
de Censos. Esta computadora pasó a ser la número uno en el mercado comercial.
La UNIVAC I (véase Figura 25) fue diseñada y construida en Filadelfia por
Eckerd and Mauchly Computer Company, fundada por los creadores de la ENIAC.
Esta computadora utilizaba tubos de vacío.
En el mismo año, Grace Murray Hopper
construye el primer compilador, llamado A-0. También en este año,
Maurice Wilkes origina el concepto de microprogramación, una técnica que provee
una aproximación ordenada para diseñar la unidad de control de una computadora.
- Tenía un almacenamiento, la memoria. La memoria almacena datos
e instrucciones, y consistía de 4096 palabras de 40 bits. Cada palabra
contenía dos instrucciones de 20 bits, o un entero con 39 bits y signo.
Las instrucciones usaban 8 bits para el tipo de instrucciones, y 12 bits
para especificar direcciones de memoria
- Una Unidad Aritmético/Lógica, que ejecutaba las operaciones
básicas, y contenía un registro acumulador de 40 bits (que también se
usaba para entrada/salida). Las operaciones se hacían sobre datos
binarios, y las hacía usando lógica bit-paralel.
- Una Unidad de Control de Programas, que interpretaba las
instrucciones en memoria, y hacía que se ejecutasen, es decir, seguía el
flujo del programa y finalmente hacía que se ejecute.
- El equipamiento de Entrada/Salida, operado por la Unidad de
Control. La salida de datos se hacía a través del registro acumulador
En 1952 también, se pone operativa la EDVAC
, así como la ILLIAC I (de la Universidad de Illinois) y la ORDVAC (construida
por la armada): Todas usan la arquitectura de Von Neumann. La ILLIAC (una copia
mejorada de la ORDVAC) tenía 1024 palabras de 40 bits. En estas máquinas una
suma tardaba nos 72 microsegundos, mientras que las multiplicaciones de punto
fijo tenían un promedio de unos 700 microsegundos.
Durante todos estos desarrollos, IBM
se había transformado en una pequeña compañía que producía perforadoras de
tarjetas y ordenadoras mecánicas de tarjetas. IBM no se interesó en producir
computadoras, hasta que en 1952 produjo la IBM 701. Esta computadora
tenía 2K de palabras de 36 bits, con dos instrucciones por palabras. Fue la
primera de una serie de computadoras científicas que dominaron la industria en
la década siguiente. En 1953, la IBM 650 sale a la venta, y fue la primera
computadora fabricada en serie. En 1955 apareció la IBM 704, que tenía
4K de memoria y hardware de punto flotante.
El invento del transistor
hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y
con menores necesidades de ventilación. El transistor requería menos energía
que las válvulas termiónicas y además era mucho más seguro y fiable.
La primera
computadora puramente basada en transistores fue la TX-0 (Transitorized experimental
computer 0), en el MIT. Esta fue un dispositivo usado para probar la TX-2.
Uno de los ingenieros trabajando en este laboratorio, Kenneth Olsen, abandonó
el laboratorio para formar la compañía DEC (Digital Equipment Company). En 1956, IBM
introduce el primer disco duro. En el mismo año, se diseña la primera
computadora comercial UNIVAC 2 puramente basada en transistores.
En 1956, IBM
introduce el primer disco duro. En el mismo año, se diseña la primera
computadora comercial UNIVAC 2 puramente basada en transistores.
En 1957 la EDSAC
2 estuvo operativa. Era una computadora con 1024 palabras de 40 bits, con
dos órdenes por palabras. Estaba hecha con válvulas, y la memoria usaba núcleos
de ferrita. La ALU era bit-sliced. Se incluyeron operaciones de punto flotante
para hacer los cálculos más simples, que usaba una fracción de 32 bits y un
exponente de 8 bits. La computadora era microprogramada, con una ROM 768
palabras. La ROM permitía que diversas subrutinas útiles (seno, coseno,
logaritmos, exponenciales) estuvieran siempre disponibles. La memoria fija
incluía un ensamblador y un conjunto de subrutinas de impresión que permitían
hacer entrada/salida.
Los
microprogramas permitieron que las órdenes pudieran ser diseñadas
cuidadosamente, menos dependientes de accidentes del hardware. La computadora
ejecutaba una instrucción simple en unos 20 microsegundos, y una multiplicación
precisaba 250 microsegundos. La lectora de papel leía 1000 caracteres por
segundo, y la perforadora perforaba 300 caracteres por segundo. La salida se
seguía imprimiendo en una telelimpresora.
En el mismo año, la
computadora ERMETH se construyó en el ETH en Zúrich. Tenía palabras de
16 dígitos decimales, cada uno de los cuales contenía dos instrucciones y un
número de punto fijo de 14 dígitos o un número de punto flotante con una
mantisa de 11 dígitos. Una suma de punto flotante tomaba 4 milisegundos; una
multiplicación, 18 milisegundos. Tenía un tambor magnético que podía almacenar
1000 palabras. La máquina tenía unas 1900 válvulas de vacío y unos 7000 diodos
de germanio.
También en 1957, John
Backus y sus colegas en IBM produjeron el primer compilador FORTRAN
(FORmula TRANslator). En 1958 se funda la compañía Digital, como fue mencionado
principalmente. Inicialmente la DEC sólo vendía plaquetas con pequeños
circuitos. En el mismo año, se producen los primeros circuitos integrados
basados en semiconductores (en las compañías Fairchild y Texas Instruments), y
también el proyecto Whirlwind se extiende para producir un sistema de control
de tráfico aéreo. En 1959 se forma el Comité en Lenguajes de sistemas de Datos
(CODASYL - Commitee On Data Systems Language) para crear el lenguaje COBOL
(Common Business Oriented Language), y John Mc. Carthy desarrolla el Lisp (List Processing) para aplicaciones de
inteligencia artificial.
El ordenador PDP-1
de Digital Equipment Corporation, basado en el transistor, se presentó en
Estados Unidos en 1960. Esta computadora fue diseñada tomando como base la
TX-0, y tenía 4K palabras de 18 bits. Costaba 120.000$, y tenía un tiempo de
ciclo del procesador de aproximadamente 5 microsegundos. Fue la primera máquina
con monitor y teclado, dando paso a lo que conocemos como minicomputadoras.
En 1961, Fernando
Corbató en el MIT desarrolla una forma que múltiples usuarios puedan compartir
el tiempo del procesador. También se patenta el primer robot industrial. En
1962, Steve Russell del M.I.T. crea el Spacewar (el primer vídeo juego). En
1963, el sistema de defensa SAGE es puesto en marcha, gracias al cual se
pudieron lograr muchos avances en la industria de la computadora.
Un problema
importante que surgió era la incompatibilidad de las computadoras; era
imposible compartir el software, y de hecho era necesario tener dos centros de
cómputos separados con personal especializado. Este problema termina con la
aparición de la IBM System/360 (véase Figura 28) que era una familia de
computadoras con el mismo lenguaje de máquina, y con mayor potencia.
El software escrito
en cualquiera de los modelos ejecutaba directamente en los otros (el único
problema era que, al aportar un programa de una versión poderosa a una versión
anterior, el programa podía no caber en memoria). Todas las IBM system 360
tenían soporte para multiprogramación. También existían emuladores de otras
computadoras, para poder ejecutar versiones de ejecutables de otras máquinas
sin ser modificados. Tenía un espacio de direcciones de 16 megabytes.
En este año se pone
en operaciones la computadora CDC 6600 de la Control Data Corporation,
fundada y diseñada por Seymour Cray. Esta computadora ejecutaba a una velocidad
de 9 Mflops. (es decir, un orden de magnitud más que la IBM 7094), y es la
primer supercomputadora comercial. El secreto de su velocidad es que era una
computadora altamente paralela. Tenía varias unidades funcionales haciendo
sumas, otras haciendo multiplicaciones, y otra haciendo divisiones, todas
ejecutando en paralelo (podía haber hasta 10 instrucciones ejecutando a la
vez). En este mismo año, Douglas Engelbart inventa el mouse, y John Kemeny y
Thomas Kurz desarrollan el lenguaje BASIC (Beginner's All-purpose Symbolic
Instruction Code).
En 1965, la DEC fabrica la PDP-8, que fue la primera minicomputadora con transistores en módulos de circuitos integrados. Esta tenía un único bus (o sea, un conjunto de cables paralelos para conectar los componentes de la computadora, en lugar de las líneas multiplexadas de las computadoras de Von Neumann tradicionales).
Tercera Generación (1964-1980)
La tercera
generación de computadoras emergió con el desarrollo de circuitos integrados
(pastillas de silicio) en las que se colocan miles de componentes electrónicos
en una integración en miniatura. Las computadoras nuevamente se hicieron más
pequeñas, más rápidas, desprendían menos calor y eran energéticamente más
eficientes.
La invención del
circuito integrado permitió que docenas de transistores se pusieran en el mismo
chip.
Este empaquetamiento
permitió construir computadoras más pequeñas, rápidas y baratas que sus
predecesores con transistores. Las primeras versiones de la IBM 360 eran
transistorizadas, pero las versiones posteriores no solo eran más rápidas y
poderosas, sino que fueron construidas en base a circuitos integrados. El ordenador
IBM-360 dominó las ventas de la tercera generación de ordenadores desde
su presentación en 1965.
En 1965, Gordon E. Moore (fundador de
Fairchild, y patentador del primer circuito integrado) cuantificó el
crecimiento sorprendente de las nuevas tecnologías de semiconductores. Dijo que
los fabricantes habían duplicado la densidad de los componentes por circuito
integrado a intervalos regulares (un año), y que seguirían haciéndolo mientras
el ojo humano pudiera ver.
En 1967, Fairchild
introduce un chip que contenía una ALU de 8 bits: el 3800. En 1968, Gordon
Moore, Robert Noyce y Andy Grove establecen la compañía Intel, que en un
principio se dedica a fabricar chips de memoria. En este mismo año, la
computadora CDC 7600 logra la velocidad de 40 Mflops.
En el año 1969, el
departamento de defensa de los EE.UU. encarga la red Arpanet con el fin de
hacer investigación en redes amplias, y se instalan los primeros cuatro nodos
(en la UCLA, UCSB, SRI y Universidad de Utah). También se introduce el estándar
RS-232C para facilitar el intercambio entre computadoras y periféricos.
En 1970 aparecen los discos flexibles y las impresoras margarita. También comienza a usarse la tecnología de MOS (Metal-Oxide semiconductor) para circuitos integrados más pequeños y baratos. En 1971, Intel lanza el microprocesador de 4 bits 4004 el primer microprocesador en un solo chip. Tenía una potencia similar al ENIAC, con un coste bajo (200 dólares) y ocupa muy poco (12 mm2).
Ya en 1972,
Intel fabrica el 8008, primer microprocesador de 8 bits (que es reemplazado por
el 8080, debido al límite de memoria de 16k impuesto por los pins en el chip).
En 1973, las técnicas de integración a gran escala (LSI - Large Scale Integration) permiten poner 10.000 componentes en un chip de 1 cm. cuadrado. En el mismo año, John Metcalfe propone el protocolo Ethernet para comunicación en redes locales. En 1975, la primera computadora personal, la Altair 8800, aparece en la revista Popular Electronics, explicando cómo construirla. También en ese año, IBM introduce la primera impresora láser.
En el año 1976, Steve Jobs y Steve Wozniak diseñan y construyen la Apple I, que consiste principalmente de un tablero de circuitos. IBM introduce las impresoras a chorro de tinta en ese mismo año, y Cray Research introduce la Cray 1, una supercomputadora con una arquitectura vectorial. También Intel produce el 8085, un 8080 modificado con algunas características extra de entrada/salida. Poco más tarde, Motorola introduce el procesador 6800, que era una computadora de 8 bits comparable al 8080. Fue utilizada como controlador en equipos industriales. Fue seguido por el 6809 que tenía algunas facilidades extra, por ejemplo, aritmética de 16 bits
En 1977,
Steve Jobs y Steve Wozniak fundan Apple Computer, y la Apple II es anunciada
públicamente. En 1978, Intel desarrolla el 8088 y el 8086, con la posibilidad
de multiplicar y dividir. Son prácticamente iguales, pero el bus del 8088 es de
8 bits, mientras que el del 8086 es de 16 bits. En este año DEC introduce la
VAX 11/780, una computadora de 32 bits que se hizo popular para aplicaciones
técnicas y científicas. En 1979, Motorola introduce el procesador 68000 que
sería más adelante el soporte para las computadoras Macintosh, Atari, Amiga y
otras computadoras populares. Este procesador no era compatible con el 6800 o
el 6809. Es un híbrido entre arquitecturas de 16 y 32 bits, y puede direccionar
16 Mb de memoria. De aquí en más los procesadores 680x0 siguen siendo muy
similares desde el punto de vista del programador, con pocas instrucciones
agregadas en cada versión nueva. También en este año aparecen los videodiscos
digitales.
La
multiprogramación
El BASIC
Para mejorar el ambiente de cómputo interactivo que estaban creando, los profesores desarrollaron un lenguaje de programación fácil de aprender por parte de los estudiantes universitarios de todas las carreras. El objeto era que todos los estudiantes tuvieran un incentivo para utilizar con cierta frecuencia las estaciones de tiempo compartido. Este lenguaje - el BASIC - que representa las iniciales en inglés de “código simbólico de instrucciones de aplicación general para principiantes” fue todo un éxito en Dartmouth en ambos aspectos. Dartmouth utilizaba una computadora General Electric y el sistema BASIC de tiempo compartido se implantó en este equipo con la ayuda de ingenieros de GE, a resultas del éxito del sistema de Dartmouth, General Electric y otros fabricantes ofrecieron instalaciones de tiempo compartido y el uso del lenguaje BASIC a sus clientes en todo Estados Unidos.
El Unix y el Lenguaje C
En 1969 se desarrollan en los laboratorios de AT&T Bell lo que sería el primer sistema operativo, el Unix. Antes de esto se requería que cada programador escribiera sus archivos en un tipo de formato que por lo general no era compatible con el de otro programador. Además, los programadores debían de preocuparse de tareas rutinarias como abrir archivos, cerrarlos, las colas de impresión, etc. Con la creación del sistema operativo esos pasos son encargados a la computadora misma, dando como resultado más tiempo al programador para ocuparse de los problemas reales. El Unix fue desarrollado en su mayor parte por Ken Thompson en una computadora DEC PDP-7, en un lenguaje también recién creado, el lenguaje C
El lenguaje C tiene la ventaja sobre los
otros leguajes de programación, que es de muy bajo nivel, al punto en que se
pueden escribir programas con la misma rapidez y potencia que los programas
escritos en lenguaje ensamblador. Sin embargo, cada tipo de computadora tiene
un tipo de lenguaje ensamblador diferente, debido a que el lenguaje C es un
lenguaje de alto nivel (no tan alto como los otros), los programas escritos en
C pueden ser transportados a otros computadores con un mínimo de cambios en sus
estructuras básicas.
Historia del
Linux y Unix
LINUX nació como un producto de Linus
Torvalds, inspirado en el MINIX, el sistema operativo desarrollado por Andrew
S. Tanenbaum en su obra "Sistemas Operativos: Diseño e
Implementación". Libro en el cual, tras un estudio general sobre los
servicios que debe proporcionar un sistema operativo y algunas formas de
proporcionar éstos, introduce su propia implementación del UNIX en forma de
código fuente en lenguaje C y ensamblador, además de las instrucciones
necesarias para poder instalar y mejorar el mismo.
La primera versión de LINUX, enumerada
como 0.01 contenía solo los rudimentos del núcleo y funcionaba sobre una
máquina con el MINIX instalado, esto es, para compilar y jugar con LINUX era
necesario tener instalado el MINIX de Tanembaum.
El 5 de Octubre de 1991, Linus anunció su
primera versión 'oficial', la 0.02 con esta versión ya se podía ejecutar el
bash (GNU Bourne Shell) y el gcc (GNU C compiler).
Después de la versión 0.03, Linus cambió este número por 0.10 y tras las
aportaciones de un grupo inicial de usuarios se incrementó de nuevo la
denominación a 0.95, reflejando la clara voluntad de poder anunciar en breve
una versión 'oficial' (con la denominación 1.0).
En Diciembre de 1993 el núcleo estaba en
su versión 0.99 pH I. En la actualidad la última versión estable es al 2.0.30
aunque existe ya la versión de desarrollo 2.1.
La enumeración de las versiones de LINUX implica a tres números separados por puntos, el primero de ellos es la versión del sistema operativo es el que distingue unas versiones de otras cuando las diferencias son importantes. El segundo número indica el nivel en que se encuentra dicha versión. Si es un número impar quiere decir que es una versión de desarrollo con lo cual se nos avisa de que ciertos componentes del núcleo están en fase de prueba, si es par se considera una versión estable. El último número identifica el número de revisión para dicha versión del sistema operativo, suele ser debido a la corrección de pequeños problemas o al añadir algunos detalles que anteriormente no se contemplaba con lo cual no implica un cambio muy grande en el núcleo. Como ejemplo sirva la versión de LINUX con la que ha sido desarrollado este trabajo, la última estable hasta hace poco tiempo, su número es 1.2.13, esto es, la versión 1 en su nivel 2 (estable) y la revisión número 13 de la misma en éste caso fue la última.
Hay que señalar que LINUX no sería lo que
es sin la aportación de la Free Software Foundation y todo el software
desarrollado bajo el soporte de esta asociación así como la distribución del
UNIX de Berkley (BSD), tanto en programas transportados como en programas
diseñados para este que forman parte de algunas distribuciones del LINUX.
.
Cuarta Generación (1980-1990)
En 1980 se
produce la primera computadora portable: la Osborne 1.
En 1981 se
lanza la computadora de arquitectura abierta IBM-PC, y un año más tarde
se produce el primer "clon" de esta computadora.
Un joven
americano obtuvo como resultado de grandes trabajos un sistema operativo
compatible con el de IBM. Lo llamó DOS, siglas de Disk Operative System, porque
además, entraba en un solo disquette.
Ese joven es hoy el dueño de la empresa más grande del mundo dedicada al desarrollo de software, y marca el rumbo al mercado informático; se llama Bill Gates y su empresa, Microsoft. Las computadoras fabricadas por terceros, es decir, no por IBM, se extendieron rápidamente, su costo era hasta tres veces menores que la original del gigante azul, y por supuesto, el sistema operativo era el DOS de Bill Gates.
En la jerga, se
comenzó a llamar a los PC'S, clones, o sea copias. IBM perdió el control muy
pronto. El rumbo de la tecnología era marcado ahora por la empresa INTEL, que
fabricaba los microprocesadores, lanzando uno nuevo aproximadamente cada año.
De inmediato Bill Gates con su flamante empresa Microsoft, desarrollaba
programas para aprovechar al máximo las capacidades de éste.
Los
microprocesadores de una o varias pastillas fueron incorporados rápidamente en
varios dispositivos: instrumentos científicos de medida, balanzas, equipos de
alta fidelidad, cajas registradoras y electrónica aeronáutica. Muchas familias
comenzaron a tener computadoras en sus casas, como por ejemplo las Texas
Instrument 99/4ª, Commodore 64 y 128, Spectrum.
Quinta Generación (1990-2000)
Microsoft pasó a desarrollar software que exigía demasiado a los procesadores
de INTEL, por lo que éste se veía obligado a apurar los tiempos de lanzamiento
de nuevos modelos. Aprovechando esta situación, por 1993, IBM, APPLE y Motorola
intentan quebrar el liderazgo INTEL-Microsoft, y lanzan el Power PC, un
procesador que prometía hacer estragos, pero solo lo utilizan APPLE en sus
computadoras personales e IBM en su línea de servidores AS400.
Simultáneamente otros fabricantes de procesadores
tomaron impulso. Estas circunstancias impulsaron a INTEL a crear un procesador
distinto. Los anteriores eran continuas mejoras al 286 más poderoso (386,486);
así, en 1992, Intel anunció que la quinta generación de su línea de
procesadores compatibles (cuyo código interno era el P5) llevaría el nombre Pentium
en vez de 80586.
Este microprocesador se presentó en 1993 con
velocidades iniciales de 60 y 66 MHz, 3.100.000 transistores (fabricado con el
proceso BICMOS, de 0,8 micrones), caché interno de 8 KB para datos y 8 KB para
instrucciones, verificación interna de paridad para asegurar la ejecución
correcta de las instrucciones, una unidad de punto flotante mejorada, bus de
datos de 64 bit para una comunicación más rápida con la memoria externa y, lo
más importante, permite la ejecución de dos instrucciones simultáneamente. El
chip se empaqueta en formato PGA (Pin Grid Array) de 273 pines.
En el Pentium, la unidad de punto flotante es una
prioridad para Intel, ya que debe competir en el mercado de Windows NT con los
procesadores RISC tales como el chip Alpha 21064 de Digital Equipment
Corporation y el MIPS R4000 de Silicon Graphics.
Tiene un gran aumento en el consumo de energía, lo que
hace que el chip se caliente demasiado y los fabricantes de tarjetas madres
(motherboards) tengan que agregar complicados sistemas de refrigeración.
Intel puso en el mercado en 1994 la segunda generación
de procesadores Pentium (90 y 100 MHz con tecnología de 0,6 micrones y,
posteriormente se agregaron las versiones de 120, 133, 150, 166 y 200 MHz con
tecnología de 0,35 micrones). Esto redujo drásticamente el consumo de
electricidad.
En octubre de 1994, un matemático reportó en Internet
que la Pentium tenía un error que se presentaba cuando se usaba la unidad de
punto flotante para hacer divisiones (instrucción FDIV) con determinadas
combinaciones de números. Por ejemplo:
- 962 306 957 033 / 11 010 046 = 87 402,6282027341 (respuesta correcta)
- 962 306 957 033 / 11 010 046 = 87 399,5805831329 (Pentium fallada)
El defecto se propagó rápidamente y al poco tiempo el
problema era conocido por gente que ni siquiera tenía computadora, problema que
posteriormente, los Pentium con velocidades más elevadas, no poseían este
problema.
En 1997 apareció una tercera generación de Pentium,
que incorpora lo que Intel llama tecnología MMX (MultiMedia eXtensions).
Digamos que, por culpa de Internet, INTEL creó el MMX. En realidad es un
Pentium con mejoras que optimizan la ejecución de vídeo y sonido multimedia en
la PC.
Finalmente nacen los modelos Pentium Pro, Pentium II y
Pentium III, llegando de esta forma a la actualidad. Hoy en día encontramos a
la venta el Pentium III a unos 700 MHz; pero ya existen procesadores a más de
1000 Mhz.
Bibliografía
google
Monografías
Solociencia
Wikipedia
Historia del ordenador



.jpg)
















































No hay comentarios:
Publicar un comentario