La computacion
- Angel Farfan
- 1 may 2013
- 11 Min. de lectura

La computadora u ordenador no es un invento de alguien en particular, sino el resultado evolutivo de ideas y realizaciones de muchas personas relacionadas con áreas tales como la electrónica, la mecánica, losmateriales semiconductores, la lógica, el álgebra y programación.
Edad Media
El matemático y astrónomo persa Musa al-Juarismi (780-850), inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones.
Siglo XVII
1617: El matemático escocés John Napier (1550-1617), famoso por su invención de los logaritmos, desarrolló un sistema para realizar operaciones aritméticas manipulando barras, a las que llamó "huesos" ya que estaban construidas con material de hueso o marfil, y en los que estaban plasmados los dígitos. Dada su naturaleza, se llamó al sistema "huesos de Napier" (ábaco neperiano). Los huesos de Napiertuvieron una fuerte influencia en el desarrollo de la regla deslizante (cinco años más tarde) y las máquinas calculadoras subsecuentes, que contaron con logaritmos.
1623: La primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamada "reloj calculador", la máquina incorporó los logaritmos de Napier, haciendo rodar cilindros en un albergue grande. Se comisionó un reloj calculador para Johannes Kepler, famoso matemático y astrónomo, pero fue destruido por el fuego antes de que se terminara su construcción.
1624: La primera regla deslizante fue inventada por el matemático inglés William Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Se usó como uno de los primeros aparatos de la informática analógica. Su época de esplendor duró más o menos un siglo, el comprendido entre la segunda mitad del siglo XIX y el último cuarto del XX, hasta que a comienzos de 1970, calculadoras portátiles comenzaron a ser populares.
Pascalina del año 1652
1645: Blaise Pascal inventa la pascalina. Con esta máquina, los datos se representaban mediante las posiciones de los engranajes. La pascalina es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto.
1666: Samuel Morland inventa la primera máquina de multiplicar en la corte del rey Carlos II de Inglaterra. El aparato constó de una serie de ruedas, cada una de las cuales representaba decenas, centenas, etc. Un alfiler de acero movía los diales para ejecutar los cálculos. A diferencia de la pascalina, este aparato no tenía avance automático de columnas.
1673: el matemático alemán Gottfried Leibniz inventa la primera calculadora de propósito general. El aparato era una partida de la pascalina; mientras opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de engranajes. Aunque el aparato podía ejecutar multiplicaciones y divisiones, padeció de problemas de fiabilidad que disminuyó su utilidad.
Siglo XVIII
1769: Wolfgang von Kempelen, un noble húngaro, inventa un jugador de ajedrez supuestamente Autómata, El Turco. Pretendió ser una máquina pura, incluía un jugador de ajedrez "robótico", sin embargo fue una farsa, la cabina era una ilusión óptica bien planteada que permitía a un maestro del ajedrez esconderse en su interior y operar el maniquí. Era una sensación dondequiera que iba pero se destruyó en un incendio en 1856.
1777: Charles Stanhope (tercer earl de Stanhope) (Charles Mahon) inventa la primera máquina lógica, el demostrador lógico. Era un aparato de bolsillo que resolvía silogismos tradicionales y preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en computadoras modernas.
Siglo XIX
1801: El francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras. Inspirado por instrumentos musicales que se programaban usando papel agujereado, la máquina se parecía a una atadura del telar que podría controlar automáticamente los dibujos usando una línea de tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba por formar la base de muchos aparatos de la informática e idiomas de la programación.
1820: La primera calculadora de producción masiva se distribuyó por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro parisienses, el aritmómetro de Colmar operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetros se vendieron y eventualmente recibió una medalla a la Exhibición Internacional en Londres en 1862.
1822: Charles Babbage completa su artefacto de la diferencia, una máquina de propósito específico que se podía usar para calcular valores de funciones polinómicas mediante el método de las diferencias. El artefacto de la diferencia era un ensamble complejo de ruedas, engranajes, y remaches. Babbage diseñó su "artefacto analítico", un aparato de propósito general que era capaz de ejecutar cualquier tipo decálculo matemático. Los diseños del artefacto analítico eran la primera conceptualización clara de una máquina que podría ejecutar el tipo de cálculos computacionales que ahora se consideran el corazón de informática. Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda computadora digital subsiguiente, incluidas las modernas. El artefacto analítico fue finalmente construido por un equipo moderno de ingenieros, en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento, Babbage es conocido hoy en día como el Padre de las Computadoras Modernas.
1837: Charles Babbage describe la máquina analítica. Es el diseño de un computador moderno de propósito general. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y muy propenso a errores.
1843: Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se adaptaran de manera que causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunos consideran a Lady Lovelace la primera programadora.
1854: el lógico inglés George Boole publica su Álgebra de Boole. El sistema de Boole redujo a argumentos lógicos las permutaciones de tres operadores básicos algebraicos: y, o, y no. A causa del desarrollo del álgebra de Boole, Boole es considerado por muchos como el padre de la teoría de la informática.
1869: La primera máquina lógica en usar el álgebra de Boole para resolver problemas más rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el piano lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismos complicados.
1878: Un comité de la Asociación Británica para el avance de la ciencia recomienda no construir la máquina analítica de Babbage, por lo que este inventor no tuvo acceso a fondos del gobierno.
1878: Ramón Verea, quien vivía en la ciudad de Nueva York, inventó una calculadora con una tabla interna de multiplicación; esto fue mucho más rápido que usar acarreos u otro método digital de aquel tiempo. Él no se interesó en poner su obra en producción, sólo quiso mostrar que un español podía inventar tanto como un estadounidense.
1879: A los 19 años de edad, Herman Hollerith es contratado como asistente en las oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban información sobre el sexo o la edad, entre otros. Gracias a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880. Se tardaba tanto en hacer el censo debido a la llegada masiva de inmigrantes.
1884: Dorr Felt desarrolló su comptómetro, el cual fue la primera calculadora que se operaba con sólo presionar teclas en vez de, por ejemplo, deslizar ruedas.
1893: La primera máquina exitosa de multiplicación automática se desarrolló por Otto Steiger. El Millonario, como se le conocía, automatizó la invención de Leibniz de 1673, y fue fabricado por Hans W. Egli deZurich. Originalmente hecha para negocios, la ciencia halló inmediatamente un uso para el aparato, y varios miles de ellos se vendieron en los cuarenta años que siguieron. El cántabro Leonardo Torres Quevedo presenta en la Academia de Ciencias Exactas, Físicas y Naturales de la Memoria sobre las máquinas algébricas, y posteriormente en 1895 la memoria Sur les machines algébraiques en un Congreso en Burdeos.
1900: Leonardo Torres Quevedo presenta la memoria Machines à calculer en la Academia de Ciencias de París.
Siglo XX
Años 1900
1906: el estadounidense Lee De Forest inventa el tubo de vacío. El Audion, como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones tempranas de 5 computadoras, a comienzos de 1930.
Años 1910
1912: Leonardo Torres Quevedo construye un Autómata capaz de jugar al ajedrez que llamó El Ajedrecista y fue dado a conocer al público en 1914.
1914: El español Leonardo Torres Quevedo establece las bases de la automática, plantea la problemática de la inteligencia artificial (sin introducir esta denominación) y la aritmética en coma flotante en susEnsayos sobre automática. Su definición. Extensión teórica de sus aplicaciones.
1919: los inventores estadounidenses W. H. Eccles y F. W. Jordan desarrollan el primer circuito multivibrador o biestable (en léxico electrónico flip-flop). El flip-flop permitió diseñar Circuitos electrónicos que podían tener dos estados estables, alternativamente, pudiendo representar así el 0 como un estado y el otro con un 1. Esto formó la base del almacenamiento y proceso del bit binario, estructura que utilizan las actuales computadoras.
1920: Leonardo Torres Quevedo construye su aritmómetro electromecánico, primera calculadora automática.
Años 1920
1924: Walther Bothe construye una puerta lógica AND para usarla en experimentos físicos, por lo cual recibió el premio Nobel de física en 1954.
1925: en Estados Unidos se fundan los laboratorios Bell.
1930: Vannevar Bush construyó una máquina diferencial parcialmente electrónica, capaz de resolver ecuaciones diferenciales.
Años 1930
1931: Kurt Gödel publicó un documento sobre los lenguajes formales basados en operaciones aritméticas. Lo usó para codificar arbitrariamente sentencias y pruebas formales, y mostró que los sistemas formales, como las matemáticas tradicionales, son inconsistentes en un cierto sentido, o que contienen sentencias improbables pero ciertas. Sus resultados son fundamentales en las ciencias teóricas de la computación.
1936: Alan Turing describe la máquina de Turing, la cual formaliza el concepto de algoritmo.
1938: Konrad Zuse completa la primera computadora electro-mecánica, aunque no 100% operativa, la Z1.
1938: se encuentra la primera generación de computadoras que eran a base de tubos de vacío, esta generación abarca desde 1938 hasta 1958 donde inicia la segunda generación.
1939: los ingenieros William Hewlett y David Packard fundan en Palo Alto, California la compañía Hewlett-Packard
1940: Samuel Williams y George Stibitz completaron en los laboratorios Bell una calculadora electro-mecánica que podía manejar números complejos.
Años 1940
1941: La computadora Z3 fue creada por Konrad Zuse. Fue la primera máquina programable y completamente automática.
1942: John Vincent Atanasoff y Clifford Edward Berry completaron una calculadora de propósito especial para resolver sistemas de ecuaciones lineales simultáneas, la cual fue llamada la "ABC" ("Atanasoff Berry Computer").
1944: En Estados Unidos se construyó, en la Universidad de Harvard, la Harvard Mark I (primera máquina electromecánica), diseñada por un equipo encabezado por Howard H. Aiken.
1944: En Inglaterra se construyeron los ordenadores Colossus (Colossus Mark I y Colossus Mark 2), con el objetivo de descifrar las comunicaciones de los alemanes durante la Segunda guerra mundial.
1945: El primer caso de malfuncionamiento en la computadora causado por la intrusión de una polilla al sistema fue documentado por los diseñadores del MARK II. Erróneamente se cree que de allí proviene el uso del término "bug", que significa insecto o polilla en inglés. Sin embargo este término ya se usaba mucho antes para referirse a malfuncionamientos de aparatos mecánicos, eléctricos y electrónicos. El "Oxford English Dictionary " documenta este uso de la palabra desde 1889.
1945: John von Neumann escribe el "First Draf of a report on the EDVAC" una página del primer documento donde se describe el diseño lógico de una computadora utilizando el concepto de programa almacenado (stored-program), en él se señala una architectura distinta a la Arquitectura Harvard hoy día conocida como Arquitectura de von Neumann.
1945: Vannevar Bush desarrolló la teoría de Memex, un dispositivo de hipertexto ligado a una librería de libros y películas.
ENIAC.
1946: en la Universidad de Pensilvania se construye la ENIAC (Electronic Numerical Integrator And Calculator), que fue la primera computadora electrónica de propósito general. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 17.000 tubos de vacío, consumía 200 kW de energía eléctrica y requería todo un sistema de aire acondicionado; tenía la capacidad para realizar cinco mil operaciones aritméticas por segundo.
1946: Se pone un funcionamiento el computador británico EDSAC (Electronic Dilay Storage) construida por Maurice Wilkes y un equipo perteneciente al laboratorio de matemáticas de la universidad de Cambridge, fue inspirada en las ideas que Neumann expone en su borrador.
1947: en Laboratorios Bell, John Bardeen, Walter H. Brattain y William Shockley inventan el transistor.
1949: Jay Forrester desarrolla la primera memoria, la cual reemplazó los no confiables tubos al vacío como la forma predominante de memoria por los próximos diez años.
1949: La computadora EDSAC corre su primer programa.
1950: Alan Turing expone un artículo que describe lo que ahora conocemos como la prueba de Turing. Su publicación explora el desarrollo natural y potencial de la inteligencia y comunicación humana y de computadoras.
Años 1950
1951: comienza a operar la EDVAC, a diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado.
1951: Eckert y Mauchly entregan a la Oficina del Censo su primer computador: el UNIVAC I.
1951: el Sistema A-0 fue inventado por Grace Murray Hopper. Fue el compilador desarrollado para una computadora electrónica.
1952: Claude Elwood Shannon desarrolla el primer ratón eléctrico capaz de salir de un laberinto, considerada la primera red neural.
1953: IBM fabrica su primera computadora a escala industrial, la IBM 650. Se amplía el uso del lenguaje ensamblador para la programación de las computadoras.
1953: se crean memorias a base de magnetismo (conocidas como memorias de núcleos magnéticos).
1954: se desarrolla el lenguaje de programación de alto nivel Fortran.
1956: Darthmouth da una conferencia en a partir de la que nace el concepto de inteligencia artificial.
1956: Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas más cortas en grafos como una demostración de las habilidades de la computadora ARMAC.
1957: IBM pone a la venta la primera impresora de matriz de puntos.
1957: se funda la compañía Fairchild Semiconductor.
1957: Jack S. Kilby construye el primer circuito integrado.
1957: la organización ARPA es creada como consecuencia tecnológica de la llamada Guerra Fría.
1957: puesta en marcha de SAPO, el primer ordenador con tolerancia a fallos.
1958: comienza la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío.
1960: se desarrolla COBOL, el primer lenguaje de programación de alto nivel transportable entre modelos diferentes de computadoras.
1960: aparece ALGOL, el primer lenguaje de programación estructurado y orientado a los procedimientos.
1960: se crea el primer compilador de computador.
1960: C. Antony R. Hoare desarrolla el algoritmo de ordenamiento o clasificación llamado quicksort.
Años 1960
1961: en IBM, Kenneth Iverson inventa el lenguaje de programación APL.
1961: T. Kilburn y D. J. Howart describen por primera vez el concepto de paginación de memoria.
1962: en el MIT, Ivan Sutherland desarrolla los primeros programas gráficos que dejan que el usuario dibuje interactivamente en una pantalla.
1962: en el MIT, Hart y Levin inventan para Lisp el primer compilador autocontenido, es decir, capaz de compilar su propio código fuente.
1962: un equipo de la Universidad de Mánchester completa la computadora ATLAS. Esta máquina introdujo muchos conceptos modernos como interrupciones, pipes (tuberías), memoria entrelazada, memoria virtual y memoria paginada. Fue la máquina más poderosa del mundo en ese año.
1962: el estudiante del MIT Steve Russell escribe el primer juego de computadora, llamado Spacewar!.
Caracteres ASCII imprimibles, del 32 al 126.
1962: un comité industrial-gubernamental define el código estándar de caracteres ASCII.
1963: DEC (Digital Equipment Corporation) lanza el primer minicomputador comercialmente exitoso.
1964: la aparición del IBM 360 marca el comienzo de la tercera generación de computadoras. Las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
1964: aparece el CDC 6600, la primera supercomputadora comercialmente disponible.
1964: en el Dartmouth College, John George Kemeny y Thomas Eugene Kurtz desarrollan el lenguaje BASIC (el Dartmouth BASIC).
1965: Gordon Moore publica la famosa Ley de Moore.
1965: La lógica difusa, diseñada por Lofti Zadeh, se usa para procesar datos aproximados.
1965: J. B. Dennis introduce por primera vez el concepto de segmentación de memoria.
1965: en los clásicos documentos de Dijkstra se tratan por primera vez los algoritmos de exclusión mutua (sistemas operativos).
1966: la mayoría de ideas y conceptos que existían sobre redes se aplican a la red militar A
Comments