Página principal

Historia de la computación


Descargar 17.79 Kb.
Fecha de conversión18.07.2016
Tamaño17.79 Kb.
Historia de la computación
La historia de la computación se remonta a la época de la aparición del hombre en la faz de la tierra, y se origina en la necesidad que tenía éste de cuantificar a los miembros de su tribu, los objetos que poseía, etc. Uno de los primeros artefactos mecánicos de calcular que se conoce es el ábaco, que aún se sigue usando en algunos países de oriente de donde es originario.
El matemático escocés John Napier, basado en su teoría de que todas las cifras numéricas podían expresarse en forma exponencial, inventa los logaritmos, que permiten reducir a sumas y restas las operaciones de multiplicación y división. También inventó unas tablas de multiplicar movibles hechas con varillas de hueso o marfil, conocidas como huesos de Napier, que representan el antecedente de las reglas de cálculo.
Wilhelm Schickard (1592 1635), científico alemán, construye lo que podemos considerar como la primera máquina mecánica de calcular –basada en unas ruedas dentadas–, ya que podía efectuar las cuatro operaciones aritméticas básicas: suma, resta, multiplicación y división.
A Blaise Pascal, es a quien se le atribuye la invención de la primera calculadora automática llamada la “Pascalina” en 1642. El matemático alemán Gottfried von Leibniz diseñó una calculadora mecánica que ya permitía multiplicar, dividir y extraer raíz cuadrada mediante sumas y restas sucesivas.
En 1801 el francés Joseph Marie Jacquard (1752 1834) construye su telar mecánico basado en una lectora automática de tarjetas perforadas.
En Inglaterra, Charles Babbage, profesor de matemáticas de la Universidad de Cambridge, diseña la “máquina diferencial”. En 1833 abandona el primer proyecto y se propone realizar el verdadero sueño de su vida: la “máquina analítica”, que sería capaz de realizar cualquier tipo de cálculo de manera digital. Augusta Ada (1815 1853), hija del poeta Lord Byron está considerada como la primera programadora pues escribió secuencias de instrucciones en tarjetas perforadas, inventó métodos de programación como la subrutina e introdujo en sus programas las iteraciones y el salto condicional.
En 1886, el Dr. Herman Hollerith, estadístico empleado en la oficina de censos de Estados Unidos de Norteamérica, desarrolló un sistema basado en tarjetas perforadas para codificar los datos de la población en el censo de 1890.
En 1906, Lee De Forest inventa el tubo de vacío (bulbo) de 3 elementos, que más tarde tiene una gran importancia en el desarrollo de las computadoras. En 1919 W. H. Eccles y F. W. Jordan descubren el flip flop o basculador, un circuito binario capaz de asumir uno de dos estados estables.
El matemático estadounidense Claude E. Shannon, creador de la moderna teoría de la información, la define de la siguiente manera: “Información es todo lo que reduce la incertidumbre entre diversas alternativas posibles”.
A principios del siglo XX se producen múltiples eventos: la primera computadora analógica del Dr. Vannevar Bush; el primer programa mecánico de Wallace J. Eckert; el primer modelo general de máquinas lógicas de Alan M. Turing; la primera computadora electrónica digital del Dr. John V. Atanasoff; la primera computadora de propósito general controlada por programa del Dr. Konrad Zuse y muchos más.
La Mark I o Automatic Sequenced Controlled Calculator, basada en la máquina analítica de Babbage, pesaba unas cinco toneladas, estaba constituida por 78 máquinas sumadoras conectadas entre sí mediante 800 km de cable, contenía miles de relevadores, recibía las instrucciones por medio de cinta perforada de papel, y multiplicaba dos números de 10 dígitos en tres segundos aproximadamente.
La ENIAC, (Electronic Numerical Integrator and Calculator), incluía aproximadamente 18 000 tubos de vacío. Fue terminada hasta 1946, y su velocidad de procesamiento permitía efectuar alrededor de 500 multiplicaciones por segundo. La EDVAC, (Electronic Discrete Variable Automatic Computer), y la EDSAC (Electronic Delay Storage Automatic Calculator), ya incorporan las ideas sobre almacenamiento de programas en la memoria de la computadora del Dr. John von Neumann, científico estadounidense originario de Hungría. En 1951 se desarrolla la UNIVAC (Universal Automatic Computer).
Algunos consideran a 1951 como el año de arranque de la computación, por coincidencia con la aparición de la primera computadora comercial, la UNIVAC. Las computadoras de la primera generación se caracterizan por estar constituidas de relevadores (relés) electromecánicos, o de tubos de vacío.
La segunda generación de computadoras se caracteriza por la inclusión de transistores. Utilizan tarjetas o cinta perforada para la entrada de datos. La inclusión de memorias de ferrita en estas computadoras hizo posible que se redujeran de tamaño considerablemente, reduciendo también su consumo de energía eléctrica. Esto significó una notable baja de la temperatura en su operación.
El siguiente paso fue la integración a gran escala de transistores en microcircuitos llamados procesadores o circuitos integrados monolíticos LSI (Large Scale Integration), así como la proliferación de lenguajes de alto nivel y la introducción de programas para facilitar el control y la comunicación entre el usuario y la computadora, denominados sistemas operativos.
La aparición del primer microprocesador en 1971, fabricado por Intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, marca el inicio de la cuarta generación de computadoras.
Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generaciones han terminado, y las ubican entre los años 1971 1984 la cuarta y entre 1984 1990 la quinta. Estos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CAD, CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neurales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a mediados de la década de los años ochenta se establecieron las bases de lo que se puede considerar como quinta generación de computadoras. Hay que mencionar dos grandes avances tecnológicos, que quizás sirvan como parámetro para el inicio de la quinta generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray y el anuncio por parte del gobierno japonés del proyecto “quinta generación”, que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.
Las computadoras se clasifican de acuerdo a su tamaño, poder de cómputo, capacidad de memoria y almacenamiento, como macrocomputadoras, minicomputadoras, microcompu­tadoras o computadoras personales y supercomputadoras.
Las sociedades modernas tienen que cambiar por completo su mentalidad con respecto a la utilización de la herramienta más difundida en el mundo: la computadora. A menos de cincuenta años de su aparición de manera comercial, las computadoras han invadido la mayoría de las labores del ser humano. Actualmente no se puede pensar en casi ninguna actividad en la cual no intervengan de alguna manera los procesos de cómputo. El mundo está cambiando y usted deberá aprender todas esas tecnologías modernas para poder conseguir un empleo mejor retribuido y quizás, en poco tiempo, realizar trabajos desde la comodidad de su hogar mediante el teletrabajo, reduciendo el tráfico en las calles y por ende la contaminación de las grandes ciudades.
La nueva tecnología informática está cambiando nuestras vidas. Es necesario conocerla para no quedar inmersos en una nueva forma de analfabetismo. Se debe adoptar una serie de normas éticas que regulen la convivencia pacífica y cordial entre los millones de personas que tienen que utilizar estas avanzadas tecnologías para realizar su trabajo, estudio, descanso y esparcimiento diarios.

Es necesario aprender y utilizar técnicas de prevención, mantenimiento y seguridad para los equipos y programas que involucran a las computadoras. Actualmente se utilizan esquemas de seguridad basados en claves o passwords para la protección de accesos a las computadoras y a las redes. También se han creado algoritmos de encripción o encriptamiento que permiten codificar la información para que sólo el destinatario pueda recibirla –mediante una clave secreta– en una forma entendible.


La ergonomía” (ergonomics) se define como “el estudio de la capacidad y psicología humanas en relación con el ambiente de trabajo y el equipo manejados por el trabajador”, o “el estudio de cómo diseñar el equipo que afecta el qué tan bien puede realizar la gente su trabajo”. Prácticamente se puede decir que la ergonomía se encarga de la relación de eficiencia y salud entre el hombre, y su ambiente y herramientas de trabajo. Actualmente casi no podemos encontrar una rama de la ciencia en donde no se aplique la tecnología informática. La computación ha invadido, para bien, casi todas las actividades del ser humano: la ciencia, la administración, la economía, el diseño, la manufactura, la ingeniería, la educación, la medicina, el arte y la cultura, las aplicaciones militares, etc.


La base de datos está protegida por derechos de autor ©espanito.com 2016
enviar mensaje