Computadora

Máquina capaz de efectuar una secuencia de operaciones mediante un programa, de tal manera, que se realice un procesamiento sobre un conjunto de datos de entrada, obteniéndose otro conjunto de datos de salida.

Tipos de Computadoras

En la actualidad se utilizan dos tipos principales de computadoras: Analógicas y Digitales. Sin embargo, el término computadora suele utilizarse para referirse exclusivamente al tipo digital.

  • Las computadoras analógicas aprovechan la similitud matemática entre las interrelaciones físicas de determinados problemas y emplean circuitos electrónicos o hidráulicos para simular el problema físico.
  • Las computadoras digitales resuelven los problemas realizando cálculos y tratando cada número dígito por dígito.

Computadora Analógica

La computadora analógica es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En la típica computadora analógica electrónica, las entradas se convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada.

Computadora Digital

Todo lo que hace una computadora digital se basa en una operación: la capacidad de determinar si un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, la computadora puede reconocer sólo dos estados en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es la velocidad con la cual la computadora realiza este acto tan sencillo lo que la convierte en una maravilla de la tecnología moderna. Las velocidades de la computadora se miden en megahercios, o millones de ciclos por segundo. Una computadora con una velocidad de reloj de 100 MHz, velocidad bastante representativa de un microordenador o microcomputadora, es capaz de ejecutar 100 millones de operaciones discretas por segundo. Las microcomputadoras de las compañías pueden ejecutar entre 150 y 200 millones de operaciones por segundo, mientras que las supercomputadoras utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de ciclos por segundo.

Historia de la Computación (Resumen)

Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre las varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que éste representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa.

Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623-1662) de Francia y la de Gottfried Wilhelm Von Leibniz (1646-1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones. Las salidas se obtenían observando las posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.

La primera computadora fue la máquina analítica creada por Charles Babbage, profesor de matemáticos de la Universidad de Cambridge en el siglo XIX. Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedicó al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos.

Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.

El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John Von Neumann (1903-1957). Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.

La idea fundamental de Von Neumman fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.

Todo este desarrollo de las computadoras suele clasificarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben tomarse en cuenta al menos los siguientes criterios:

  • La forma en que están construidas.
  • La forma en que el ser humano se comunica con ellas.

Primera Generación

En esta generación había un gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarcó la década de los cincuenta. Estas máquinas tenían las siguientes características:

  • Estaban construidas por medio de tubos de vacío.
  • En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).

En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860-1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines). Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957. Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrolló la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado. Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas. Se programan en nuevos lenguajes llamados lenguajes de alto nivel. Aparecen muchas compañías y las computadoras son bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo ncr 315. Después salió al mercado la RCA 601. El sistema operativo de la serie 360, se llamó OS y contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándar. UNIVAC compite con los modelos 1108 y 1110, máquinas de gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también mainframes, que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP – 8 y la PDP -11 de Digital Equipment Corporation, la VAX (Virtual Ardes extended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett – Packard con varios modelos el 36 y el 34, la Wang y Honey – Well – Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra.

Cuarta Generación

Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan sólo por IBM; y ésta por su parte es aún de las cinco compañías más grandes del mundo. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. No todo son microcomputadoras, por supuesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. Las enormes computadoras de la serie CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:

  • Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.

De acuerdo con él, una computadora tiene la siguiente estructura:

Una característica importante de el modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.

Ciclo de Búsqueda de la Instrucción (Ciclo Fetch)

Para ejecutar un programa almacenado en la memoria (modelo de Von Neumann) se requiere conocer cual es la ubicación en la memoria de las instrucciones; además del orden en que deben ser ejecutadas. Una forma de simplificar este problema es concebir a la memoria como un arreglo de celdas, identificando cada celda con su dirección (número binario que indica su posición). Podemos reconocer dos fases para cada instrucción:

  • Ciclo de Búsqueda (ciclo fetch): La CPU suministra la dirección de la instrucción a ejecutar, posteriormente lee la instrucción de la memoria y finalmente la interpreta determinando que operaciones debe efectuar.
  • Ciclo de Ejecución de la Instrucción: Una vez identificada la instrucción, la CPU genera las señales de control necesarias para realizar las operaciones especificadas.

Información: Medición de la Información

La cantidad de información contenida en un mensaje es susceptible de medirse, este tema forma parte de la teoría matemática de la información desarrollada por el matemático Claude Shannon y otros científicos. La información se manipula mediante Símbolos. En lenguaje máquina, cada instrucción está formada por una secuencia de unos y ceros (sistema numérico binario) que forma el código de operación. Para facilitar la programación, cada código se representa mediante palabras simbólicas (o Mnemónico) y los operandos se pueden expresar en notación decimal o hexadecimal que son más compactas que la binaria.