Ir al contenido principal

Curso de hardware - Capítulo 1 - Introducción al hardware

 


CONTENIDO 

1.1. ¿Qué es el Hardware?

1.2 Historia del Hardware

1.3 Generaciones

1.4 Representación de la información

   1.4.1 El sistema binario

   1.4.2 Múltiplos del Byte

   1.4.3 Representación de caractéres

   1.4.4 Representación de números enteros y reales

   1.4.5 Datos de tipo lógico o Booleano

1.5 Arquitectura de hardware – estructura general


INTRODUCCIÓN AL HARDWARE

1.1. ¿Qué es el Hardware?

Conjunto de elementos físicos o materiales que constituyen una computadora o un sistema informático. Es todo aquello que podemos tocar de una computadora. 

1.2. Historia del Hardware

El computador no es invento de alguien en especial, sino el resultado de ideas y realizaciones de muchas personas relacionadas con la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación. Máquinas para calcular Los primeros vestigios de cálculo, se remontan a 3000 AC. Los babilonios que habitaron en la antigua Mesopotamia empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de "cuentas" agrupadas en carriles de caña. Posteriormente, en el año 1800 AC, un matemático babilónico inventó los algoritmos que permitieron resolver problemas de cálculo numérico. Algoritmo es un conjunto ordenado de operaciones propias de un cálculo.

 Ábaco Los chinos desarrollaron el ábaco, con éste realizaban cálculos rápidos y complejos. Éste instrumento tenía un marco de madera cables horizontales con bolas agujereadas que corrían de izquierda a derecha.



En el siglo XVII, John Napier, matemático escocés famoso por su invención de los logaritmos (unas funciones matemáticas que permiten convertir las multiplicaciones en sumas y las divisiones en restas) inventó un dispositivo de palillos con números impresos que, merced a un ingenioso y complicado mecanismo, le permitía realizar operaciones de multiplicación y división. En 1642 el físico y matemático francés Blaise Pascal inventó el primer calculador mecánico. A los 18 años de edad, deseando reducir el trabajo de cálculo de su padre, funcionario de impuestos, fabricó un dispositivo de 8 ruedas dentadas en el que cada una hacía avanzar un paso a la siguiente cuando completaba una vuelta. Estaban marcadas con números del 0 al 9 y había dos para los decimales, con lo que podía manejar números entre 000000,01 y 999999,99. Giraban mediante una manivela, con lo que para sumar o restar había que darle el número de vueltas correspondiente en un sentido o en otro. Treinta años después el filósofo y matemático alemán Leibnitz inventó una máquina de calcular que podía multiplicar, dividir y obtener raíces cuadradas en sistema binario. A los 26 años aprendió matemáticas de manera autodidáctica y procedió a inventar el cálculo infinitesimal, honor que comparte con Newton.

 En 1801 el francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras.

 En 1879, a los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, etc. Gracias a la máquina de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880.

 Hollerith dejó las oficinas del censo en 1896 para fundar su propia Compañía: la Tabulating Machine Company. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto (en vez de las 80 cuando el censo), una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1924 Hollerith fusionó su compañía con otras dos para formar la International Business Machines hoy mundialmente conocida como IBM.

 Calculador digital

A comienzos de los años 30, John Vincent Atanasoff, un estadounidense doctorado en física teórica, hijo de un ingeniero eléctrico emigrado de Bulgaria y de una maestra de escuela, se encontró con que los problemas que tenía que resolver requerían una excesiva cantidad de cálculo. Aficionado a la electrónica y conocedor de la máquina de Pascal y las teorías de Babbage, empezó a considerar la posibilidad de construir un calculador digital. Decidió que la máquina habría de operar en sistema binario, y hacer los cálculos de modo distinto a como los realizaban las calculadoras mecánicas.

 Con 650 dólares donados por el Concejo de Investigación del Estado de Iowa, contrató la cooperación de Clifford Berry, estudiante de ingeniería, y los materiales para un modelo experimental. Posteriormente recibió otras donaciones que sumaron 6460 dólares. Este primer aparato fue conocido como ABC Atanasoff- Berry-Computer.

 Segunda Guerra Mundial

Prácticamente al mismo tiempo que Atanasoff, el ingeniero John Mauchly, se había encontrado con los mismos problemas en cuanto a velocidad de cálculo, y estaba convencido de que habría una forma de acelerar el proceso por medios electrónicos. Al carecer de medios económicos, construyó un pequeño calculador digital y se presentó al congreso de la Asociación Americana para el Avance de la Ciencia para presentar un informe sobre el mismo. Allí, en diciembre de 1940, se encontró con Atanasoff, y el intercambio de ideas que tuvieron originó una disputa sobre la paternidad del computador digital. En 1941 Mauchly se matriculó en unos cursos en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania, donde conoció a John Presper Eckert, un instructor de laboratorio. La escuela Moore trabajaba entonces en un proyecto conjunto con el ejército para realizar unas tablas de tiro para armas balísticas. La cantidad de cálculos necesarios era inmensa, tanto que se demoraba unos treinta días en completar una tabla mediante el empleo de una máquina de cálculo analógica. Aun así, esto era unas 50 veces más rápido de lo que tardaba un hombre con una sumadora de sobremesa.

 ENIAC


Mauchly publicó un artículo con sus ideas y las de Atanasoff, lo cual despertó el interés de Herman Goldstine, un oficial de la reserva que hacía de intermediario entre la universidad y el ejército, el cual consiguió interesar al Departamento de Ordenación en la financiación de un computador electrónico digital. El 9 de abril de 1943 se autorizó a Mauchly y Eckert iniciar el desarrollo del proyecto. Se le llamó ENIAC (Electronic Numerical integrator and Computer) y comenzó a funcionar en las instalaciones militares norteamericanas del campo Aberdeen Proving Ground en agosto de 1947.

La construcción tardó 4 años y costó $486.804,22 dólares (el equivalente actual a unos tres millones de dólares por menos poder de cómputo del que actualmente se consigue en las calculadoras de mano).

El ENIAC tenía 19.000 tubos de vacío, 1500 relés, 7500 interruptores, cientos de miles de resistencias, condensadores e inductores y 800 kilómetros de alambres, funcionando todo a una frecuencia de reloj de 100.000 ciclos por segundo. Tenía 20 acumuladores de 10 dígitos, era capaz de sumar, restar, multiplicar y dividir, y tenía tres tablas de funciones. La entrada y la salida de datos se realizaban mediante tarjetas perforadas. Podía realizar unas 5000 sumas por segundo (lo cual es muy poco, comparado con la capacidad de los computadores actuales). Pesaba unas 30 toneladas y tenía un tamaño equivalente al de un salón de clases.

 Consumía 200 kilovatios de potencia eléctrica -un computador personal moderno consume apenas 200 vatios, y es más poderoso- y necesitaba un equipo de aire acondicionado para disipar el gran calor que producía. En promedio, cada tres horas de uso fallaba una de las válvulas. Lo que caracterizaba al ENIAC como a un computador moderno no era simplemente su velocidad de cálculo, sino el que permitía realizar tareas que antes eran imposibles.

 Enigma.


Entre 1939 y 1944, Howard Aiken de la Universidad de Harvard, en colaboración con IBM, desarrolló el Mark 1, conocido como Calculador Automático de Secuencia Controlada. Fue un computador electromecánico de 16 metros de largo y unos 2 de alto. Tenía 700.000 elementos móviles y varios centenares de kilómetros de cables. Podía realizar las cuatro operaciones básicas y trabajar con información almacenada en forma de tablas. Operaba con números de hasta 23 dígitos y podía multiplicar tres números de 8 dígitos en 1 segundo.

El Mark 1, y las versiones que posteriormente se realizaron del mismo, tenían el mérito de asemejarse al tipo de máquina ideado por Babbage, aunque trabajaban en código decimal y no en binario.


El avance que dieron estas máquinas electromecánicas a la informática fue rápidamente ensombrecido por el ENIAC con sus circuitos electrónicos. Alan Turing, matemático inglés, descifra los códigos secretos Enigma usados por la Alemania nazi para sus comunicaciones. Turing fue un pionero en el desarrollo de la lógica de los computadores modernos, y uno de los primeros en tratar el tema de la inteligencia artificial con máquinas.

Norbert Wiener, trabajó con la defensa antiaérea estadounidense y estudió la base matemática de la comunicación de la información y del control de un sistema para derribar aviones. En 1948 publicó sus resultados en un libro que tituló CYBERNETICS (Cibernética), palabra que provenía del griego "piloto", y que se usó ampliamente para indicar automatización de procesos.

Computador Z3


El computador Z3, creado por Konrad Zuse, fue la primera máquina programable y completamente automática, características usadas para definir a un computador. Estaba construido con 2200 relés, tenía una frecuencia de reloj de ~5 Hz, y una longitud de palabra de 22 bits. Los cálculos eran realizados con aritmética en coma flotante puramente binaria. La máquina fue completada en 1941 (el 12 de mayo de ese mismo año fue presentada a una audiencia de científicos en Berlín). El Z3 original fue destruido en 1944 durante un bombardeo aliado de Berlín. Una réplica completamente funcional fue construida durante los años 60 por la compañía del creador Zuse KG y está en exposición permanente en el Deutsches Museum. En 1998 se demostró que el Z3 es Turing completo.

Posguerra: Cronología 1946, John Von Neumann propuso una versión modificada del ENIAC; el EDVAC, que se construyó en 1952. Esta máquina presentaba dos importantes diferencias respecto al ENIAC: En primer lugar empleaba aritmética binaria, lo que simplificaba enormemente los circuitos electrónicos de cálculo. En segundo lugar, permitía trabajar con un programa almacenado. El ENIAC se programaba enchufando centenares de clavijas y activando un pequeño número de interruptores. Cuando había que resolver un problema distinto, era necesario cambiar todas las conexiones, proceso que llevaba muchas horas.

Von Neumann propuso cablear una serie de instrucciones y hacer que éstas se ejecutasen bajo un control central. Además propuso que los códigos de operación que habían de controlar las operaciones se almacenasen de modo similar a los datos en forma binaria. De este modo el EDVAC no necesitaba una modificación del cableado para cada nuevo programa, pudiendo procesar instrucciones tan deprisa como los datos. Además, el programa podía modificarse a sí mismo, ya que las instrucciones almacenadas, como datos, podían ser manipuladas aritméticamente. 1951, Eckert y Mauchly entregan a la Oficina del Censo su primer computador: el UNIVAC-I. Posteriormente aparecería el UNIVAC-II con memoria de núcleos magnéticos, lo que le haría superior a su antecesor, pero, por diversos problemas, esta máquina no vio la luz hasta 1957, fecha en la que había perdido su liderazgo en el mercado frente al 705 de IBM.

 

1953, IBM fabricó su primer computador para aplicaciones científicas: el IBM 705, primer computador que empleaba memorias de núcleos de ferrita.


1958, comienza la segunda generación de computadores, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío. Un transistor y una válvula cumplen funciones equivalentes, con lo que cada válvula puede ser reemplazada por un transistor. Un transistor puede tener el tamaño de una lenteja mientras que un tubo de vacío tiene un tamaño mayor que el de un cartucho de escopeta de caza. Mientras que las tensiones de alimentación de los tubos estaban alrededor de los 300 voltios, las de los transistores vienen a ser de 10 voltios, con lo que los demás elementos de circuito también pueden ser de menor tamaño, al tener que disipar y soportar tensiones mucho menores. El transistor es un elemento constituido fundamentalmente por silicio o germanio. Su vida media es prácticamente ilimitada y en cualquier caso muy superior a la del tubo de vacío.

1962, el mundo estuvo al borde de una guerra nuclear entre la Unión Soviética y los Estados Unidos, en lo que se denominó “la Crisis de los misiles de Cuba”. A causa de esto, una de las preocupaciones de los ejércitos de los Estados Unidos era conseguir una manera de que las comunicaciones fuesen más seguras en caso de un eventual ataque militar con armas nucleares. Como solución entró en consideración solamente el proceso de datos en forma electrónica. Los mismos datos se deberían disponer en diferentes computadores alejados unos de otros. Todos los computadores entrelazados deberían poder enviarse en un lapso corto de tiempo el estado actual de los datos nuevos o modificados, y cada uno debería poder comunicarse de varias maneras con cada otro. Dicha red también debería funcionar si un computador individual o cierta línea fuera destruida por un ataque del enemigo. Joseph Carl Robnett Licklider escribió un ensayo sobre el concepto de Red Intergaláctica, donde todo el mundo estaba interconectado para acceder a programas y datos desde cualquier lugar del planeta. En Octubre de ese año, Lickider es el primer director de ARPA (Advanced Research Projects Agency), o Agencia de Proyectos de Investigación Avanzada, una organización científica creada en 1958 como contestación a la puesta en orbita por parte de los rusos del primer satélite conocido como Sputnik.

1963, un comité Industria-Gobierno desarrolla el código de caracteres ASCII, (se pronuncia asqui), el primer estándar universal para intercambio de información (American Standard Code for Information Interchange), lo cual permitió que máquinas de todo tipo y marca pudiesen intercambiar datos.

1964, la aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito impreso con múltiples componentes pasan a ser reemplazadas por los circuitos integrados. Estos elementos son unas plaquitas de silicio llamadas chips, sobre cuya superficie se depositan por medios especiales unas impurezas que hacen las funciones de diversos componentes electrónicos. Esto representa un gran avance en cuanto a velocidad y, en especial, en cuanto a reducción de tamaño. En un chip de silicio no mayor que un centímetro cuadrado caben 64.000 bits d información. En núcleos de ferrita esa capacidad de memoria puede requerir cerca de un litro en volumen.

1977, se hace popular el computador Apple desarrollado por Steve Jobs y Steve Wozniak en un garaje, y al año siguiente se ofrece la primera versión del procesador de palabras WordStar. 

 

1979, Dan Bricklin crea la primera hoja de cálculo, más tarde denominada VisiCalc, la cual dio origen a Multiplan de Microsoft, Lotus 1-2-3 (en 1982), Quattro Pro, y Excel.

ARPA crea la primera comisión de control de la configuración de Internet y en 1981 se termina de definir el protocolo TCP/IP (Transfer Control Protocol / Internet Protocol) y ARPANET lo adopta como estándar en 1982, sustituyendo a NCP. Son las primeras referencias a Internet, como “una serie de redes conectadas entre sí, específicamente aquellas que utilizan el protocolo TCP/IP”. Internet es la abreviatura de Interconnected Networks, es decir, Redes interconectadas, o red de redes.

1980, en octubre, la IBM comenzó a buscar un sistema operativo para la nueva computadora personal (PC) que iba a lanzar al mercado, cosa de la cual se enteraron Bill Gates y su amigo Paul Allen, autores del lenguaje de programación Microsoft Basic, basado en el ya existente lenguaje Basic. Ellos compraron los derechos de QDOS (Quick and Dirty Operating System), un sistema operativo desarrollado por Tim Paterson y basado en CP/M, un sistema escrito por Gary Kildall, y lo negociaron con IBM como Microsoft DOS.

1981, IBM presenta el primer computador personal reconocido popularmente como tal, con sistema operativo DOS y procesador Intel 8088. Es bueno recordar que IBM y Microsoft son coautores del sistema operativo PC-DOS/MS-DOS, ya que IBM ayudó a Microsoft a pulir los muchos errores que el MS DOS tenía originalmente.

1983, IBM presenta el PC XT con un procesador 8088 de 4,77 Mhz de velocidad y un disco duro de 10 Mb, Microsoft ofrece la versión 1.0 del procesador de palabras Word para DOS y ARPANET se separa de la red militar que la originó, de modo que ya sin fines militares se puede considerar esta fecha como el nacimiento de Internet. Es el momento en que el primer nodo militar se desliga, dejando abierto el paso para todas las empresas, universidades y demás instituciones que ya por esa época poblaban la red. Richard Stallman, quien por ese entonces trabajaba en el Instituto Tecnológico de Massachussets (MIT), decidió dedicarse al proyecto de software libre que denominó GNU.

1984, IBM presenta el PC AT, un sistema con procesador Intel 286, bus de expansión de 16 bits y 6 Mhz de velocidad. Tenía 512 kb de memoria RAM, un disco duro de 20 Mb y un monitor monocromático. Precio en ese momento: 5.795 dólares.


1985, Microsoft presenta el sistema operativo Windows, demostrando que los computadores compatibles IBM podían manejar también el entorno gráfico, usual en los computadores Mac de Apple.

1986, Compaq lanza el primer computador basado en el procesador Intel 80386, adelantándose a IBM.

1990, Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. Su sistema hizo mucho más fácil compartir y encontrar datos en Internet. Berners-Lee también creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL. 1991, Linus Torvalds, un estudiante de Ciencias de la Computación de la Universidad de Helsinki (Finlandia), al ver que no era posible extender las funciones del Minix, decidió escribir su propio sistema operativo compatible con Unix, y lo llamó Linux (el parecido con su nombre personal es mera coincidencia).

Miles de personas que querían correr Unix en sus PCs vieron en Linux su única alternativa, debido a que a Minix le faltaban demasiadas cosas. El proyecto GNU que Stallman había iniciado hacía ya casi diez años había producido para este entonces un sistema casi completo, a excepción del kernel, que es el programa que controla el hardware de la máquina, el cual desarrolló Torvalds y agregó al GNU para formar Linux.

A mediados de los años noventa Linux se había convertido ya en el Unix más popular entre la gente que buscaba alternativas al sistema Windows de Microsoft.

1992, es introducida la Arquitectura Alpha diseñada por DEC bajo el nombre AXP, como reemplazo a la serie VAX que comúnmente utilizaba el sistema operativo VMS y que luego originaría el openVMS. Cuenta con un set de instrucciones RISC de 64 bits especialmente orientada a cálculo de punto flotante. No se ha hecho muy popular pero si es reconocida su tecnología en el entorno corporativo.

1993, un grupo de investigadores descubrieron que un rasgo de la mecánica cuántica, llamado entrelazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto (quantum) aplicada a la construcción de computadoras cuánticas y a la teleportación (teleportation)

1995, lanzamiento de Windows 95. Desde entonces Microsoft ha sacado al mercado varias versiones tales como Windows 98,

2000 (Server y Proffesional), NT Workstation, NT SMB (Small Business Server), ME, XP (Proffesional y Home Edition) y el nuevo Vista.

1996, se creó Internet2, más veloz que la Internet original, lo cual permite el manejo de archivos muy grandes y aplicaciones en videoconferencia, telemedicina y muchas otras cosas imprácticas por Internet 1. Fue resultado de la unión de 34 de las principales universidades de los Estados Unidos.

2000, es presentado el prototipo de computador cuántico construido por el equipo de investigadores de IBM que constaba de 5 átomos, se programaba mediante pulsos de radiofrecuencia y su estado podía ser leído mediante instrumentos de resonancia magnética, similares a los empleados en hospitales y laboratorios de química. En este computador, cada uno de los átomos de flúor que lo componen actúa como un qubit; un qubit es similar a un bit en un computador electrónico tradicional, pero con las diferencias que comporta su naturaleza explícitamente cuántica (superposición de estados, entrelazamiento de los estados de dos qubits...).

2005, los usuarios de internet con conexión de banda ancha superan a los usuarios de internet con conexión vía modem en la mayoría de países desarrollados.

2007, las computadoras personales tanto portátiles como desktop, avanzan rápidamente, desarrollos nuevos de microprocesadores, memorias y otros, hacen que deba renovarse el equipo en el lapso de uno a dos años para no quedar fuera de la tecnología, y perder la compatibilidad con los programas actuales.

Actualmente los computadores vienen con grandes capacidades de memoria RAM, disco duro, procesadores y tecnologías cada vez mas avanzadas. Se esperar con ansias la llegada de la inteligencia artificial que aún no está disponible de manera comercial.

1.3.  Generaciones

 -1ª Generación (1945-1955)



Los primeros equipos aparecieron al final de la 2ª Guerra Mundial, no se puede hablar aún de Sistema Operativo debido a que la programación se realizaba físicamente conectando cables. El elemento básico de construcción eran válvulas con triodos de filamento, con dimensiones y apariencia de bombillas, pero en las que es posible regular el paso de corriente eléctrica. ENIAC fue el nombre del primer ordenador de esta generación. Fue construido por John Presper y John W. Mauchly con financiación del gobierno de los EEUU de América y tenía como objetivo la automatización de procesos estadísticos.

 

-2ª Generación (1955-1965)



El elemento característico de esta generación es el transistor, los ordenadores se hicieron más fiables y menos costosos. Apareció el primer lenguaje de programación “FORTRAN”. Ya había una idea básica de lo que era un Sistema Operativo (Controlan el inicio y fin de los trabajos, la lectura de datos, la salida de informacion, etc…), por ejemplo:

 

– El programador escribe su programa en FORTRAN y perfora las tarjetas necesarias para representarlo.

 

– Lector de tarjetas conectado a un equipo de pequeña capacidad y coste: pasa el programa a una cinta magnética.

 

– Cuando esta cinta está llena (trabajos de varios usuarios) es llevada a la máquina más potente, que ejecuta el programa.


– Resultados fuera de línea: Salida se almacena en un segunda cinta que equipo pequeño imprime.

 

 

-3ª Generación (1965-1980)



Aparecen los primeros circuitos integrados, como el chip de Silicio, en el cual se integran múltiples transistores en un circuito.

 

IBM crea la familia sistema/360 de amplia funcionalidad:

 

- Computación científica a gran escala

- Computación comercial

- Problema: software compatible para máquinas diferentes, (objetivos, configuraciones

   y capacidades) Se introducen conceptos como la multiprogramación, el Spooling o el

   tiempo compartido. Aparece el Sistema MULTICS:

 

– Proyecto de gran ordenador que diera servicio a cualquier usuario dentro de una ciudad

– Gran influencia S.O. pero fracasó
Uno de los científicos de MULTICS, desarrollo juego de naves especiales que necesitaba nuevo S.O.: UNICS, este UNICS  es el origen del conocido S.O. UNIX.

 

-4ª Generación  (1980-1996)



Llegan los primeros Microprocesadores, se caracteriza por la integración de un alto número de transistores, pero también por la integración de casi todos los componentes de la arquitectura Von Neumann en un único chip. El primer Microprocesador fue creado por Intel en 1971, se denominaba I4004, ejecutaba 92.000 Instrucciones Por Segundo. Aparece el Sistema Operativo en red y el Sistema Operativo distribuido.

 

-5ª Generación (1997- Actualmente)



No hay grandes avances en arquitectura, tan sólo se tira del hilo aumentando enormemente la integración de transistores en un único chip, lo que llevó en los últimos años incluso a la multiplicación del número de microprocesadores incluidos en la misma cucaracha.

 

Por ejemplo, un Intel Xeon Quadcore de 2007 ya procesaba palabras de 64bits, tenía 45nm de tamaño de pista, velocidad de reloj de 3GHz, 820 Millones de transistores.

Se desarrollan las microcomputadoras, o sea, computadoras personales o PC. Se desarrollan las supercomputadoras.

 

Inteligencia artificial:

La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento humano usados en la solución de problemas a la computadora.

 

Robótica:

La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de computación híbrido independiente que realiza actividades físicas y de cálculo. Están siendo diseñados con inteligencia artificial, para que puedan responder de manera más efectiva a situaciones no estructuradas.

 

Sistemas expertos:

Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas.

 

Redes de comunicaciones:

Los canales de comunicaciones que interconectan terminales y computadoras se conocen como redes de comunicaciones; todo el “hardware” que soporta las interconexiones y todo el “software” que administra la transmisión.

 

Los grandes avances se han producido también a nivel de los Sistemas Operativos, empresas como Microsoft desarrollaron sistemas operativos tales como Windows 98, Windows XP, Windows Vista, Windows 7 o el actual Windows 8 … Apple desarrolló Mac OS, iOS para dispositivos portatiles o el recientemente anunciado X Mountain Lion que es una alternativa al Macintosh, y como software libre aparecieron Linux, Ubuntu, Fedora…

 

Las funcionalidades de estos Sistemas Operativos son ya tan amplias que ofrecen casi cualquier servicio para cualquier tipo de usuario. 

1.4.  Representación de la información

Si se nos formula una pregunta, el hecho de responder consiste en transmitir información al interlocutor. Una respuesta puede contener una cantidad de información variable; puede exigir una larga disertación, unas pocas frases o unas pocas palabras. Pero la respuesta más elemental se produce cuando a una pregunta es posible contestar sólo “sí” o “no”. La unidad básica de información que puede manejar un dispositivo electrónico es el bit. Un bit es la cantidad de información que puede almacenarse en un dispositivo binario (por ejemplo, un interruptor: abierto o cerrado). Para representar los dos posibles valores se utilizan los símbolos "0" y "1". De hecho, la palabra "bit" es una contracción de "BInary digiT". Es decir, los ordenadores actuales -que son dispositivos electrónicos- almacenan, procesan y transfieren la información en forma binaria. La combinación de varias de estas unidades elementales (bits) permite construir valores más complejos que un simple “sí” o “no”; de hecho, y gracias al sistema binario de numeración, en realidad los ordenadores manejan la información en forma numérica. 

1.4.1.       El sistema binario

 Habitualmente, en la actualidad las personas utilizamos el sistema de numeración decimal o de base 10. Pero esto no ha sido siempre así; civilizaciones anteriores han utilizado otros sistemas de numeración. El sistema decimal se basa en el uso de diez dígitos diferentes para representar las cantidades: son los dígitos del 0 al 9. Las cantidades menores que 10 pueden representarse de manera directa con uno de estos dígitos decimales. Pero si se tiene la cantidad 9 y a ella se añade un elemento más, ya no es posible representar el resultado con un solo dígito. En este momento entra en acción un sistema de representación que consiste en que “vuelve a empezar” en 0 el dígito que se estaba utilizando, pero al dígito de su izquierda (que inicialmente es, de forma implícita, 0) se le suma 1. Este proceso continúa de manera sucesiva, de modo que los números expresados en el sistema decimal tienen varios dígitos, que se interpretan de la forma indicada en la Fig. 1. 

Se puede ver que en el número 2537 el 7 ocupa una posición cuyo valor es 1 (las

unidades). El número 3 que aparece a su izquierda indica que, al contar, la cifra de las unidades ha “vuelto a empezar” 3 veces; es decir, ese número 3 aporta 3x10 a la cantidad final (es la cifra de las decenas). El número 5 representa las centenas; su presencia indica que, al contar, la cifra de las decenas ha “vuelto a empezar” 5 veces, y como sabemos, por cada una de ellas la de las unidades también ha contado 10 unidades. En total, ese dígito 5 aporta 5x10x10 unidades a la cantidad final. Y así sucesivamente. En resumen, cada dígito de un número decimal debe multiplicarse por una potencia de 10, dependiendo de su posición, como se ve en las filas superiores de la Fig. 1. El número 2537 respondería a la expresión siguiente:

 2537 = 2 x 103 + 5 x 102 + 3 x 101 + 7 x 100

 Gracias a estas reglas de combinación, disponiendo sólo de 10 dígitos se puede expresar cualquier cantidad. El sistema binario de numeración funciona de manera totalmente análoga; pero la base del mismo no es 10, sino 2, y además no se dispone de 10 dígitos (del 0 al 9) sino de 2 dígitos (el 0 y el 1). Esto puede verse en la Fig. 2.

Comparando la Fig. 1 y la Fig. 2 se aprecian las similitudes y diferencias entre ambos

sistemas de numeración. En primer lugar, en la fila inferior (el número propiamente dicho) sólo aparecen los dígitos 0 ó 1. En segundo lugar, el valor de cada dígito según su posición no se calcula en relación con las potencias de 10, sino con las potencias de 2. Por lo demás, el funcionamiento de este sistema de representación es análogo, de modo que el número 1001 en binario puede convertirse a su valor decimal mediante los cálculos oportunos:

 1001 = 1x 23 + 0 x 22 + 0 x 21 + 1 x 20

 Por tanto, el número 1001 en binario es equivalente al número 9 en decimal. Puede verse que al igual que ocurre en el sistema decimal, con un número limitado de dígitos (en este caso sólo 2) pueden construirse combinaciones que representen cualquier número arbitrariamente grande (siempre y cuando, claro está, se incorporen suficientes dígitos binarios). 

1.4.2.       Múltiplos del Byte

 Si bien la unidad básica de información que manejan los ordenadores es el bit, los bits no se manejan individualmente, sino por grupos de un tamaño fijo. Así a 8 bits se le da el nombre de octeto o en inglés byte. Habitualmente se utilizan los siguientes múltiplos del byte:

 • Kilobyte (KB) = 1024 bytes (aproximadamente 10 veces la longitud de un mensaje corto de un teléfono móvil)

 • Megabyte (MB) = 1.048.576 bytes (del orden del doble del texto que contiene este libro)

 • Gigabyte (GB) = 1.073.741.824 bytes (una biblioteca de mil volúmenes o 150 minutos de audio)

 • Terabyte (TB) = = 103 GB = 106 MB = 109 kB (más de 100 días de audio)

 1.4.3.       Representación de caracteres

 Como ya se ha dicho, los ordenadores sólo trabajan con números binarios; sin embargo, la información escrita por los seres humanos se expresa con un alfabeto o conjunto de símbolos denominados caracteres. Estos caracteres pueden agruparse en cinco categorías:

 • Caracteres alfabéticos: Son las letras mayúsculas y minúsculas del alfabeto inglés: A, B, C,..., X, Y, Z, a, b,..., x, y, z

 • Caracteres numéricos: Están constituidos por los diez dígitos decimales: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9

 • Caracteres especiales: Son signos de puntuación, comparación, admiración, interrogación y otros: \, |, @, #, [, {, ], }, etc...

 • Caracteres de control: Representan órdenes de control como pitido, fin de página, fin de línea, etc...

 • Caracteres expandidos: Dado que las distintas lenguas tienen símbolos que no existen en el idioma inglés, se han de añadir éstos, así como otros caracteres gráficos. Por ejemplo la letras ñ, Ñ, las vocales acentuadas, letras griegas, etc...

Para representar caracteres se utiliza un código, es decir, a cada letra o símbolo se le asigna un valor numérico en binario.

 Los códigos más utilizados tradicionalmente son ASCII (American Standard Code for Information Interchange) y EBCDIC (Extended Binary Coded Decimal Information Code). Ambos códigos son de 8 bits o un byte, es decir, cada carácter se representa por un byte; por lo tanto se podrán representar 256 caracteres, aunque el código ASCII sólo tiene normalizados los 127 primeros caracteres (7 bits). El código ASCII es el más extendido en la actualidad. Desde el código 0 al 31 son caracteres de control; del 32 al 47 son símbolos como !, ", #, $,...,/; del símbolo 48 al 57 son los dígitos; del 58 al 63 son otros símbolos como :, ;, <, =, >, ?, y @; del 64 al 90 son las letras mayúsculas; del 91 al 96 son más símbolos como [, \, ],...,'; del 97 al 122 son letras minúsculas; del 123 al 126 son otros símbolos; el 127 es el carácter de retroceso usado para borrar; y del código 128 al 255 es el código ASCII extendido, que es diferente para cada fabricante, siendo el más usado el utilizado por los ordenadores IBM PC y compatibles. Unicode, desarrollado por Unicode Consortium, regula –como los demás códigos mencionados- la codificación de los caracteres y ofrece un sistema internacional y extensible de 16 bits para procesar la información que cubre la mayor parte de los idiomas del mundo. En concreto, la versión 3.0 definió la codificación para más de 40.000 caracteres, y se trabaja en definir codificaciones para caracteres adicionales; ya hay versiones 4.0 y 4.1.0 (una ampliación menor) en el momento de escribir estas líneas. Una de las grandes ventajas de Unicode es que proporciona un número único para cada carácter, sin importar la plataforma, el programa o el idioma. Ya se ha dicho que los caracteres ASCII por encima del 127 no están normalizados, de modo que se utilizan para caracteres no ingleses (por ejemplo, la “ñ” en español) de forma un tanto desordenada; en Unicode ese problema no existe, ya que están perfectamente definidos y organizados los caracteres de casi todos los idiomas, incluyendo los asiáticos y los demás que utilizan alfabetos no latinos. La norma Unicode ya ha sido adoptada por líderes de la industria como Apple, HP, IBM, Microsoft, Oracle, Sun, Unisys... Además, se ha convertido en un requisito para estándares modernos tales como XML, Java, CORBA, WML, etc. 

1.4.4.       Representación de números enteros y reales

 Los números enteros y reales suelen estar representados por números binarios que pueden llevar signo o no. Los números que llevan signos, se asignan según el código, por ejemplo, el número 1 puede ser positivo y el 0, negativo. A continuación, algunos ejemplos: 

Números sin símbolos

DECIMAL

BINARIO

10

1010

324

101000100

Números con símbolos

DECIMAL

BINARIO

234

111101010

-234

011101010

 Se puede observar en los números con símbolos que la cantidad 234 equivale a 11101010 y está precedida de un 1 si el número es positivo (+) y un 0 si es negativo (-). Recordemos que en la notación decimal el símbolo (+) no se coloca, ósea que, +234 es igual que 234.

 1.4.5.       Datos de tipo lógico o Booleano

 La representación de los datos de tipo lógico o booleano se realiza por medio de un 0 (falso, en inglés false) y un 1 (cierto, en inglés true). Para la representación interna de este tipo de datos con un solo bit sería suficiente, pero dado que el ordenador procesa la información por palabras, que son bytes o múltiplos del byte, la representación del tipo lógico es muy variada según el tipo de máquina y/o aplicación; por ejemplo, puede ser que un dato boolean se represente internamente como un entero.

 1.5.  Arquitectura de hardware – estructura general

 

La arquitectura de hardware más conocida es la de von Neumann, también conocida como modelo de von Neumann o arquitectura Princeton, es una arquitectura de computadoras basada en la descrita en 1945 por el matemático y físico John von Neumann y otros, en el primer borrador de un informe sobre el EDVAC.1​ Este describe una arquitectura de diseño para un computador digital electrónico con partes que constan de una unidad de procesamiento que contiene una unidad aritmético lógica y registros del procesador, una unidad de control que contiene un registro de instrucciones y un contador de programa, una memoria para almacenar tanto datos como instrucciones, almacenamiento masivo externo, y mecanismos de entrada y salida.1​2​ El concepto ha evolucionado para convertirse en un computador de programa almacenado en el cual no pueden darse simultáneamente una búsqueda de instrucciones y una operación de datos, ya que comparten un bus en común. Esto se conoce como el cuello de botella Von Neumann, y muchas veces limita el rendimiento del sistema.




 

El diseño de una arquitectura von Neumann es más simple que la arquitectura Harvard más moderna, que también es un sistema de programa almacenado, pero tiene un conjunto dedicado de direcciones y buses de datos para leer datos desde memoria y escribir datos en la misma, y otro conjunto de direcciones y buses de datos para ir a buscar instrucciones.

 

Un ordenador digital de programa almacenado es aquel que mantiene sus instrucciones de programa, así como sus datos, en una memoria de acceso aleatorio (RAM) de lectura-escritura. Las computadoras de programa almacenado representaron un avance sobre los ordenadores controlados por programas de la década de 1940, como la Colossus y la ENIAC, que se programaron mediante el establecimiento de conmutadores y la inserción de cables de interconexión para enrutar datos y para controlar señales entre varias unidades funcionales. En la gran mayoría de las computadoras modernas, se utiliza la misma memoria tanto para datos como para instrucciones de programa, y la distinción entre von Neumann vs. Harvard se aplica a la arquitectura de memoria caché, pero no a la memoria principal.


BIBLIOGRAFÍA

España, U. d. (2006). Informática general. Oviedo, España: Editorial SERVITEC. Obtenido de http://di002.edv.uniovi.es/~cueva/publicaciones/monografias/48_InformaticaGeneral.pdf

Garrido López, C. A. (2008). Historia de la computación. Guatemala: Universidad de San Carlos de Guatemala. Obtenido de http://biblioteca.usac.edu.gt/tesis/07/07_2010.pdf

Güimi, & Ruiz Górriz, M. (2009). Hardware de PC. España: Creative Commons. Obtenido de https://guimi.net/monograficos/G-Hardware_PC/G-Hardware_PC.pdf

Moreno Pérez, J. C. (2019). Fundamentos de hardware. Editorial Síntesis. Obtenido de https://www.sintesis.com/data/indices/9788491712947.pdf

Nordeste, U. N. (19 de Mayo de 2006). El hardware, evolución y características. Obtenido de El hardware, evolución y características: http://ing.unne.edu.ar/pub/informatica/U2.pdf

Rodríguez, D. M. (2014). Manual de armado y reparación de pc. Fundación Ludovico Rutten. Obtenido de https://fundacionrutten.cl/wp-content/uploads/2018/12/manualdearmadodecomputadores.pdf


Comentarios

Entradas más populares de este blog

Comunicación Arduino-LabVIEW a través de Linx

Resumen — En el siguiente documento presento la comunicación entre las plataformas Arduino y LabVIEW a través del uso de la herramienta LINX. Se explica la instalación del controlador (CH340), la instalación de “VI Package Manager”, la descarga de los drivers necesarios, la preparación de la tarjeta y finalmente se indican enlaces donde encontramos tutoriales muy prácticos acerca de la temática planteada. Palabras Clave — Arduino, LabVIEW, Linx. ARDUINO - LABVIEW COMMUNICATION THROUGH LINX Abstract — In the following document I present the communication between the Arduino and LabVIEW platforms through the use of the LINX tool. It explains the installation of the driver (CH340), the installation of "VI Package Manager", the download of the necessary drivers, the preparation of the card and finally it indicates links where we can find very practical tutorials about the subject matter. Keywords — Arduino, LabVIEW, Linx . 1       Introducción   “L

PERFIL

Mi nombre es Luis Eduardo Ramírez Carvajal, profeso la fe cristiana, evangélica. Creo en la vida después de la muerte y en Jesucristo como Dios y salvador. Pertenezco a la Denominación Evangélica Alianza de Colombia y tengo principios y valores morales, familiares y sociales definidos, además de un gran respeto por la vida y el medio ambiente. Soy bachiller académico egresado del Colegio Cooperativo Calasanz de Cúcuta (Actual Peralta de la sal). Técnico laboral en diseño gráfico egresado del instituto para la formación y desarrollo Comfaoriente con una amplia experiencia en el ámbito publicitario trabajando de manera independiente. En Octubre de 2020 fundo la empresa  Seven  que inicia como una empresa de servicios publicitarios y tecnológicos de carácter virtual. Soy Ingeniero electrónico egresado de la Universidad Francisco de Paula Santander con el proyecto Objeto Virtual de Aprendizaje para diseño de amplificadores multi-etapa con transistores bipolar y efecto de campo. Tra

Análisis del punto Q y potencia desperdiciada en el diseño de amplificadores bipolares

El pasado 13 de Marzo del año 2020, justo antes de que iniciara el aislamiento provocado por la crisis del COVID-19 tuve la oportunidad de participar como ponente en un congreso de educación matemática. Las conferencias eran sobre educación y aplicación de las matemáticas en diferentes ramas del conocimiento. Allí expuse un trabajo de investigación sobre diseño de amplificadores bipolares, tema que vengo investigando desde hace algunos años.  Dicha conferencia tuvo un enfoque ingenieril y su respectivo artículo que se encuentra en revisión para publicación. En este post se muestra el desarrollo de dicha investigación desde un punto de vista matemático, específicamente el procedimiento de diseño desarrollado. AUTORES Luis Eduardo Ramírez Carvajal M.Sc . Karla Puerto López Ing. Jhon Jairo Ramírez Mateus Grupo de investigación y desarrollo en microelectrónica aplicada y control GIDMAC, Universidad Francisco de Paula Santander, San José de Cúcuta,  Colombia E-mail: luiseduardorc@ufps.