MOUSE.
CONCEPTO.
por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el
Historia.
. Más tarde fue mejorado en los laboratorios de
). Con su aparición, logró también dar el paso definitivo a la aparición de los primeros entornos o
.
se presentó públicamente el primer modelo oficial.
y también por primera vez se daba a conocer un entorno gráfico con el sistema de ventanas que luego adoptarían la práctica totalidad de sistemas operativos modernos. En ese momento además, se exhibió
.
Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde 1951 había empezado a desarrollar las posibilidades de conectar computadoras en redes, cuando apenas existían varias docenas y bastante primitivas, entre otras ideas como el propio
, del que sería su primer usuario. Pensó que la informática podía usarse para mucho más que cálculos matemáticos, y el ratón formaba parte de este ambicioso proyecto, que pretendía aumentar la inteligencia colectiva fundando el
(Centro para la investigación del incremento) en la Universidad de Stanford.
para un desarrollo de distintos componentes informáticos similares, una década después era algo único, revolucionario, que todavía no había cobrado popularidad. De hecho varios de los conceptos e ideas surgidos aún hoy en día han conseguido éxito. Engelbart tampoco logró una gran fortuna, la patente adjudicaba todos los derechos a la Universidad de Stanford y él recibió un
de unos 10000 dólares.
En la actualidad el mouse se compone habitualmente de al menos dos botones y otros dispositivos opcionales como una «rueda», más otros botones secundarios o de distintas tecnologías como sensores del movimiento que pueden mejorar o hacer más cómodo su uso.
Se suele presentar para manejarse con ambas manos por igual, pero algunos fabricantes también ofrecen modelos únicamente para usuarios diestros o
. Los sistemas operativos pueden también facilitar su manejo a todo tipo de personas, generalmente invirtiendo la función de los botones.
era el dispositivo más popular para la entrada de datos o control de la computadora. La aparición y éxito del ratón, además de la posterior evolución de los
, logró facilitar y mejorar la comodidad, aunque no relegó el papel primordial del teclado. Aún hoy en día, pueden compartir algunas funciones, dejando al usuario que escoja la opción más conveniente a sus gustos o tareas.
FUNCIONAMIENTO.
El funcionamiento de un ratón depende de la tecnología utilizada para capturar el movimiento al ser desplazado sobre una superficie plana o
especial para ratón, y transmitir esta información para mover una flecha o puntero sobre el monitor de la computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias.
El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clic, mediante pulsaciones en algún botón o botones. Para su manejo, el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clics para la mayoría de las tareas.
Con el avance de las nuevas computadoras, el ratón se ha convertido en un dispositivo esencial a la hora de jugar, destacando no solo para seleccionar y accionar objetos en pantalla en juegos estratégicos, sino para cambiar la dirección de la cámara o la dirección de un personaje en
. Comúnmente en la mayoría de estos juegos los botones del ratón se utilizan para accionar las armas u objetos seleccionados y la rueda del ratón sirve para recorrer los objetos o armas de nuestro inventario.
, de varias capas, en su parte inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de éste sobre la superficie. Una variante es el modelo de Honeywell que utiliza dos ruedas inclinadas 90
entre ellas en vez de una esfera.
La circuitería interna cuenta los pulsos generados por la rueda y envía la información a la
Es una variante que carece de la bola de goma que evita el frecuente problema de la acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos propenso a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos actualmente. Puede ofrecer un límite de 800
, como cantidad de puntos distintos que puede reconocer en 2,54 centímetros (una pulgada); a menor cifra peor actuará el sensor de movimientos. Su funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra y detectando las variaciones entre sucesivas fotografías, se determina si el ratón ha cambiado su posición. En superficies pulidas o sobre determinados materiales brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se hace necesario el uso de una
o superficie que, para este tipo, no debe ser brillante y mejor si carece de grabados multicolores que puedan "confundir" la información luminosa devuelta.
Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los
. También detecta el movimiento deslizándose sobre una superficie horizontal, pero el haz de luz de tecnología óptica se sustituye por un láser con resoluciones a partir de 2000 ppp, lo que se traduce en un aumento significativo de la precisión y sensibilidad.
es una idea que parte del hecho: se debe mover el puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque la mano encima se pueda mover mediante el
, sin necesidad de desplazar nada más ni toda la mano como antes. De esta manera se reduce el esfuerzo y la necesidad de espacio, además de evitarse un posible dolor de
por el movimiento de éste. A algunas personas, sin embargo, no les termina de resultar realmente cómodo. Este tipo ha sido muy útil por ejemplo en la informatización de la navegación marítima.
Por conexión (por cable).
DISCO DURO.
En
informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un
dispositivo de almacenamiento de datos no volátil que emplea un sistema de
grabación magnética para almacenar
datos digitales. Se compone de uno o más
platos o discos rígidos, unidos por un mismo
eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.
Historia.
Al principio los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción de un hueco de ventilación para filtrar e igualar la presión del aire).
El primer disco duro, aparecido en
1956, fue el
Ramac I, presentado con la computadora
IBM 350: pesaba una tonelada y su capacidad era de 5
MB. Más grande que una nevera actual, este disco duro trabajaba todavía con
válvulas de vacío y requería una consola separada para su manejo.
Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente constante entre algunas posiciones de memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición.
La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta.
El mérito del
francés Albert Fert y al
alemán Peter Grünberg (ambos
premio Nobel de
Física por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como
magnetorresistencia gigante, que permitió construir cabezales de lectura y grabación más sensibles, y compactar más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento espectacular en la capacidad de almacenamiento en los discos duros, que se elevó un 60 % anual en la
década de 1990.
En
1992, los discos duros de 3,5 pulgadas alojaban 250 MB, mientras que 10 años después habían superado 40 GB (40 000 MB). En la actualidad, ya contamos en el uso cotidiano con discos duros de más de 4
TB, esto es, 4000 GB (4 000 000 MB).
En
2005 los primeros
teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia, aunque no tuvieron mucho éxito ya que las memorias flash los acabaron desplazando, sobre todo por asuntos de fragilidad y superioridad.
FUNCIONAMIENTO.
El disco duro suele tener:
Platos en donde se graban los datos.
Cabezal de lectura/escritura.
Motor que hace girar los platos.
Electroimán que mueve el cabezal.
Circuito electrónico de control, que incluye: interfaz con la computadora,
memoria caché.
Bolsita desecante (
gel de sílice) para evitar la humedad.
Caja, que ha de proteger de la suciedad, motivo por el cual suele traer algún filtro de aire.
Estructura lógica.
Dentro del disco se encuentran:
El
Master Boot Record (en el
sector de arranque), que contiene la
tabla de particiones.
Las
particiones, necesarias para poder colocar los
sistemas de archivos.
Factor de Forma.
El más temprano "factor de forma" de los discos duros, heredó sus dimensiones de las disqueteras. Pueden ser montados en los mismos chasis y así los discos duros con factor de forma, pasaron a llamarse coloquialmente tipos FDD "floppy-disk drives" (en inglés).
La compatibilidad del "factor de forma" continua siendo de 3½ pulgadas (8,89 cm) incluso después de haber sacado otros tipos de disquetes con unas dimensiones más pequeñas.
8 pulgadas: 241,3×117,5×362 mm (9,5×4,624×14,25 pulgadas).
En 1979,
Shugart Associates sacó el primer factor de forma compatible con los disco duros, SA1000, teniendo las mismas dimensiones y siendo compatible con la interfaz de 8 pulgadas de las disqueteras. Había dos versiones disponibles, la de la misma altura y la de la mitad (58,7 mm).
5,25 pulgadas: 146,1×41,4×203 mm (5,75×1,63×8 pulgadas). Este factor de forma es el primero usado por los discos duros de Seagate en 1980 con el mismo tamaño y altura máxima de los FDD de 5¼ pulgadas, por ejemplo: 82,5 mm máximo.
Éste es dos veces tan alto como el factor de 8 pulgadas, que comúnmente se usa hoy; por ejemplo: 41,4 mm (1,64 pulgadas). La mayoría de los modelos de unidades ópticas (
DVD/
CD) de 120 mm usan el tamaño del factor de forma de media altura de 5¼, pero también para discos duros. El modelo Quantum Bigfoot es el último que se usó a finales de los 90'.
3,5 pulgadas: 101,6×25,4×146 mm (4×1×5.75 pulgadas).
Este factor de forma es el primero usado por los discos duros de Rodine que tienen el mismo tamaño que las disqueteras de 3½, 41,4 mm de altura. Hoy ha sido en gran parte remplazado por la línea "slim" de 25,4 mm (1 pulgada), o "low-profile" que es usado en la mayoría de los discos duros.
2,5 pulgadas: 69,85×9,5-15×100 mm (2,75×0,374-0,59×3,945 pulgadas).
Este factor de forma se introdujo por PrairieTek en 1988 y no se corresponde con el tamaño de las lectoras de disquete. Este es frecuentemente usado por los discos duros de los equipos móviles (portátiles, reproductores de música, etc...) y en 2008 fue reemplazado por unidades de 3,5 pulgadas de la clase multiplataforma. Hoy en día la dominante de este factor de forma son las unidades para portátiles de 9,5 mm, pero las unidades de mayor capacidad tienen una altura de 12,5 mm.
1,8 pulgadas: 54×8×71 mm.
Este factor de forma se introdujo por Integral Peripherals en 1993 y se involucró con ATA-7 LIF con las dimensiones indicadas y su uso se incrementa en
reproductores de audio digital y su subnotebook. La variante original posee de 2 GB a 5 GB y cabe en una ranura de expansión de
tarjeta de ordenador personal. Son usados normalmente en iPods y discos duros basados en MP3.
1 pulgadas: 42,8×5×36,4 mm.
Este factor de forma se introdujo en 1999 por
IBM y
Microdrive, apto para los slots tipo 2 de compact flash,
Samsung llama al mismo factor como 1,3 pulgadas.
0,85 pulgadas: 24×5×32 mm.
Toshiba anunció este factor de forma el 8 de enero de 2004 para usarse en móviles y aplicaciones similares, incluyendo
SD/
MMC slot compatible con disco duro optimizado para vídeo y almacenamiento para micromóviles de
4G.
Toshiba actualmente vende versiones de 4 GB (MK4001MTD) y 8 GB (MK8003MTD)
5 y tienen el
récord Guinnessdel disco duro más pequeño.
Los principales fabricantes suspendieron la investigación de nuevos productos para 1 pulgada (1,3 pulgadas) y 0,85 pulgadas en 2007, debido a la caída de precios de las
memorias flash, aunque
Samsung introdujo en el 2008 con el SpidPoint A1 otra unidad de 1,3 pulgadas.
El nombre de "pulgada" para los factores de forma normalmente no identifica ningún producto actual (son especificadas en milímetros para los factores de forma más recientes), pero estos indican el tamaño relativo del disco, para interés de la continuidad histórica.
Tipos de conexión.
Si hablamos de disco duro podemos citar los distintos tipos de conexión que poseen los mismos con la placa base, es decir pueden ser
SATA,
IDE,
SCSI o
SAS:
IDE:
Integrated Drive Electronics ("Dispositivo electrónico integrado") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta aproximadamente el 2004, el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y alargados.
SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación. Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5
Mbit/s en los discos SCSI Estándares, los 10 Mbit/s en los discos SCSI Rápidos y los 20 Mbit/s en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que posibilita una mayor velocidad de transferencia.
SATA (
Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. Existen tres versiones, SATA 1 con velocidad de transferencia de hasta 150
MB/s (hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir
conexión en caliente.
SAS (
Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión en caliente. Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI. Además, el conector es el mismo que en la interfaz
SATA y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando costes. Por lo tanto, las unidades
SATApueden ser utilizadas por controladoras SAS pero no a la inversa, una controladora
SATA no reconoce discos SAS.
historia
El
EDVAC, uno de los primeros ordenadores de programas almacenados electrónicamente.
Historia del hardware de ordenador
Antes de la aceptación comercial del
transistor, los
relés eléctricos y los
tubos de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores diseños puramente mecánicos, no eran fiables por varias razones. Por ejemplo, hacer circuitos de
lógica secuencial de
corriente directarequería hardware adicional para hacer frente al problema del
rebote de contacto. Por otro lado, mientras que los tubos de vacío no sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar completamente operacionales y eventualmente fallan y dejan de funcionar por completo. Generalmente, cuando un tubo ha fallado, la CPU tendría que ser diagnosticada para localizar el componente que falla para que pueda ser reemplazado. Por lo tanto, los primeros computadores electrónicos, (basados en tubos de vacío), generalmente eran más rápidos pero menos confiables que los ordenadores electromecánicos, (basados en relés). Los ordenadores de tubo, como el
EDVAC, tendieron en tener un promedio de ocho horas entre fallos, mientras que los ordenadores de relés, (anteriores y más lentas), como el
Harvard Mark I, fallaban muy raramente. Al final, los CPU basados en tubo llegaron a ser dominantes porque las significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. La mayor parte de estas tempranas CPU síncronas corrían en
frecuencias de reloj bajas comparadas con los modernos diseños microelectrónicos. Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde 100
kHz hasta 4
MHz, limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron construidos.
CPU de transistores y de circuitos integrados discretos
CPU,
memoria de núcleo e interfaz de
bus externo de un MSI
PDP-8/I.
La complejidad del diseño de las CPU aumentó junto con facilidad de la construcción de dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras vino con el advenimiento del
transistor. Las CPU transistorizadas durante los
años 50 y los
años 60 no tuvieron que ser construidos con elementos de conmutación abultados, no fiables y frágiles, como los tubos de vacío y los relés eléctricos. Con esta mejora, fueron construidas CPU más complejas y más confiables sobre una o varias
tarjetas de circuito impreso que contenían componentes discretos (individuales). Durante este período, ganó popularidad un método de fabricar muchos transistores en un espacio compacto. El
circuito integrado (IC) permitió que una gran cantidad de transistores fueran fabricados en una simple oblea basada en
semiconductor o "chip". Al principio, solamente circuitos digitales muy básicos, no especializados, como las
puertas NOR fueron miniaturizados en IC. Las CPU basadas en estos IC de "bloques de construcción" generalmente son referidos como dispositivos de pequeña escala de integración "small-scale integration" (SSI). Los circuitos integrados SSI, como los usados en el
computador guía del Apollo (Apollo Guidance Computer), usualmente contenían transistores que se contaban en números de múltiplos de diez. Construir un CPU completo usando IC SSI requería miles de chips individuales, pero todavía consumía mucho menos espacio y energía que diseños anteriores de transistores discretos. A medida que la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente de transistores, disminuyendo así la cantidad de IC individuales necesarios para una CPU completa. Los circuitos integrados MSI y el LSI (de mediana y gran escala de integración) aumentaron el número de transistores a cientos y luego a miles. En 1964,
IBM introdujo su arquitectura de ordenador
System/360, que fue usada en una serie de ordenadores que podían ejecutar los mismos programas con velocidades y desempeños diferentes. Esto fue significativo en un tiempo en que la mayoría de los ordenadores electrónicos eran incompatibles entre sí, incluso los hechas por el mismo fabricante. Para facilitar esta mejora, IBM utilizó el concepto de
microprograma, a menudo llamado "
microcódigo", ampliamente usado aún en las CPU modernas. La arquitectura System/360 era tan popular que dominó el mercado del
mainframe durante las siguientes décadas y dejó una herencia que todavía aún perdura en los ordenadores modernos, como el
IBM zSeries. En el mismo año de 1964,
Digital Equipment Corporation (DEC) introdujo otro ordenador que sería muy influyente, dirigido a los mercados científicos y de investigación, el
PDP-8. DEC introduciría más adelante la muy popular línea del
PDP-11, que originalmente fue construido con IC SSI pero eventualmente fue implementado con componentes LSI cuando se convirtieron en prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI, la primera implementación LSI del PDP-11 contenía una CPU integrada únicamente por cuatro circuitos integrados LSI. Los ordenadores basados en transistores tenían varias ventajas frente a sus predecesores. Aparte de facilitar una creciente fiabilidad y un menor consumo de energía, los transistores también permitían al CPU operar a velocidades mucho más altas debido al corto tiempo de conmutación de un transistor en comparación a un tubo o relé. Gracias tanto a esta creciente fiabilidad como al dramático incremento de velocidad de los elementos de conmutación que por este tiempo eran casi exclusivamente transistores, se fueron alcanzando frecuencias de reloj de la CPU de decenas de megahertz. Además, mientras que las CPU de transistores discretos y circuitos integrados se usaban comúnmente, comenzaron a aparecer los nuevos diseños de alto rendimiento como
procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple Instrucción Múltiples Datos). Estos primeros diseños experimentales dieron lugar más adelante a la era de los
superordenadores especializados, como los hechos por
Cray Inc.
Microprocesadores
Microprocesador Intel 80486DX2 en un paquete
PGA de cerámica.
El mismo microprocesador tal como se ve desde arriba.
Desde la introducción del primer microprocesador, el
Intel 4004, en 1971 y del primer microprocesador ampliamente usado, el
Intel 8080, en 1974, esta clase de CPU ha desplazado casi totalmente el resto de los métodos de implementación de la Unidad Central de Proceso. Los fabricantes de mainframes y miniordenadores de ese tiempo lanzaron programas de desarrollo de IC propietarios para actualizar sus más viejas
arquitecturas de ordenador y eventualmente produjeron microprocesadores con
conjuntos de instruccionesque eran compatibles hacia atrás con sus más viejos hardwares y softwares. Combinado con el advenimiento y el eventual vasto éxito del ahora ubicuo
ordenador personal, el término "CPU" es aplicado ahora casi exclusivamente a los microprocesadores. Las generaciones previas de CPU fueron implementadas como componentes discretos y numerosos circuitos integrados de pequeña escala de integración en una o más tarjetas de circuitos. Por otro lado, los microprocesadores son CPU fabricados con un número muy pequeño de IC; usualmente solo uno. El tamaño más pequeño del CPU, como resultado de estar implementado en una simple pastilla, significa tiempos de conmutación más rápidos debido a factores físicos como el decrecimiento de la
capacitancia parásita de las
puertas. Esto ha permitido que los microprocesadores síncronos tengan tiempos de reloj con un rango de decenas de megahercios a varios gigahercios. Adicionalmente, como ha aumentado la capacidad de construir transistores excesivamente pequeños en un IC, la complejidad y el número de transistores en un simple CPU también se ha incrementado dramáticamente. Esta tendencia ampliamente observada es descrita por la
ley de Moore, que ha demostrado hasta la fecha, ser una predicción bastante exacta del crecimiento de la complejidad de los CPUs y otros IC. Mientras que, en los pasados sesenta años han cambiado drásticamente, la complejidad, el tamaño, la construcción y la forma general de la CPU, es notable que el diseño y el funcionamiento básico no ha cambiado demasiado. Casi todos los CPU comunes de hoy se pueden describir con precisión como máquinas de
programa almacenado de von Neumann. A medida que la ya mencionada ley del Moore continúa manteniéndose verdadera, se han presentado preocupaciones sobre los límites de la tecnología de transistor del circuito integrado. La miniaturización extrema de puertas electrónicas está causando los efectos de fenómenos que se vuelven mucho más significativos, como la
electromigración y el
subumbral de pérdida. Estas nuevas preocupaciones están entre los muchos factores que hacen a investigadores estudiar nuevos métodos de computación como la
computación cuántica, así como ampliar el uso de
paralelismo y otros métodos que extienden la utilidad del modelo clásico de von Neumann.
Operación del CPU[
editar]
La operación fundamental de la mayoría de las CPU es ejecutar una secuencia de instrucciones almacenadas llamadas "programa". El programa es representado por una serie de números que se mantienen en una cierta clase de memoria de ordenador. Hay cuatro pasos que casi todos las CPU de
arquitectura de von Neumann usan en su operación:fetch, decode, execute, y writeback, (leer, decodificar, ejecutar y escribir).
Diagrama mostrando como es decodificada una instrucción del
MIPS32. (MIPS Technologies 2005)

El primer paso, leer (fetch), implica el recuperar una
instrucción, (que es representada por un número o una secuencia de números), de la memoria de programa. La localización en la memoria del programa es determinada por un
contador de programa (PC), que almacena un número que identifica la posición actual en el programa. En otras palabras, el contador de programa indica al CPU, el lugar de la instrucción en el programa actual. Después de que se lee una instrucción, el Contador de Programa es incrementado por la longitud de la palabra de instrucción en términos de unidades de memoria. Frecuentemente la instrucción a ser leída debe ser recuperada de memoria relativamente lenta, haciendo detener la CPU mientras espera que la instrucción sea retornada. Este problema es tratado en procesadores modernos en gran parte por los cachés y las arquitecturas
pipeline. La instrucción que la CPU lee desde la memoria es usada para determinar qué deberá hacer la CPU. En el paso de decodificación, la instrucción es dividida en partes que tienen significado para otras unidades de la CPU. La manera en que el valor de la instrucción numérica es interpretado está definida por la arquitectura del
conjunto de instrucciones (el ISA) de la CPU. A menudo, un grupo de números en la instrucción, llamados
opcode, indica qué operación realizar. Las partes restantes del número usualmente proporcionan información requerida para esa instrucción, como por ejemplo, operandos para una operación de
adición. Tales operandos se pueden dar como un valor constante (llamado valor inmediato), o como un lugar para localizar un valor, que según lo determinado por algún
modo de dirección, puede ser un
registro o una
dirección de memoria. En diseños más viejos las unidades del CPU responsables de decodificar la instrucción eran dispositivos de hardware fijos. Sin embargo, en CPUs e ISAs más abstractos y complicados, es frecuentemente usado un
microprograma para ayudar a traducir instrucciones en varias señales de configuración para el CPU. Este microprograma es a veces reescribible de tal manera que puede ser modificado para cambiar la manera en que el CPU decodifica instrucciones incluso después de que haya sido fabricado.
Diagrama de bloques de un CPU simple.
Después de los pasos de lectura y decodificación, es llevado a cabo el paso de la ejecución de la instrucción. Durante este paso, varias unidades del CPU son conectadas de tal manera que ellas pueden realizar la operación deseada. Si, por ejemplo, una operación de adición fue solicitada, una
unidad aritmético lógica (ALU) será conectada a un conjunto de entradas y un conjunto de salidas. Las entradas proporcionan los números a ser sumados, y las salidas contendrán la suma final. La ALU contiene la circuitería para realizar operaciones simples de aritmética y lógica en las entradas, como adición y operaciones de bits (
bitwise). Si la operación de adición produce un resultado demasiado grande para poder ser manejado por el CPU, también puede ser ajustada una bandera (flag) de
desbordamiento aritméticolocalizada en un registro de banderas (ver abajo la sección sobre rango de números enteros).
El paso final, la escritura (writeback), simplemente "escribe" los resultados del paso de ejecución a una cierta forma de memoria. Muy a menudo, los resultados son escritos a algún registro interno del CPU para acceso rápido por subsecuentes instrucciones. En otros casos los resultados pueden ser escritos a una
memoria principal más lenta pero más barata y más grande. Algunos tipos de instrucciones manipulan el contador de programa en lugar de directamente producir datos de resultado. Éstas son llamadas generalmente "saltos" (jumps) y facilitan comportamientos como
bucles (loops), la ejecución condicional de programas (con el uso de saltos condicionales), y
funciones en programas.
1 Muchas instrucciones también cambiarán el estado de dígitos en un registro de "banderas". Estas banderas pueden ser usadas para influenciar cómo se comporta un programa, puesto que a menudo indican el resultado de varias operaciones. Por ejemplo, un tipo de instrucción de "comparación" considera dos valores y fija un número, en el registro de banderas, de acuerdo a cuál es el mayor. Entonces, esta bandera puede ser usada por una posterior instrucción de salto para determinar el flujo de programa.
Después de la ejecución de la instrucción y la escritura de los datos resultantes, el proceso entero se repite con el siguiente ciclo de instrucción, normalmente leyendo la siguiente instrucción en secuencia debido al valor incrementado en el contador de programa. Si la instrucción completada era un salto, el contador de programa será modificado para contener la dirección de la instrucción a la cual se saltó, y la ejecución del programa continúa normalmente. En CPUs más complejos que el descrito aquí, múltiples instrucciones pueden ser leídas, decodificadas, y ejecutadas simultáneamente. Esta sección describe lo que es referido generalmente como el "entubado RISC clásico" (Classic RISC pipeline), que de hecho es bastante común entre los CPU simples usados en muchos dispositivos electrónicos, a menudo llamados
microcontroladores.
2
Diseño e implementación
Prerrequisitos
Arquitectura informática
Circuitos digitales
Rango de enteros
La manera en que un CPU representa los números es una opción de diseño que afecta las más básicas formas en que el dispositivo funciona. Algunas de las primeras calculadoras digitales usaron, para representar números internamente, un modelo eléctrico del
sistema de numeracióndecimal común (base diez). Algunas otras computadoras han usado sistemas de numeración más exóticos como el
ternario (base tres). Casi todos los CPU modernos representan los números en forma
binaria, en donde cada dígito es representado por una cierta cantidad física de dos valores, como un
voltaje "alto" o "bajo".
3
Microprocesador
MOS 6502 en un
dual in-line package (encapasulado en doble línea), un diseño extremadamente popular de 8 bits.
Con la representación numérica están relacionados el tamaño y la precisión de los números que un CPU puede representar. En el caso de un CPU binario, un
bit se refiere a una posición significativa en los números con que trabaja un CPU. El número de bits (o de posiciones numéricas, o dígitos) que un CPU usa para representar los números, a menudo se llama "tamaño de la palabra", "ancho de bits", "ancho de ruta de datos", o "precisión del número entero" cuando se ocupa estrictamente de números enteros (en oposición a números de coma flotante). Este número difiere entre las arquitecturas, y a menudo dentro de diferentes unidades del mismo CPU. Por ejemplo, un CPU de 8 bits maneja un rango de números que pueden ser representados por ocho dígitos binarios, cada dígito teniendo dos valores posibles, y en combinación los 8 bits teniendo 28 ó 256 números discretos. En efecto, el tamaño del número entero fija un límite de hardware en el rango de números enteros que el software corre y que el CPU puede usar directamente.
4
El rango del número entero también puede afectar el número de posiciones en memoria que el CPU puede direccionar (localizar). Por ejemplo, si un CPU binario utiliza 32 bits para representar una dirección de memoria, y cada dirección de memoria representa a un
octeto (8 bits), la cantidad máxima de memoria que el CPU puede direccionar es 232 octetos, o 4
GB. Ésta es una vista muy simple del
espacio de dirección del CPU, y muchos diseños modernos usan métodos de dirección mucho más complejos como
paginación para localizar más memoria que su rango entero permitiría con un espacio de dirección plano.
Niveles más altos del rango de números enteros requieren más estructuras para manejar los dígitos adicionales, y por lo tanto, más complejidad, tamaño, uso de energía, y generalmente costo. Por ello, no es del todo infrecuente, ver
microcontroladores de 4 y 8 bits usados en aplicaciones modernas, aún cuando están disponibles CPU con un rango mucho más alto (de 16, 32, 64, e incluso 128 bits). Los microcontroladores más simples son generalmente más baratos, usan menos energía, y por lo tanto disipan menos calor. Todo esto pueden ser consideraciones de diseño importantes para los dispositivos electrónicos. Sin embargo, en aplicaciones del extremo alto, los beneficios producidos por el rango adicional, (más a menudo el espacio de dirección adicional), son más significativos y con frecuencia afectan las opciones del diseño. Para ganar algunas de las ventajas proporcionadas por las longitudes de bits tanto más bajas, como más altas, muchas CPUs están diseñadas con anchos de bit diferentes para diferentes unidades del dispositivo. Por ejemplo, el
IBM System/370 usó un CPU que fue sobre todo de 32 bits, pero usó precisión de 128 bits dentro de sus unidades de
coma flotante para facilitar mayor exactitud y rango de números de coma flotante. Muchos diseños posteriores de CPU usan una mezcla de ancho de bits similar, especialmente cuando el procesador está diseñado para usos de propósito general donde se requiere un razonable equilibrio entre la capacidad de números enteros y de coma flotante.
Frecuencia de reloj
La mayoría de los CPU, y de hecho, la mayoría de los dispositivos de
lógica secuencial, son de naturaleza síncrona.
5 Es decir, están diseñados y operan en función de una señal de sincronización. Esta señal, conocida como señal de reloj, usualmente toma la forma de una
onda cuadrada periódica. Calculando el tiempo máximo en que las señales eléctricas pueden moverse en las varias bifurcaciones de los muchos circuitos de un CPU, los diseñadores pueden seleccionar un
período apropiado para la señal del reloj.
Este período debe ser más largo que la cantidad de tiempo que toma a una señal moverse, o propagarse en el peor de los casos. Al fijar el período del reloj a un valor bastante mayor sobre el retardo de la propagación del peor caso, es posible diseñar todo el CPU y la manera que mueve los datos alrededor de los "bordes" de la subida y bajada de la señal del reloj. Esto tiene la ventaja de simplificar el CPU significativamente, tanto en una perspectiva de diseño, como en una perspectiva de cantidad de componentes. Sin embargo, esto también tiene la desventaja que todo el CPU debe esperar por sus elementos más lentos, aún cuando algunas unidades de la misma son mucho más rápidas. Esta limitación ha sido compensada en gran parte por varios métodos de aumentar el paralelismo del CPU (ver abajo).
Sin embargo, las mejoras arquitectónicas por sí solas, no solucionan todas las desventajas de CPUs globalmente síncronas. Por ejemplo, una señal de reloj está sujeta a los retardos de cualquier otra señal eléctrica. Velocidades de reloj más altas en CPUs cada vez más complejas hacen más difícil de mantener la señal del reloj en fase (sincronizada) a través de toda la unidad. Esto ha conducido que muchos CPU modernos requieran que se les proporcione múltiples señales de reloj idénticas, para evitar retardar una sola señal lo suficiente como para hacer al CPU funcionar incorrectamente. Otro importante problema cuando la velocidad del reloj aumenta dramáticamente, es la cantidad de calor que es disipado por el CPU. La señal del reloj cambia constantemente, provocando la conmutación de muchos componentes (cambio de estado) sin importar si están siendo usados en ese momento. En general, un componente que está cambiando de estado, usa más energía que un elemento en un estado estático. Por lo tanto, a medida que la velocidad del reloj aumenta, así lo hace también la disipación de calor, causando que el CPU requiera soluciones de enfriamiento más efectivas.
Un método de tratar la conmutación de componentes innecesarios se llama el
clock gating, que implica apagar la señal del reloj a los componentes innecesarios, efectivamente desactivándolos. Sin embargo, esto es frecuentemente considerado como difícil de implementar y por lo tanto no ve uso común afuera de diseños de muy baja potencia.
6 7 Otro método de tratar algunos de los problemas de una señal global de reloj es la completa remoción de la misma. Mientras que quitar la señal global del reloj hace, de muchas maneras, considerablemente más complejo el proceso del diseño, en comparación con diseños síncronos similares, los diseños asincrónicos (o sin reloj) tienen marcadas ventajas en el consumo de energía y la disipación de calor. Aunque algo infrecuente, CPUs completas se han construido sin utilizar una señal global de reloj. Dos notables ejemplos de esto son el
AMULET, que implementa la arquitectura del
ARM, y el
MiniMIPS, compatible con el
MIPS R3000. En lugar de remover totalmente la señal del reloj, algunos diseños de CPU permiten a ciertas unidades del dispositivo ser asincrónicas, como por ejemplo, usar
ALUs asincrónicas en conjunción con pipelining superescalar para alcanzar algunas ganancias en el desempeño aritmético. Mientras que no está completamente claro si los diseños totalmente asincrónicos pueden desempeñarse a un nivel comparable o mejor que sus contrapartes síncronas, es evidente que por lo menos sobresalen en las más simples operaciones matemáticas. Esto, combinado con sus excelentes características de consumo de energía y disipación de calor, los hace muy adecuados para
sistemas embebidos.

Paralelismo
Modelo de un CPU subescalar. Note que toma quince ciclos para terminar tres instrucciones.
La descripción de la operación básica de un CPU ofrecida en la sección anterior describe la forma más simple que puede tomar un CPU. Este tipo de CPU, usualmente referido como subescalar, opera sobre y ejecuta una sola instrucción con una o dos piezas de datos a la vez.
Este proceso da lugar a una ineficacia inherente en CPUs subescalares. Puesto que solamente una instrucción es ejecutada a la vez, todo el CPU debe esperar que esa instrucción se complete antes de proceder a la siguiente instrucción. Como resultado, el CPU subescalar queda "paralizado" en instrucciones que toman más de un ciclo de reloj para completar su ejecución. Incluso la adición de una segunda unidad de ejecución (ver abajo) no mejora mucho el desempeño. En lugar de un camino quedando congelado, ahora dos caminos se paralizan y aumenta el número de transistores no usados. Este diseño, en donde los recursos de ejecución del CPU pueden operar con solamente una instrucción a la vez, solo puede, posiblemente, alcanzar el desempeño escalar (una instrucción por ciclo de reloj). Sin embargo, el desempeño casi siempre es subescalar (menos de una instrucción por ciclo).
Las tentativas de alcanzar un desempeño escalar y mejor, han resultado en una variedad de metodologías de diseño que hacen comportarse al CPU menos linealmente y más en paralelo. Cuando se refiere al paralelismo en los CPU, generalmente son usados dos términos para clasificar estas técnicas de diseño.
El
paralelismo a nivel de instrucción, en inglés Instruction Level Parallelism (ILP), busca aumentar la tasa en la cual las instrucciones son ejecutadas dentro de un CPU, es decir, aumentar la utilización de los recursos de ejecución en la pastilla.
El
paralelismo a nivel de hilo de ejecución, en inglés thread level parallelism (TLP), que se propone incrementar el número de
hilos (efectivamente programas individuales) que un CPU pueda ejecutar simultáneamente.
Cada metodología se diferencia tanto en las maneras en las que están implementadas, como en la efectividad relativa que producen en el aumento del desempeño del CPU para una aplicación.
8
ILP: Entubado de instrucción y arquitectura superescalar
Tubería básica de cinco etapas. En el mejor de los casos, esta tubería puede sostener un ratio de completado de una instrucción por ciclo.
Uno de los más simples métodos usados para lograr incrementar el paralelismo es comenzar los primeros pasos de leer y decodificar la instrucción antes de que la instrucción anterior haya terminado de ejecutarse. Ésta es la forma más simple de una técnica conocida como
instruction pipelining (entubado de instrucción), y es utilizada en casi todos los CPU de propósito general modernos. Al dividir la ruta de ejecución en etapas discretas, la tubería permite que más de una instrucción sea ejecutada en cualquier tiempo. Esta separación puede ser comparada a una línea de ensamblaje, en la cual una instrucción es hecha más completa en cada etapa hasta que sale de la tubería de ejecución y es retirada.
Sin embargo, la tubería introduce la posibilidad de una situación donde es necesario terminar el resultado de la operación anterior para completar la operación siguiente; una condición llamada a menudo como conflicto de dependencia de datos. Para hacer frente a esto, debe ser tomado un cuidado adicional para comprobar estas clases de condiciones, y si esto ocurre, se debe retrasar una porción de la tubería de instrucción. Naturalmente, lograr esto requiere circuitería adicional, los procesadores entubados son más complejos que los subescalares, pero no mucho. Un procesador entubado puede llegar a ser casi completamente escalar, solamente inhibido por las abruptas paradas de la tubería (una instrucción durando más de un ciclo de reloj en una etapa).
Tubería superescalar simple. Al leer y despachar dos instrucciones a la vez, un máximo de dos instrucciones por ciclo pueden ser completadas.
Una mejora adicional sobre la idea del entubado de instrucción (instruction pipelining) condujo al desarrollo de un método que disminuye incluso más el tiempo ocioso de los componentes del CPU. Diseños que se dice que son superescalares incluyen una larga tubería de instrucción y múltiples unidades de ejecución idénticas. En una tubería superescalar, múltiples instrucciones son leídas y pasadas a un despachador, que decide si las instrucciones se pueden o no ejecutar en paralelo (simultáneamente). De ser así, son despachadas a las unidades de ejecución disponibles, dando por resultado la capacidad para que varias instrucciones sean ejecutadas simultáneamente. En general, cuanto más instrucciones un CPU superescalar es capaz de despachar simultáneamente a las unidades de ejecución en espera, más instrucciones serán completadas en un ciclo dado.
La mayor parte de la dificultad en el diseño de una arquitectura superescalar de CPU descansa en crear un despachador eficaz. El despachador necesita poder determinar rápida y correctamente si las instrucciones pueden ejecutarse en paralelo, tan bien como despacharlas de una manera que mantenga ocupadas tantas unidades de ejecución como sea posible. Esto requiere que la tubería de instrucción sea llenada tan a menudo como sea posible y se incrementa la necesidad, en las arquitecturas superescalares, de cantidades significativas de
caché de CPU. Esto también crea técnicas para evitar
peligros como la
predicción de bifurcación,
ejecución especulativa, y la
ejecución fuera de orden, cruciales para mantener altos niveles de desempeño.
La predicción de bifurcación procura predecir qué rama (o trayectoria) tomará una instrucción condicional, el CPU puede minimizar el número de tiempos que toda la tubería debe esperar hasta que sea completada una instrucción condicional.
La ejecución especulativa frecuentemente proporciona aumentos modestos del desempeño al ejecutar las porciones de código que pueden o no ser necesarias después de que una operación condicional termine.
La ejecución fuera de orden cambia en algún grado el orden en el cual son ejecutadas las instrucciones para reducir retardos debido a las dependencias de los datos.
En el caso donde una porción del CPU es superescalar y una parte no lo es, la parte que no es superescalar sufre en el desempeño debido a las paradas de horario. El
Intel Pentium original (P5) tenía dos ALUs superescalares que podían aceptar, cada una, una instrucción por ciclo de reloj, pero su FPU no podía aceptar una instrucción por ciclo de reloj. Así el P5 era superescalar en la parte de números enteros pero no era superescalar de números de coma (o punto [decimal]) flotante. El sucesor a la arquitectura del Pentium de Intel, el
P6, agregó capacidades superescalares a sus funciones de coma flotante, y por lo tanto produjo un significativo aumento en el desempeño de este tipo de instrucciones.
El entubado simple y el diseño superescalar aumentan el ILP de un CPU al permitir a un solo procesador completar la ejecución de instrucciones en ratios que sobrepasan una instrucción por ciclo (IPC).
9 La mayoría de los modernos diseños de CPU son por lo menos algo superescalares, y en la última década, casi todos los diseños de CPU de propósito general son superescalares. En los últimos años algo del énfasis en el diseño de computadores de alto ILP se ha movido del hardware del CPU hacia su interface de software, o ISA. La estrategia de la
muy larga palabra de instrucción, very long instruction word (VLIW), causa a algún ILP a ser implícito directamente por el software, reduciendo la cantidad de trabajo que el CPU debe realizar para darle un empuje significativo al ILP y por lo tanto reducir la complejidad del diseño.
TLP: ejecución simultánea de hilos
Otra estrategia comúnmente usada para aumentar el paralelismo de los CPU es incluir la habilidad de correr múltiples
hilos (programas) al mismo tiempo. En general, CPUs con alto TLP han estado en uso por mucho más tiempo que los de alto ILP. Muchos de los diseños en los que
Seymour Cray fue pionero durante el final de los
años 1970 y los
años 1980 se concentraron en el TLP como su método primario de facilitar enormes capacidades de computación (para su tiempo). De hecho, el TLP, en la forma de mejoras en múltiples hilos de ejecución, estuvo en uso tan temprano como desde los
años 1950. En el contexto de diseño de procesadores individuales, las dos metodologías principales usadas para lograr el TLP son,
multiprocesamiento a nivel de chip, en inglés chip-level multiprocessing (CMP), y el
multihilado simultáneo, en inglés simultaneous multithreading (SMT). En un alto nivel, es muy común construir computadores con múltiples CPU totalmente independientes en arreglos como
multiprocesamiento simétrico (symmetric multiprocessing (SMP)) y
acceso de memoria no uniforme (Non-Uniform Memory Access (NUMA)).
10 Aunque son usados medios muy diferentes, todas estas técnicas logran la misma meta: incrementar el número de hilos que el CPU(s) puede correr en paralelo.
Los métodos de paralelismo CMP y de SMP son similares uno del otro y lo más directo. Éstos implican algo más conceptual que la utilización de dos o más CPU completos y CPU independientes. En el caso del CMP, múltiples "núcleos" de procesador son incluidos en el mismo paquete, a veces en el mismo
circuito integrado.
11 Por otra parte, el SMP incluye múltiples paquetes independientes. NUMA es algo similar al SMP pero usa un modelo de acceso a memoria no uniforme. Esto es importante para los computadores con muchos CPU porque el tiempo de acceso a la memoria, de cada procesador, es agotado rápidamente con el modelo de memoria compartido del SMP, resultando en un significativo retraso debido a los CPU esperando por la memoria. Por lo tanto, NUMA es considerado un modelo mucho más escalable, permitiendo con éxito que en un computador sean usados muchos más CPU que los que pueda soportar de una manera factible el SMP. El SMT se diferencia en algo de otras mejoras de TLP en que el primero procura duplicar tan pocas porciones del CPU como sea posible. Mientras es considerada una estrategia TLP, su implementación realmente se asemeja más a un diseño superescalar, y de hecho es frecuentemente usado en microprocesadores superescalares, como el
POWER5 de IBM. En lugar de duplicar todo el CPU, los diseños SMT solamente duplican las piezas necesarias para lectura, decodificación, y despacho de instrucciones, así como cosas como los registros de propósito general. Esto permite a un CPU SMT mantener sus unidades de ejecución ocupadas más frecuentemente al proporcionarles las instrucciones desde dos diferentes hilos de software. Una vez más esto es muy similar al método superescalar del ILP, pero ejecuta simultáneamente instrucciones de múltiples hilos en lugar de ejecutar concurrentemente múltiples instrucciones del mismo hilo.
Procesadores vectoriales y el SIMD
Un menos común pero cada vez más importante paradigma de CPU (y de hecho, de computación en general) trata con vectores. Los procesadores de los que se ha hablado anteriormente son todos referidos como cierto tipo de dispositivo escalar.
12 Como implica su nombre, los procesadores vectoriales se ocupan de múltiples piezas de datos en el contexto de una instrucción, esto contrasta con los procesadores escalares, que tratan una pieza de dato por cada instrucción. Estos dos esquemas de ocuparse de los datos son generalmente referidos respectivamente como
SISD (Single Instruction, Single Data|) (Simple Instrucción, Simple Dato) y
SIMD (Single Instruction, Multiple Data) (Simple Instrucción, Múltiples Datos). La gran utilidad en crear CPUs que se ocupen de vectores de datos radica en la optimización de tareas que tienden a requerir la misma operación, por ejemplo, una suma, o un
producto escalar, a ser realizado en un gran conjunto de datos. Algunos ejemplos clásicos de este tipo de tareas son las aplicaciones
multimedia(imágenes, vídeo, y sonido), así como muchos tipos de tareas
científicas y de ingeniería. Mientras que un CPU escalar debe completar todo el proceso de leer, decodificar, y ejecutar cada instrucción y valor en un conjunto de datos, un CPU vectorial puede realizar una simple operación en un comparativamente grande conjunto de datos con una sola instrucción. Por supuesto, esto es solamente posible cuando la aplicación tiende a requerir muchos pasos que apliquen una operación a un conjunto grande de datos.
La mayoría de los primeros CPU vectoriales, como el
Cray-1, fueron asociados casi exclusivamente con aplicaciones de investigación científica y criptografía. Sin embargo, a medida que la multimedia se desplazó en gran parte a medios digitales, ha llegado a ser significativa la necesidad de una cierta forma de SIMD en CPUs de propósito general. Poco después de que comenzara a ser común incluir
unidades de coma flotante en procesadores de uso general, también comenzaron a aparecer especificaciones e implementaciones de unidades de ejecución SIMD para los CPU de uso general. Algunas de estas primeras especificaciones SIMD, como el
MMX de Intel, fueron solamente para números enteros. Esto demostró ser un impedimento significativo para algunos desarrolladores de software, ya que muchas de las aplicaciones que se beneficiaban del SIMD trataban sobre todo con números de coma flotante. Progresivamente, éstos primeros diseños fueron refinados y rehechos en alguna de las comunes, modernas especificaciones SIMD, que generalmente están asociadas a un ISA. Algunos ejemplos modernos notables son el SSE de Intel y el AltiVec relacionado con el PowerPC (también conocido como VMX).
13
MONITOR.
Historia
Las primeras computadoras se comunicaban con el operador mediante unas pequeñas luces, que se encendían o se apagaban al acceder a determinadas posiciones de memoria o ejecutar ciertas instrucciones.
Años más tarde aparecieron ordenadores que funcionaban con
tarjeta perforada, que permitían introducir programas en el computador. Durante los años 60, la forma más común de interactuar con un computador era mediante un
teletipo, que se conectaba directamente a este e imprimía todos los datos de una sesión informática. Fue la forma más barata de visualizar los resultados hasta la década de los 70, cuando empezaron a aparecer los primeros monitores de CRT (
tubo de rayos catódicos). Seguían el estándar MDA (
Monochrome Display Adapter), y eran monitores monocromáticos (de un solo color) de
IBM.
Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal e invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (
Color Graphics Adapter - gráficos adaptados a color) fueron comercializados en 1981 al desarrollarse la primera
tarjeta gráfica a partir del estándar
CGA de
IBM. Al comercializarse a la vez que los MDA los usuarios de
PC optaban por comprar el monitor monocromático por su costo.
Tres años más tarde surgió el monitor EGA (
Enhanced Graphics Adapter - adaptador de gráficos mejorados) estándar desarrollado por IBM para la visualización de gráficos, este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar VGA (
Video Graphics Array - Matriz gráfica de video) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron, desarrollando así SVGA (
Super VGA), que también aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos como
S3 Graphics,
NVIDIA o
ATI entre otros.
Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían estando en la mayoría de hogares donde había un ordenador.
Parámetros de una pantalla
Píxel: unidad mínima representable en un monitor. Los monitores pueden presentar
píxeles muertos o atascados. Se notan porque aparecen en blanco. Más común en portátiles.
Tamaño de punto o (dot pitch): el tamaño de punto es el espacio entre dos fósforos coloreados de un píxel. Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. Los tamaños de punto más pequeños producen imágenes más uniformes. un monitor de 14
pulgadas suele tener un tamaño de punto de 0,28
mm o menos. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones. En
LCD y en
CRT de apertura de rejilla, es la distancia en horizontal, mientras que en los CRT de máscara de sombra, se mide casi en diagonal. Lo mínimo exigible en este momento es que sea de 0,28mm. Para
CAD o en general para diseño, lo ideal sería de 0,25 mm o menor. 0,21 en máscara de sombra es el equivalente a 0.24 en apertura de rejilla.
Área útil: el tamaño de la pantalla no coincide con el área real que se utiliza para representar los datos.
Ángulo de visión: es el máximo ángulo con el que puede verse el monitor sin que se degrade demasiado la imagen. Se mide en grados.
Luminancia: es la medida de luminosidad, medida en
Candela.
Tiempo de respuesta: también conocido como latencia. Es el tiempo que le cuesta a un píxel pasar de activo (blanco) a inactivo (negro) y después a activo de nuevo.
Contraste: es la proporción de brillo entre un píxel negro a un píxel blanco que el monitor es capaz de reproducir. Algo así como cuantos tonos de brillo tiene el monitor.
Coeficiente de contraste de imagen: se refiere a lo vivo que resultan los colores por la proporción de brillo empleada. A mayor coeficiente, mayor es la intensidad de los colores (30000:1 mostraría un colorido menos vivo que 50000:1).
Consumo: cantidad de energía consumida por el monitor, se mide en
Vatio.
Ancho de banda: frecuencia máxima que es capaz de soportar el monitor.
Hz o frecuencia de refresco vertical: son 2 valores entre los cuales el monitor es capaz de mostrar imágenes estables en la pantalla.
Hz o frecuencia de refresco horizontal : similar al anterior pero en sentido horizontal, para dibujar cada una de las líneas de la pantalla.
Blindaje: un monitor puede o no estar blindando ante interferencias eléctricas externas y ser más o menos sensible a ellas, por lo que en caso de estar blindando, o semi-blindado por la parte trasera llevara cubriendo prácticamente la totalidad del tubo una plancha metálica en contacto con tierra o masa.
Tipo de monitor: en los CRT pueden existir 2 tipos, de apertura de rejilla o de máscara de sombra.
Líneas de tensión: son unas líneas horizontales, que tienen los monitores de apertura de rejilla para mantener las líneas que permiten mostrar los colores perfectamente alineadas; en 19 pulgadas lo habitual suelen ser 2, aunque también los hay con 3 líneas, algunos monitores pequeños incluso tienen una sola.
Tamaño de la pantalla y proporción
Medida de tamaño de la pantalla para TFT.
El tamaño de la pantalla es la distancia en diagonal de un vértice de la pantalla al opuesto, que puede ser distinto del área visible cuando hablamos de
CRT , mientras que la proporción o
relación de aspecto es una medida de proporción entre el ancho y el alto de la pantalla, así por ejemplo una proporción de 4:3 ( Cuatro tercios ) significa que por cada 4 píxeles de ancho tenemos 3 de alto, una resolución de 800x600 tiene una relación de aspecto 4:3, sin embargo estamos hablando de la proporción del monitor.
Estas dos medidas describen el tamaño de lo que se muestra por la pantalla, históricamente hasta no hace mucho tiempo y al igual que las televisiones los monitores de ordenador tenían un proporción de 4:3. Posteriormente se desarrollaron estándares para pantallas de aspecto panorámico 16:9 (a veces también de 16:10 o 15:9) que hasta entonces solo veíamos en el cine.
Medición del tamaño de la pantalla
Las medidas de tamaño de pantalla son diferentes cuando se habla de monitores
CRT y monitores
LCD.
Para monitores CRT la medida en
pulgadas de la pantalla toma como referencia los extremos del monitor teniendo en cuenta el borde, mientras que el área visible es más pequeña.
Para monitores LCD la medida de tamaño de pantalla se hace de punta a punta de la pantalla sin contar los bordes.
Los tamaños comunes de pantalla suelen ser de 15, 17, 19, 21 pulgadas. La correspondencia entre las pulgadas de CRT y LCD en cuanto a zona visible se refiere, suele ser de una escala inferior para los CRT, es decir una pantalla LCD de 17 pulgadas equivale en zona visible a una pantalla de 19 pulgadas del monitor CRT (aproximadamente).
Resolución máxima
Comparación de resoluciones de vídeo.
Artículo principal:
Resolución de pantalla
Es el número máximo de píxeles que pueden ser mostrados en cada dimensión, es representada en filas por columnas. Está relacionada con el tamaño de la pantalla y la proporción.
Los monitores LCD solo tienen una resolución nativa posible, por lo que si se hacen trabajar a una resolución distinta, se escalará a la resolución nativa, lo que suele producir artefactos en la imagen.
Las resoluciones más Usadas son:
Estándar
Nombre
Ancho
Alto
% de usuarios de Steam
XGA
eXtended Graphics Array
1024
768
15,37%
WXGA
Widescreen eXtended Graphics Array
1280
800
7,35%
SXGA
Super eXtended Graphics Array
1280
1024
21,01%
WSXGA
Widescreen Super eXtended Graphics Array
1440
900
11,12%
WSXGA+
Widescreen Super eXtended Graphics Array Plus
1680
1050
18,48%
Noviembre de 2009, encuesta del hardware usado en equipos con Steam instalado
[1]
Colores
Geometría de los píxeles.
Cada píxel de la pantalla tiene interiormente 3 subpíxeles, uno rojo, uno verde y otro azul; dependiendo del brillo de cada uno de los subpíxeles, el píxel adquiere un color u otro de forma semejante a la
composición de colores RGB.
La manera de organizar los subpíxeles de un monitor varia entre los dispositivos. Se suelen organizar en líneas verticales, aunque algunos CRT los organizan en puntos formando triángulos. Para mejorar la sensación de movimiento, es mejor organizarlos en diagonal o en triángulos. El conocimiento del tipo de organización de píxeles, puede ser utilizado para mejorar la visualización de imágenes de
mapas de bit usando renderizado de subpíxeles.
La mayor parte de los monitores tienen una profundidad 8 bits por color (24 bits en total), es decir, pueden representar aproximadamente 16,8 millones de colores distintos.
Ventajas y desventajas
Monitores LCD
Ventajas:
El grosor es inferior por lo que pueden utilizarse en portátiles.
Cada punto se encarga de dejar o no pasar la luz.
La geometría es siempre perfecta, lo determina el tamaño del píxel
Desventajas:
Sólo pueden reproducir fielmente la resolución nativa, con el resto, se ve un borde negro, o se ve difuminado por no poder reproducir medios píxeles.
Por sí solas no producen luz, necesitan una fuente externa.
Si no se mira dentro del cono de visibilidad adecuado, desvirtúan los colores.
El
ADC y el
DAC de un monitor LCD para reproducir colores limita la cantidad de colores representable.
El
ADC (Convertidor Analógico a Digital) en la entrada de vídeo analógica (cantidad de colores a representar).
El
DAC (Convertidor Digital a Analógico) dentro de cada píxel (cantidad de posibles colores representables).
En los CRT es la tarjeta gráfica la encargada de realizar esto, el monitor no influye en la cantidad de colores representables, salvo en los primeros modelos de monitores que tenían entradas digitales
TTL en lugar de entradas analógicas.
Monitores CRT
Ventajas:
Permiten reproducir una mayor variedad cromática.
Distintas resoluciones se pueden ajustar al monitor.
En los monitores de apertura de rejilla no hay
moiré vertical.
Desventajas:
Ocupan más espacio (cuanto más fondo, mejor geometría).
Los modelos antiguos tienen la pantalla curva.
Los campos eléctricos afectan al monitor (la imagen vibra).
Para disfrutar de una buena imagen necesitan ajustes por parte del usuario.
En los monitores de apertura de rejilla se pueden apreciar (bajo fondo blanco) varias líneas de tensión muy finas que cruzan la pantalla horizontalmente.
Datos técnicos, comparativos entre sí
En los CRT, la frecuencia de refresco es la que tiene la tarjeta gráfica, en los LCD no siempre es la que se le manda
Los CRT pueden tener modo progresivo y entrelazado, los LCD tienen otro método de representación.
En los CRT se pierde aproximadamente 1 pulgada del tamaño, que se utiliza para la sujeción del tubo, en los LCD es prácticamente lo que ocupa el LCD por si mismo.
El peso de un LCD se ve incrementado por la peana para darle estabilidad, pero el monitor en sí no pesa prácticamente nada.
Los LCD suelen necesitar de un transformador externo al monitor, en los CRT toda la electrónica va dentro del monitor.
En los LCD el consumo es menor, y la tensión de utilización por parte de la electrónica también.
En los CRT pueden aparecer problemas de "quemar" el fósforo de la pantalla, esto ocurre al dejar una imagen fija durante mucho tiempo, como la palabra "insert coin" en las recreativas, en los LCD los problemas pueden ser de píxeles muertos (siempre encendido o, siempre apagado), aparte de otros daños.
El parpadeo de ambos tipos de pantallas es debido a la baja frecuencia de refresco, unido a la persistencia del brillo del fósforo, y a la memoria de cada píxel en un CRT y LCD respectivamente, que mitigan este defecto.
Con alta velocidad de refresco y un tiempo grande de persistencia del fósforo, no hay parpadeo, pero si la persistencia del fósforo es baja y el refresco es bajo, se produce este problema. Sin embargo esto puede causar un efecto de desvanecimiento o visión borrosa, al permanecer aún encendido un punto, en el siguiente refresco de la pantalla.
TECLADO.
Teclado.
En
informática, un teclado es un
periférico de entrada o dispositivo, en parte inspirado en el teclado de las
máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como
palancas mecánicas o interruptores electrónicos que envían información a la
computadora. Después de las
tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo
teletipo se convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 147 teclas aproximadamente, y está dividido en cuatro bloques:
Bloque de funciones: va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa.
Bloque alfanumérico: está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales.
Bloque especial: está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como ImprPant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, RePág, AvPág, y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones.
Bloque numérico: está ubicado a la derecha del bloque especial, se activa al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitación de cifras. Además contiene los signos de las cuatro operaciones básicas: suma +, resta −, multiplicación * y división /; también contiene una tecla de Intro o Enter.
Disposición de las teclas
La disposición de las teclas se remonta a las primeras
máquinas de escribir, las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta con el fin de que los martillos se atascaran con menor frecuencia[
cita requerida].
Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales y secundarios: la francesa
AZERTY y la alemana
QWERTZ. Ambas se basaban en cambios en la disposición según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo ( ´ ), grave ( ` ), la diérisis( ¨ ) y circunflejo ( ^ ), y exclusivamente en la distribución española la
cedilla ( Ç ) aunque estos caracteres son de mayor uso en
francés,
portugués o en
catalán.
Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central; es el caso del
Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de las computadoras personales, que por aquel entonces se encontraban en pleno auge.
Teclado QWERTY de 104 teclas con distribución
Inglés de
Estados Unidos.
Teclado QWERTY de 105 teclas con distribución
Español de
Hispanoamérica.
Teclado QWERTY de 105 teclas con distribución
Español de
España.
Primeros teclados
Además de
teletipos y máquinas de escribir eléctricas como la
IBM Selectric, los primeros teclados solían ser un
terminal de computadora que se comunicaba por
puerto serial con la computadora. Además de las normas de teletipo, se designó un estándar de comunicación serie, según el tiempo de uso basado en el juego de caracteres
ANSI, que hoy sigue presente en las comunicaciones por
módem y con impresora (las primeras computadoras carecían de
monitor, por lo que solían comunicarse, o bien por luces en su panel de control, o bien enviando la respuesta a un dispositivo de impresión). Se usaba para ellos las secuencias de escape, que se generaban o bien por teclas dedicadas, o bien por combinaciones de teclas, siendo una de las más usadas la tecla Control.
La llegada de la
computadora doméstica trae una inmensa variedad de teclados y de tecnologías y calidades (desde los muy reputados por duraderos del
Dragon 32 a la fragilidad de las membranas de los equipos Sinclair), aunque la mayoría de equipos incorporan la
placa madre bajo el teclado, y es la
CPU o un circuito auxiliar (como el chip de sonido
General Instrument AY-3-8910 en los
MSX) el encargado de leerlo. Son casos contados los que recurren o soportan comunicación serial (curiosamente es la tecnología utilizada en el
Sinclair Spectrum 128 para el keypad numérico). Sólo los MSX establecerán una norma sobre el teclado, y los diferentes clones del
TRS-80 seguirán el diseño del clonado.
Generación 16 bits
Mientras que el teclado del
IBM PC y la primera versión del
IBM AT no tuvo influencia más allá de los clónicos PC, el Multifunción II (o teclado extendido AT de 101/102 teclas) aparecido en
1987 refleja y estandariza de facto el teclado moderno con cuatro bloques diferenciados: un bloque alfanumérico con al menos una tecla a cada lado de la barra espaciadora para acceder a símbolos adicionales; sobre él una hilera de 10 o 12
teclas de función; a la derecha un teclado numérico, y entre ambos grandes bloques, las teclas de cursor y sobre ellas varias teclas de edición. Con algunas variantes este será el esquema usado por los
Atari ST, los Commodore Amiga (desde el
Commodore Amiga 500), los
Sharp X68000, las estaciones de trabajo SUN y
Silicon Graphics y los
Acorn Archimedes/
Acorn RISC PC. Sólo los
Mac siguen con el esquema bloque alfanumérico + bloque numérico, pero también producen teclados extendidos AT, sobre todo para los modelos con emulación PC por hardware.
Mención especial merece la serie 55 de teclados IBM, que ganaron a pulso la fama de "indestructibles", pues tras más de 10 años de uso continuo en entornos como las aseguradoras o la administración pública seguían funcionando como el primer día. [
cita requerida]
Con la aparición del
conector PS/2, varios fabricantes de equipos no PC proceden a incorporarlo en sus equipos.
Microsoft, además de hacerse un hueco en la gama de calidad alta, y de presentar avances ergonómicos como el
Microsoft Natural Keyboard, añade 3 nuevas teclas tras del lanzamiento de
Windows 95. A la vez se generalizan los teclados multimedia que añaden teclas para controlar en el PC el volumen, el lector de
CD-ROM o el navegador, incorporan en el teclado altavoces, calculadora, almohadilla sensible al tacto o bola trazadora
QWERTY
Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos lenguajes. El tipo estándar de teclado inglés se conoce como
QWERTY. Denominación de los teclados de computadora y
máquinas de escribir que se utilizan habitualmente en los países occidentales, con
alfabeto latino. Las siglas corresponden a las primeras letras del teclado, comenzando por la izquierda en la fila superior. El teclado en español o su variante latinoamericana son teclados QWERTY que se diferencian del inglés por presentar la letra "Ñ" en su distribución de teclas.
Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando ventajas tales como mayores velocidades de tecleado. La alternativa más famosa es el
Teclado Simplificado Dvorak.
Teclados con USB
Aunque los teclados
USB comienzan a verse al poco de definirse el estándar USB, es con la aparición del
Apple iMac, que trae tanto teclado como mouse USB de serie cuando se estandariza el soporte de este tipo de teclado. Además tiene la ventaja de hacerlo independiente del hardware al que se conecta. El estándar define scancodes de 16
bits que se transmiten por la interfaz. Del 0 al 3 son códigos de error del protocolo, llamados NoEvent, ErrorRollOver, POSTFail, ErrorUndefined, respectivamente. Del 224 al 231 se reservan para las teclas modificadoras (LCtrl, LShift, LAlt, LGUI, RCtrl, RShift, RAlt, RGUI)
Teclados de proyección
Existen teclados de proyección, de igual tamaño que un teclado estándar pero que utilizan
láser. Se pueden conectar por USB,
bluetooth o
Wi-Fi.
[1]
Teclas inertes
Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los caracteres acentuados. Teclear los caracteres acentuados resulta más sencillo usando las teclas inertes. Cuando se utiliza una de estas teclas, si se presiona la tecla correspondiente al acento deseado nada ocurre en la pantalla, por lo que, a continuación se debe presionar la tecla del carácter a acentuar. Esta combinación de teclas requiere que se teclee una secuencia aceptable. Por ejemplo, si se presiona la tecla inerte del acento (ej. ´) seguido de la letra A, obtendrá una "a" acentuada (á). Sin embargo, si se presiona una tecla inerte y a continuación la tecla T, no aparecerá nada en la pantalla o aparecerán los dos caracteres por separado (´t), a menos que la fuente particular para su idioma incluya la "t" acentuada.
Para teclear una marca de acento
diacrítico, simplemente se presiona la tecla inerte del acento, seguida de la barra de espacio.
Tipos de teclado
Hubo y hay muchos teclados diferentes, dependiendo del idioma, fabricante.
IBM ha soportado tres tipos de teclado: el XT, el AT y el MF-II.
El primero (1981) de éstos tenía 83 teclas, usaban es
Scan Code set1, unidireccionales y no eran muy ergonómicos, ahora está obsoleto.
Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT IZQ), ya es bidireccional, usa el Scan Code set 2 y al igual que el anterior cuenta con un
conector DIN de 5 pines.
En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT. Sus características son que usa la misma interfaz que el AT, añade muchas teclas más, se ponen ledes y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay dos versiones, la americana con 101 teclas y la europea con 102.
Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el
conector Mini-DIN de 6 pines (más pequeño que el AT) y más comandos, pero la comunicación es la misma, usan el protocolo AT. Incluso los
ratones PS/2 usan el mismo protocolo. Estos teclados están quedando en desuso por los actuales teclados USB y los inalámbricos.
Hoy en día existen también los teclados en pantalla, también llamados teclados virtuales, que son (como su mismo nombre indica) teclados representados en la pantalla, que se utilizan con el ratón o con un dispositivo especial (podría ser un
joystick). Estos teclados los utilizan personas con
discapacidades que les impiden utilizar adecuadamente un teclado físico.
Actualmente la denominación AT o PS/2 sólo se refiere al conector porque hay una gran diversidad de ellos.
Estructura
Un teclado realiza sus funciones mediante un micro controlador. Estos micro controladores tienen un
programa instalado para su funcionamiento, estos mismos programas son ejecutados y realizan la exploración matricial de las teclas cuando se presiona alguna, y así determinar cuales están pulsadas.
Para lograr un sistema flexible los microcontroladores no identifican cada tecla con su carácter serigrafiado en la misma sino que se adjudica un valor numérico a cada una de ellas que sólo tiene que ver con su posición física. El teclado latinoamericano sólo da soporte con teclas directas a los caracteres específicos del
castellano, que incluyen dos tipos de acento, la
letra eñe y los signos de exclamación e interrogación. El resto de combinaciones de acentos se obtienen usando una tecla de extensión de grafismos. Por lo demás el teclado latinoamericano está orientado hacia la programación, con fácil acceso al juego de símbolos de la
norma ASCII.
Por cada pulsación o liberación de una tecla el micro controlador envía un código identificativo que se llama Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el teclado genera un código diferente cuando una tecla se pulsa y cuando dicha tecla se libera. Si el micro controlador nota que ha cesado la pulsación de la tecla, el nuevo código generado (Break Code) tendrá un valor de pulsación incrementado en 128. Estos códigos son enviados al circuito micro controlador donde serán tratados gracias al administrador de teclado, que no es más que un programa de la
BIOS y que determina qué carácter le corresponde a la tecla pulsada comparándolo con una tabla de caracteres que hay en el
kernel, generando una
interrupción por hardware y enviando los datos al
procesador.
El micro controlador también posee cierto espacio de
memoria RAM que hace que sea capaz de almacenar las últimas pulsaciones en caso de que no se puedan leer a causa de la velocidad de tecleo del usuario. Hay que tener en cuenta, que cuando realizamos una pulsación se pueden producir rebotes que duplican la señal. Con el fin de eliminarlos, el teclado también dispone de un circuito que limpia la señal.
En los teclados AT los códigos generados son diferentes, por lo que por razones de compatibilidad es necesario traducirlos. De esta función se encarga el controlador de teclado que es otro microcontrolador (normalmente el 8042), éste ya situado en el PC. Este controlador recibe el Código de Búsqueda del Teclado (Kscan Code) y genera el propiamente dicho Código de Búsqueda. La comunicación del teclado es vía serie. El protocolo de comunicación es bidireccional, por lo que el servidor puede enviarle comandos al teclado para configurarlo, reiniciarlo, diagnósticos, etc.
Disposición del teclado.
El teclado estándar en
español corresponde al diseño llamado
QWERTY. Una variación de este mismo es utilizado por los usuarios de
lengua inglesa. Para algunos idiomas se han desarrollado teclados que pretenden ser más cómodos que el QWERTY, por ejemplo el
Teclado Dvorak.
Las computadoras modernas permiten utilizar las distribuciones de teclado de varios idiomas distintos en un teclado que físicamente corresponde a un solo idioma. En sistemas operativos
Windows, como también en
Mac OS o en
Linux por ejemplo, pueden instalarse distribuciones adicionales desde el
Panel de Control o de Herramientas de configuración o Personalización.
Existen programas como Microsoft Keyboard Layout Creator y KbdEdit, que hacen muy fácil la tarea de crear nuevas distribuciones, ya para satisfacer las necesidades particulares de un usuario, ya para resolver problemas que afectan a todo un grupo lingüístico. Estas distribuciones pueden ser modificaciones a otras previamente existentes (como el teclado latinoamericano extendido o el gaélico, o pueden ser enteramente nuevas (como la distribución para el
Alfabeto Fonético Internacional, o el panibérico ).
A primera vista en un teclado podemos notar una división de teclas, tanto por la diferenciación de sus colores, como por su distribución. Las teclas grisáceas sirven para distinguirse de las demás por ser teclas especiales (borrado, teclas de función, tabulación, tecla del sistema…). Si nos fijamos en su distribución vemos que están agrupadas en cuatro grupos:
Teclas de función: situadas en la primera fila de los teclados. Combinadas con otras teclas, nos proporcionan acceso directo a algunas funciones del programa en ejecución.
Teclas de edición: habitualmente situadas a la derecha del teclado alfanumérico. Sirven para editar (Ins, Supr), conjuntamente con las teclas que permiten cambiar el cursor de posición (Inicio, Fin, AvPág, RePág y 4 las teclas de cursor).
Teclas alfauméricas: son las más usadas. Su distribución suele ser la de los
teclados QWERTY, por herencia de la distribución de las máquinas de escribir. Reciben este nombre por ser la primera fila de teclas, y su orden es debido a que cuando estaban organizadas alfabéticamente la máquina tendía a engancharse, y a base de probar combinaciones llegaron a la conclusión de que así es como menos problemas daban. A pesar de todo esto, se ha comprobado que hay una distribución mucho más cómoda y sencilla, llamada
Dvorak, pero en desuso debido sobre todo a la incompatibilidad con la mayoría de los programas que usamos.
Bloque numérico: situado a la derecha del teclado. Comprende los dígitos del sistema decimal y los símbolos de algunas operaciones aritméticas. Añade también la tecla especial Bloq Num, que sirve para cambiar el valor de algunas teclas para pasar de valor numérico a desplazamiento de cursor en la pantalla. el teclado numérico también es similar al de un calculadora cuenta con las 4 operaciones básicas que son + (suma), - (resta), * (multiplicación) y / (división).
IMPRESORA.
Una impresora es un
dispositivo periférico del
ordenador que permite producir una gama permanente de textos o gráficos de documentos almacenados en un formato electrónico, imprimiéndolos en medios físicos, normalmente en
papel, utilizando
cartuchos de tinta o tecnología
láser (con
tóner).
Muchas impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interno (típicamente wireless o ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red.
Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia electrónicos como las tarjetas
CompactFlash,
Secure Digital o
Memory Stick,
pendrives, o aparatos de captura de imagen como
cámaras digitales y
escáneres. También existen aparatos multifunción que constan de impresora, escáner o máquinas de
fax en un solo aparato. Una impresora combinada con un escáner puede funcionar básicamente como una
fotocopiadora.
Las impresoras suelen diseñarse para realizar trabajos repetitivos de poco volumen, que no requieran virtualmente un tiempo de configuración para conseguir una copia de un determinado documento. Sin embargo, las impresoras son generalmente dispositivos lentos (10 páginas por minuto es considerado rápido), y los gastos por página es relativamente alto.
Para trabajos de mayor volumen existen las imprentas, que son máquinas que realizan la misma función que las impresoras pero están diseñadas y optimizadas para realizar trabajos de impresión de gran volumen como sería la impresión de periódicos. Las imprentas son capaces de imprimir cientos de páginas por minuto o más
Métodos de impresión
La elección del motor de impresión tiene un efecto substancial en los trabajos a los que una impresora está destinada. Hay diferentes tecnologías que tienen diferentes niveles de calidad de imagen, velocidad de impresión, coste, ruido y además, algunas tecnologías son inapropiadas para ciertos tipos de medios físicos (como papel carbón o transparencias).
Otro aspecto de la tecnología de impresión que es frecuentemente olvidado es la resistencia a la alteración: tinta líquida como de una cabeza de inyección de tinta son absorbidos por las fibras del papel, y por eso los documentos impresos con tinta líquida son más difíciles de alterar que los que están impresos por tóner o tinta sólida, que no penetran por debajo de la superficie del papel.
Tóner
Las
impresoras de láser e impresoras térmicas utilizan este método para adherir
tóner al medio. Trabajan utilizando el principio de
Xerografía que está funcionando en la mayoría de las fotocopiadoras: adhiriendo tóner a un tambor de impresión sensible a la luz, y utilizando electricidad estática para transferir el
tóner al medio de impresión al cual se une gracias al calor y la presión.
Las impresoras láser son conocidas por su impresión de alta calidad, buena velocidad de impresión y su bajo costo por copia; son las impresoras más comunes para muchas de las aplicaciones de oficina de propósito general. Son menos utilizadas por el consumidor generalmente debido a su alto coste inicial. Las impresoras láser están disponibles tanto en color como en monocromo.
El advenimiento de láseres de precisión a precio razonable ha hecho a la impresora monocromática basada en tóner dominante en aplicaciones para la oficina. Otro tipo de impresora basada en tóner es la impresora LED la cual utiliza una colección de
ledes en lugar de láser para causar la adhesión del tóner al tambor de impresión. El tóner (del inglés, toner), también denominado tinta seca por analogía funcional con la tinta, es un polvo fino, normalmente de color negro, que se deposita en el papel que se pretende imprimir por medio de atracción electrostática.
Una vez adherido el pigmento, éste se fija en el papel por medio de presión o calor adecuados. Debido a que en el proceso no intervienen diluyentes, originalmente se ha denominado Xerografía, del griego xeros que significa seco.
Inyección de tinta
Las
impresoras de inyección de tinta (Ink Jet) rocían hacia el medio cantidades muy pequeñas de tinta, usualmente unos picolitros. Para aplicaciones de color incluyendo impresión de fotos, los métodos de chorro de tinta son los dominantes, ya que las impresoras de alta calidad son poco costosas de producir. Virtualmente todas las impresoras de inyección son dispositivos en color; algunas, conocidas como impresoras fotográficas, incluyen pigmentos extra para una mejor reproducción de la gama de colores necesaria para la impresión de fotografías de alta calidad (y son adicionalmente capaces de imprimir en papel fotográfico, en contraposición al papel normal de oficina).
Las impresoras de inyección de tinta consisten en inyectores que producen burbujas muy pequeñas de tinta que se convierten en pequeñísimas gotitas de tinta. Los puntos formados son el tamaño de los pequeños pixels. Las impresoras de inyección pueden imprimir textos y gráficos de alta calidad de manera casi silenciosa.
Existen dos métodos para inyectar la tinta:
Método térmico. Un impulso eléctrico produce un aumento de temperatura (aprox. 480 °C durante microsegundos) que hace hervir una pequeña cantidad de tinta dentro de una cámara formando una burbuja de vapor que fuerza su salida por los inyectores. Al salir al exterior, este vapor se condensa y forma una minúscula gota de tinta sobre el papel. Después, el vacío resultante arrastra nueva tinta hacia la cámara. Este método tiene el inconveniente de limitar en gran medida la vida de los inyectores, es por eso que estos inyectores se encuentran en los cartuchos de tinta.
Método piezoeléctrico. Cada inyector está formado por un elemento piezoeléctrico que, al recibir un impulso eléctrico, cambia de forma aumentando bruscamente la presión en el interior del cabezal provocando la inyección de una partícula de tinta. Su ciclo de inyección es más rápido que el térmico.
Las impresoras de inyección tienen un coste inicial mucho menor que las impresoras láser, pero tienen un coste por copia mucho mayor, ya que la tinta necesita ser repuesta frecuentemente. Las impresoras de inyección son también más lentas que las impresoras láser, además de tener la desventaja de dejar secar las páginas antes de poder ser manipuladas agresivamente; la manipulación prematura puede causar que la tinta (que está adherida a la página en forma liquida) se mueva.
Tinta sólida
Las impresoras de tinta sólida, también llamadas de cambio de fase, son un tipo de impresora de transferencia termal pero utiliza barras sólidas de tinta en color
CMYK (similar en consistencia a la cera de las velas). La tinta se derrite y alimenta una cabeza de impresión operada por un cristal
piezoeléctrico (por ejemplo
cuarzo). La cabeza distribuye la tinta en un tambor engrasado. El papel entonces pasa sobre el tambor al tiempo que la imagen se transfiere al papel.
Son comúnmente utilizadas como impresoras en color en las oficinas ya que son excelentes imprimiendo transparencias y otros medios no porosos, y pueden conseguir grandes resultados. Los costes de adquisición y utilización son similares a las impresoras láser.
Las desventajas de esta tecnología son el alto consumo energético y los largos periodos de espera (calentamiento) de la máquina. También hay algunos usuarios que se quejan de que la escritura es difícil sobre las impresiones de tinta sólida (la cera tiende a repeler la tinta de los bolígrafos), y son difíciles de alimentar de papel automáticamente, aunque estos rasgos han sido significantemente reducidos en los últimos modelos. Además, este tipo de impresora solo se puede obtener de un único fabricante,
Xerox, como parte de su línea de impresoras de oficina
Xerox Phaser. Previamente las impresoras de tinta sólida fueron fabricadas por
Tektronix, pero vendió su división de impresión a Xerox en el año 2000.
Impacto
Margarita de impresión.
Bolas de impresión.
Las impresoras de impacto se basan en la fuerza de impacto para transferir tinta al medio, de forma similar a las máquinas de escribir, están típicamente limitadas a reproducir texto. En su momento dominaron la impresión de calidad. Hay dos tipos principales:
Impresora de margarita llamada así por tener los tipos contenidos radialmente en una rueda, de ahí su aspecto de una margarita.
Impresora de rueda llamada así por tener todos los tipos contenidos en una esfera. Es el caso de las
máquinas de escribir eléctricas
IBM Selectric
Las impresoras golpe o impacto trabajan con un cabezal en el que hay agujas, estas agujas golpean una cinta, similar al de una máquina de escribir, que genera la impresión de la letra.
Matriz de puntos
En el sentido general, muchas impresoras se basan en una matriz de
píxeles o puntos que, juntos, forman la imagen más grande. Sin embargo, el término matriz o de puntos se usa específicamente para las impresoras de impacto que utilizan una matriz de pequeños alfileres para crear puntos precisos. Dichas impresoras son conocidas como
matriciales. La ventaja de la matriz de puntos sobre otras impresoras de impacto es que estas pueden producir imágenes gráficas además de texto. Sin embargo, el texto es generalmente de calidad más pobre que las impresoras basadas en impacto de tipos.
Algunas sub-clasificaciones de impresoras de matriz de puntos son las
impresoras de alambre balístico y las
impresoras de energía almacenada.
Las impresoras de matriz de puntos pueden estar basadas bien en caracteres o bien en líneas, refiriéndose a la configuración de la cabeza de impresión.
Las impresoras de matriz de puntos son todavía de uso común para aplicaciones de bajo costo y baja calidad como las cajas registradoras. El hecho de que usen el método de impresión de impacto les permite ser usadas para la impresión de documentos autocopiativos como los recibos de tarjetas de crédito, donde otros métodos de impresión no pueden utilizar este tipo de papel. Las impresoras de matriz de puntos han sido superadas para el uso general en computación.
Sublimación de tinta
Las impresoras de sublimación de tinta emplean un proceso de impresión que utiliza calor para transferir tinta a medios como tarjetas de plástico, papel o lienzos. El proceso consiste usualmente en poner un color cada vez utilizando una cinta que tiene paneles de color. Estas impresoras están principalmente pensadas para aplicaciones de color de alta calidad, incluyendo fotografía en color, y son menos recomendables para texto. Primeramente utilizadas en las copisterías, cada vez más se están dirigiendo a los consumidores de impresoras fotográficas.
Trazador de imagen
Los
plóteres sirven para hacer impresiones de dibujo de planos de arquitectura, ingeniería, diseño industrial, etc., para la impresión de láminas, posters,
ampliaciones fotográficas, gigantografías, carteles en rutas, vía pública, señalización, etc. Existen dos clases de ploter según el uso de sus tintas, a base de agua o solventes. Un caso particular es el plotter de corte, que corta un medio adhesivo que luego se fijará a otra superficie, desde camisetas a carrocerías.
Memoria de las impresoras
Las impresoras llevan consigo memoria interna. Van desde los 8KB en las impresoras matriciales hasta como mínimo 1MB en las impresoras láser.
Actualmente en las láser venden módulos de memoria independientes para ampliar la capacidad de la misma.
La memoria se usa como buffer y como almacenamiento permanente y semipermanente. Además su uso es necesario porque el tratamiento de gráficos vectoriales y el diseño de fuentes en mapa de bits consumen memoria.
El buffer es utilizado para mantener trabajos de impresión activos y la permanencia se utiliza para almacenar el diseño de las fuentes y los datos.
Hay que tener en cuenta que para tratar la impresión de un documento la página tiene que estar enteramente almacenada en memoria. El rendimiento de la memoria depende tanto del sistema operativo como de la configuración del controlador de impresora.
Por ejemplo, la gestión de impresión varía si estamos en un sistema operativo DOS u otro multiplataforma.
Conexión de impresora
La conexión de la impresora con el computador ha ido evolucionando conllevando a la mejora de rendimiento de impresión y comodidad de usuario.
La forma más antigua de conexión era mediante
puerto serie en donde la transferencia se hacia bit a bit, permitía distancias largas con velocidades lentas que no superaban los 19.200 bytes/segundo.
Se elevó hasta la conexión mediante
puerto paralelo en la que las transferencias eran byte a byte permitiendo 8 conexiones paralelas consiguiendo una velocidad más rápida entre los 0.5 MB/segundo hasta los 4MB/segundo. El inconveniente era la limitación de la distancia del cable que une la impresora con el computador ya que no permite una longitud mayor de 2 metros.
Otra forma de conexión se consiguió poniendo la impresora en red
Ethernet mediante conexiones RJ 45 basadas en el estándar IEEE 802.3. Las velocidades conseguidas superan los 10 Mb/segundo basada en el manejo de paquetes. No hay que confundirla con una impresora compartida, ya que las impresoras en red operan como un elemento de red con
dirección IP propia.
Otra método de conexión más actual es por medio de puertos USB (
Universal Serial Bus). La velocidad vuelve a mejorar con 480Mb/segundo con las ventajas que conlleva el puerto USB: compatibilidad con varios sistemas y la posibilidad de usarla en dispositivos portátiles.
Finalmente, la conexión inalámbrica wifi, mediante el protocolo IEEE 802.11, está siendo la más novedosa. Alcanza 300 Mb/segundo y funciona tanto para impresoras de tinta, láser o multifunción.
Aunque consigue menos velocidad que las conectadas por USB, las wifi proporcionan ventajas tales como la autonomía, la movilidad y libertad del usuario sin la utilización de cables. Para la correcta utilización y evitar accesos no deseados deberemos cifrar la red.
Lenguajes de descripción de página y formatos de impresión
Un lenguaje de descripción de página (PDL) es un medio de codificar cada elemento de un documento para poder así transmitirlo a la impresora para que ésta lo imprima. Es el medio que define las características y composición que describirían un documento impreso dentro de un flujo de datos. Hay varios tipos de PDLs:
PostScript
Printer Command Language, PCL - lenguaje de control de impresora
HPGL, para plóteres
Velocidad de impresión
La
velocidad de las primeras impresoras se medía en unidad de
caracteres por segundo. Las impresoras más modernas son medidas en páginas por minuto (ppm). Estas medidas se usan principalmente como una herramienta de
marketing y no están bien estandarizadas. Normalmente la medida ppm se refiere a documentos
monocromáticos más que a documentos con dibujos densos que normalmente se imprimen mucho más lento.
El negocio de las impresoras
A menudo se utiliza el modelo comercial de las maquinillas y las cuchillas de afeitar en el negocio de las impresoras. Las compañías pueden vender una impresora por debajo de su coste, y obtener beneficios de los cartuchos de tinta, papel u otras partes que se reemplazan. Esto ha causado disputas legales respecto al derecho de otras compañías distintas al fabricante de la impresora de vender cartuchos de tinta compatibles. Para proteger al modelo comercial de las maquinillas y las cuchillas de afeitar muchos fabricantes invierten considerables sumas en desarrollo de nuevas tecnologías y sus patentes.
Otros fabricantes, en reacción a los desafíos que trae este modelo comercial, apuntan a obtener mayores
beneficios de las impresoras y menos de los cartuchos de tinta, promoviendo los menores precios de éstos últimos a través de campañas de publicidad. Esto genera dos propuestas bien diferentes: "impresora barata - tinta cara" o "impresora cara - tinta barata". Finalmente, la decisión del consumidor depende de su
tasa de interés de referencia o su
preferencia intertemporal.
[1] [2]
Cartuchos, tinta y papel
Tanto los cartuchos, como la tinta y el papel son 3 elementos imprescindibles para poder realizar copias con una impresora, y el saber escoger el elemento más adecuado en función del tipo de impresión que se pretende realizar puede aumentar el rendimiento de nuestra impresora hasta límites insospechados.
Cartuchos
En el caso de las impresoras láser, la vida útil del cartucho depende de la cantidad de tóner que contenga y cuando el tóner se agota, el cartucho debe ser reemplazado. En el caso de que el cartucho y el OPC (órgano sensible fotoconductivo) se encuentren en compartimentos separados, cuando se agota el tóner sólo se reemplaza el cartucho, pero en el caso de que el OPC esté dentro del cartucho se deben cambiar ambos, aumentando considerablemente el gasto. La situación es más crítica en el caso de las impresoras láser en color.
En las impresoras de chorros de tinta la vida útil del cartucho depende de la duración de la tinta, aunque muchos cartuchos se pueden rellenar de nuevo lo que ayuda a reducir el gasto de comprar uno nuevo aunque el uso excesivo de un cartucho puede provocar que realice sus impresiones con menor calidad.
Tinta
Existen dos tipos de tinta para impresoras:
Tinta penetrante de secado lento: Se utiliza principalmente para impresoras monocromáticas.
Tinta de secado rápido: Se usa en impresoras en color, ya que en estas impresoras, se mezclan tintas de distintos colores y éstas se tienen que secar rápidamente para evitar la distorsión.
El objetivo de todo fabricante de tintas para impresoras es que sus tintas puedan imprimir sobre cualquier medio y para ello desarrollan casi diariamente nuevos tipos de tinta con composiciones químicas diferentes.
Papel
Actualmente, cuando se quiere hacer una copia de alta calidad en una impresora se ha de usar
papel satinado de alta calidad. Este papel resulta bastante caro y en el caso de querer hacer muchas copias en calidad fotográfica su coste sería muy alto. Por ello, los fabricantes desarrollan nuevas impresoras que permitan obtener impresiones de alta calidad sobre papel común.
Algunos fabricantes, como por ejemplo
Epson, fabrican su propio papel.