viernes, 2 de enero de 2009

cien comandos desde menu ejecutar

En ésta parte veras los más de 100 metodos de accesibilidad más rapidos, para ahorrarnos bastante tiempo en las aplicaciones que deseamos ejecutar y que por defecto las hemos aprendido de la manera grafica que nos muestra Windows, y no por la parte de los comandos que son muchos mas faciles y rapidos de manejar a travez de Ejecutar ( MENÚ INICIO y luego click en EJECUTAR) o más facilmente por la combinacion de teclas Windows + R. Estando en la opción de EJECUTAR escribimos el comando que nos llevara a la aplicación deseada:

# Controles de accesibilidad - access.cpl
# Opciones de accesibilidad - accwiz
# Agregar Hardware - hdwwiz.cpl
# Añadir o Remover Programs - appwiz.cpl
# Las Herramientas administrativas - control admintools
# Las Actualizaciones automáticas - wuaucpl.cpl
# Transferencia Bluetooth - fsquirt
# La calculadora - calc
# Gerente del certificado - certmgr.msc
# El Mapa de carácteres - charmap
# Verifique la Utilidad del Disco - chkdsk
# Visor de Portapapeles - clipbrd
# Comando del Sistema - cmd
# El componente Repara - dcomcnfg
# La Dirección de la computadora - compmgmt.msc
# El Panel de control - control
# Popiedades de fecha y Hora - timedate.cpl
# DDE Shares - ddeshare
# Administrador de dispositivos - devmgmt.msc
# Direct X Troubleshooter - dxdiag
# Utilidad de Limpieza de disco - cleanmgr
# Defragmentador de Disco - dfrg.msc
# Manejo del disco - diskmgmt.msc
# Administrador de Partición del disco - diskpart
# Mostrar Propiedades - control desktop
# Mostrar Propiedades - desk.cpl
# Dr. Watson - drwtsn32
# Utilidad del Verificacion - verifier
# Visor de eventos - eventvwr.msc
# Opciones de Archivo y Herramientas de Transferencia - migwiz
# Archive la Herramienta de Comprobación de Firma - sigverif
# Findfast - findfast.cpl
# Firefox - firefox
# Opciones de carpeta - control folders
# Fuentes - control fonts
# Fuentes de Carpeta - fonts
# Free Cell Card Game - freecell
# Controles de Juego - joy.cpl
# Editor de polizas de Grupo (Solamente para XP Profesional) - gpedit.msc
# Juego de corazones - mshearts
# Ayuda y Soporte - helpctr
# HyperTerminal - hypertrm
# Iexpress Wizard - iexpress
# Indexing Service - ciadv.msc
# Internet Connection Wizard - icwconn1
# Internet Explorer - iexplore
# Propiedades de Internet - inetcpl.cpl
# Propiedades de teclado - control keyboard
# Opciones de Seguridad Local - secpol.msc
# Usuarios locales y Grupos - lusrmgr.msc
# Logs You Out Of Windows - logoff
# Herramienta de eliminación de Software malintencionado - mrt
# Microsoft Chat - winchat
# Microsoft Movie Maker - moviemk
# Microsoft Paint - mspaint
# Herramienta de sincronización - mobsync
# Tragaminas - winmine
# Propiedades del ratón - control mouse
# Propiedades del ratón - main.cpl
# Netmeeting - conf
# Conexiones de la red - control netconnections
# Las Conexiones de la red - ncpa.cpl
# Network Setup Wizard - netsetup.cpl
# Notepad - notepad
# Object Packager - packager
# ODBC Datos Fuente Administrador - odbccp32.cpl
# Teclado de la Pantalla - osk
# Outlook Express - msimn
# Paint - pbrush
# Propiedades de contraseña - password.cpl
# Performance Monitor - perfmon.msc
# Performance Monitor - perfmon
# Opciones de Teléfono y Módem - telephon.cpl
# Marcador telefónico - dialer
# Pinball Game - pinball
# Configuration de Poder - powercfg.cpl
# Impresora y Fax - control printers
# Carpeta de Impresora - printers
# Opciones Regionales - intl.cpl
# Editor del registro - regedit
# Editor del registro - regedit32
# Acceso remoto - rasphone
# Escritorio remoto - mstsc
# Discos removibles - ntmsmgr.msc
# Removable Storage Operator Requests - ntmsoprq.msc
# Resultant Set of Policy (para el XP Profesional ) - rsop.msc
# Escáneres y Cámaras - sticpl.cpl
# Las Tareas fijadas - control schedtasks
# Centro de seguridad - wscui.cpl
# Servicios - services.msc
# Las Carpetas compartidas - fsmgmt.msc
# Cierre de Windows - shutdown
# Sonidos y Audio - mmsys.cpl
# Spider Solitare Card Game - spider
# Configuración Cliente SQL - cliconfg
# Editor de Configuración de sistema - sysedit
# Utilidad de Configuración de sistema - msconfig
# La Información del sistema - msinfo32
# Propiedades del sistema - sysdm.cpl
# Gerente de tarea - taskmgr

miércoles, 3 de diciembre de 2008

Microprocesador


El microprocesador es un circuito integrado que contiene algunos o todos los elementos necesarios para conformar una (o más) "unidad central de procesamiento" UCP, también conocido como CPU (por sus siglas en inglés: Central Process Unit). En la actualidad este componente electrónico está compuesto por millones de transistores, integrados en una misma placa de silicio.
Se debe distinguir entre el concepto de Procesador, que es un concepto de Hardware, con el concepto de CPU, que es un concepto lógico. Una CPU puede estar soportada por uno o varios microprocesadores, y un microprocesador puede soportar una o varias CPU.





Empaquetado [editar]
Los microprocesadores generalmente aparecen a la venta empaquetados para proteger el elemento de silicio (el microprocesador en sí) de la interferencia eléctrica y del daño por exposición al medio ambiente. Este empaquetado suele tener forma de paralelogramo o de prisma e incluye superficies o postes conductores para permitir el paso de alimentación eléctrica y de señales eléctricas desde y hacia el microprocesador. Este empaquetado comúnmente se instala sobre un elemento llamado zócalo (en inglés, socket) que sirve a la vez de anclaje e interfaz de comunicación entre el microprocesador y el resto del ordenador (por ejemplo, comunicando con el chipset). En algunas arquitecturas el microprocesador puede soldarse directamente a la placa madre (motherboard). También existen arquitecturas donde se adoptó el formato de cartucho, sin embargo éste formato es más bien raro en la actualidad, prefiriendo la industria disponer de microprocesadores como módulos independientes conectables (y también desconectables) en un zócalo especial.

Disipación de calor [editar]
En las arquitecturas modernas la disipación de calor es un problema mayor, debido a la alta frecuencia de operación y a la miniaturización extrema de los microprocesadores recientes, y por eso es común que, en ordenadores como los compatibles con la IBM PC, las motherboards dispongan de un zócalo especial para alojar el microprocesador y un sistema de enfriamiento, que comúnmente consiste en un disipador de aluminio o cobre de mayor disipación recomendado para procesadores de más de un núcleo (en inglés. Dual core) con un ventilador adosado (conocido como microcoole). Entre el disipador de aluminio y el micro se encuentra una pasta o (silicona) térmica que ayuda a que las altas temperaturas sean absorbidas por el disipador de aluminio o cobre. Sin esta protección, los microprocesadores podrían sobrecalentarse al punto de estropearse permanentemente. Los microprocesadores actuales, en su gran mayoría, incluyen mecanismos automáticos que miden la temperatura y eventualmente apagan el procesador en caso de detectar sobrecalentamiento (también pueden incluir alarmas sonoras previas). Esto sirve para protegerlo de fallos, como por ejemplo, que el ventilador se averíe o atasque. Equipos modernos también suelen incluir sensores en el microcooler (ventilador) que chequean continuamente su velocidad (rpm) y en caso de que esta baje peligrosamente el equipo se apaga automáticamente.

Funcionamiento [editar]
Desde el punto de vista lógico y funcional, el microprocesador está compuesto básicamente por: varios registros; una Unidad de control, una Unidad aritmético-lógica; y dependiendo del procesador, puede contener una unidad en coma flotante.
El microprocesador ejecuta instrucciones almacenadas como números binarios organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases:
PreFetch, Pre lectura de la instrucción desde la memoria principal,
Fetch, envío de la instrucción al decodificador,
Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer,
Lectura de operandos (si los hay),
Ejecución,(Lanzamiento de las Máquinas de estado que llevan a cabo el procesamiento).
Escritura de los resultados en la memoria principal o en los registros.
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un oscilador, normalmente un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo. Este reloj, en la actualidad, genera miles de MHz.

Velocidad y ancho de banda [editar]
Actualmente se habla de frecuencias de reloj del orden de los Gigahercios (GHz.), o de Megahercios (MHz.). Lo que supone miles de millones o millones, respectivamente, de ciclos por segundo. El indicador de la frecuencia de un microprocesador es una buena referencia de la velocidad de proceso del mismo, pero no el único. La cantidad de instrucciones necesarias para llevar a cabo una tarea concreta, así como el ancho de banda o la cantidad de instrucciones ejecutadas por ciclo IPC, son los otros dos factores que determinan la velocidad de la CPU. La cantidad de instrucciones necesarias para realizar una tarea depende directamente del juego de instrucciones disponible, mientras que el índice IPC depende de varios factores, como el grado de supersegmentación y la cantidad de unidades de proceso o "pipelines" disponibles, entre otros.

Bus de datos [editar]
El microprocesador lee y escribe datos solamente en la memoria principal.Para realizar estas operaciones en los dispositivos de entrada/salida debe hacerlo por intermedio de los canales (bus). Estas transferencias se realizan a través de un conjunto de conductores que forman el bus de datos. El número de conductores suele ser potencia de 2. Hay buses de 4, 8, 16, 32, 64, ... conductores. Los modelos de la familia x86, a partir del 80386, trabajan con bus de datos de 32 bits, y a partir del Pentium Pro con bus de 64 bits. Pero los microprocesadores de las tarjetas gráficas, que tienen un mayor volumen de procesamiento por segundo, se ven obligados a aumentar este tamaño, y así tenemos hoy en día microprocesadores gráficos que trabajan con datos de 128 ó 256 bits. Estos dos tipos de microprocesadores no son comparables, ya que ni su juego de instrucciones ni su tamaño de datos son parecidos y por tanto el rendimiento de ambos no es comparable en el mismo ámbito.
La arquitectura x86 se ha ido ampliando a lo largo del tiempo a través de conjuntos de operaciones especializadas denominadas "extensiones", las cuales han permitido mejoras en el procesamiento de tipos de información específica. Este es el caso de las extensiones MMX y SSE de Intel, y sus contrapartes, las extensiones 3DNow! de AMD. A partir de 2003, el procesamiento de 64 bits fue incorporado en los procesadores de arquitectura x86 a través de la extensión AMD64 y posteriormente con la extensión EM64T en los procesadores [AMD] e [Intel] respectivamente.

Puertos de entrada y salida [editar]
El microprocesador tiene puertos de entrada/salida en el mismo circuito integrado. El chipset es un conjunto de circuitos integrados que se encarga de realizar las funciones de transmisión de la información entre el microprocesador, la memoria, el sistema gráfico y demás periféricos. El conjunto de circuitos integrados auxiliares necesarios por un sistema para realizar una tarea suele ser conocido como chipset, cuya traducción literal del inglés significa conjunto de circuitos integrados. Se designa circuito integrado auxiliar al circuito integrado que es periférico a un sistema pero necesario para el funcionamiento del mismo. La mayoría de los sistemas necesitan más de un circuito integrado auxiliar; sin embargo, el término chipset se suele emplear en la actualidad cuando se habla sobre las placas base de los IBM PCs.
El chipset esta conformado por dos partes:
El NorthBridge o puente norte se usa como puente de enlace entre el microprocesador y la memoria. Controla las funciones de acceso hacia y entre el microprocesador, la memoria RAM, el puerto gráfico AGP o PCI Express, y las comunicaciones con el puente sur. Al principio tenía también el control de PCI, pero esa funcionalidad ha pasado al puente sur.
El SouthBridge o puente sur controla los dispositivos asociados como son la controladora de discos IDE, puertos USB, Firewire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR, puertos infrarrojos, disquetera, LAN, PCI Express 1x y una larga lista de todos los elementos que podamos imaginar integrados en la placa madre. Es el encargado de comunicar el procesador con el resto de los periféricos.

Arquitectura 80x86 [editar]
En la arquitectura 80x86 usada en los computadores personales, se disponían originalmente de muchos circuitos integrados dando apoyo al microprocesador, tales como el controlador de interrupciones, controlador de acceso directo a memoria, controlador de reloj, etc. Para reducir el número de elementos, la complejidad y el costo de los sistemas se fueron creando circuitos internamente más complejos, que incluían todas esas múltiples funcionalidades en un solo elemento. Esos circuitos son los que actualmente se denominan chipset del computador y son responsables en una medida importante del rendimiento global del mismo.
Las computadoras personales actuales tienen chipset formado por 2 circuitos auxiliares al procesador principal:
El puente norte que se utiliza como puente de enlace entre el microprocesador y la memoria, controlando los accesos hacia y desde el microprocesador, la memoria RAM, el puerto gráfico y las comunicaciones con el puente sur.
El puente sur que controla los dispositivos asociados, es decir se encarga de comunicar el procesador con el resto de los periféricos. (los controladores de disco, puertos de entrada y salida, como USB, etc.)


Otras acepciones [editar]
También se suele llamar frecuente y equivocadamente CPU a la caja o gabinete de la computadora en donde están alojados los componentes principales y básicos de ella, es decir, además de la CPU en si (microprocesador), también la placa madre, las tarjetas de expansión, disco duro, CD, DVD, la fuente de alimentación, puertos de entrada/salida, etc.

Nota importante [editar]
Para 2014, Intel desea lanzar al mercado procesadores de 18 y 16 núcleos e incluso se vería la posibilidad de regresar a procesadores mononúcleo gracias al desarrollo de nuevos tipos de transistores que llegarían a las inauditas frecuencias de 20 y hasta 50 ghz lo cual evitaría la necesidad de paralelizar el procesador en dos o más núcleos.

martes, 14 de octubre de 2008

QUE ES LA MEMORIA RAM, TIPOS Y COMO SE INSTALA.
















La memoria RAM (Random Access Memory Module o memoria de acceso aleatorio) es un tipo de memoria que utilizan los ordenadores para almacenar los datos y programas a los que necesita tener un rápido acceso. Se trata de una memoria de tipo volátil, es decir, que se borra cuando apagamos el ordenador, aunque también hay memorias RAM no volátiles (como por ejemplo las memorias de tipo flash. Los datos almacenados en la memoria RAM no sólo se borran cuando apagamos el ordenador, sino que tambien deben eliminarse de esta cuando dejamos de utilizarlos (por ejemplo, cuando cerramos el fichero que contiene estos datos). Estas memorias tienen unos tiempos de acceso y un ancho de banda mucho más rápido que el disco duro, por lo que se han convertido en un factor determinante para la velocidad de un ordenador. Esto quiere decir que, dentro de unos límites, un ordenador irá más rápido cuanta mayor sea la cantidad de memoria RAM que tenga instalada, expresada en MegaBytes o GigaBytes. Los chips de memoria suelen ir conectados a unas plaquitas denominadas módulos, pero no siempre esto ha sido así, ya que hasta los ordenadores del tipo 8086 los chips de memoria RAM estaban soldados directamente a la placa base. Con los ordenadores del tipo 80386 aparecen las primeras memorias en módulos, conectados a la placa base mediante zócalos, normalmente denominados bancos de memoria, y con la posibilidad de ampliarla (esto, con los ordenadores anteriores, era prácticamente imposible). Los primeros módulos utilizados fueron los denominados SIMM (Single In-line Memory Module). Estos módulos tenían los contactos en una sola de sus caras y podían ser de 30 contactos (los primeros), que posteriormente pasaron a ser de 72 contactos.














Módulos SIMM. Podemos ver a la Izda. un módulo de 30 contactos y a la drcha. uno de 72 contactos.

Este tipo de módulo de memoria fue sustituido por los módulos del tipo DIMM (Dual In-line Memory Module), que es el tipo de memoria que se sigue utilizando en la actualidad. Esta clasificación se refiere exclusivamente a la posición de los contactos. En cuanto a los tipos de memoria, la clasificación que podemos hacer es la siguiente: DRAM: Las memorias DRAM (Dynamic RAM) fueron las utilizadas en los primeros módulos (tanto en los SIMM como en los primeros DIMM). Es un tipo de memoria más barata que la SDRAM, pero también bastante más lenta, por lo que con el paso del tiempo ha dejado de utilizarse. Esta memoria es del tipo asíncronas, es decir, que iban a diferente velocidad que el sistema, y sus tiempos de refresco eran bastante altos (del orden de entre 80ns y 70ns), llegando en sus últimas versiones, las memorias EDO-RAM a unos tiempos de refresco de entre 40ns y 30ns. SDRAM: Las memorias SDRAM (Synchronous Dynamic RAM) son las utilizadas actualmente (aunque por SDRAM se suele identificar a un tipo concreto de módulos, en realidad todos los módulos actuales son SDRAM). Son un tipo de memorias síncronas, es decir, que van a la misma velocidad del sistema, con unos tiempos de acceso que en los tipos más recientes son inferiores a los 10ns, llegando a los 5ns en los más rápidos. Las memorias SDRAM se dividen a su vez en varios tipos

SDR:







Módulo SDR. Se pueden ver las dos muescas de posicionamiento

Los módulos SDR (Single Data Rate) son los conocidos normalmente como SDRAM, aunque, como ya hemos dicho, todas las memorias actuales son SDRAM. Se trata de módulos del tipo DIMM, de 168 contactos, y con una velocidad de bus de memoria que va desde los 66MHz a los 133MHz. Estos módulos realizan un acceso por ciclo de reloj. Empiezan a utilizarse con los Pentium II y su utilización llega hasta la salida de los Pentium 4 de Intel y los procesadores Athlon XP de AMD, aunque las primeras versiones de este último podían utilizar memorias SDR. Este tipo de módulos se denominan por su frecuencia, es decir, PC66, PC100 o PC133.

DDR:

Módulo DDR. Vemos que tiene una sola muesca de posicionamiento, situada a la derecha del centro del módulo.

Los módulos DDR SDRAM (Double Data Rate SDRAM) son una evolución de los módulos SDR. Se trata de módulos del tipo DIMM, de 184 contactos y 64bits, con una velocidad de bus de memoria de entre 100MHz y 200MHz, pero al realizar dos accesos por ciclo de reloj las velocidades efectivas de trabajo se sitúan entre los 200MHz y los 400MHz. Este es un punto que a veces lleva a una cierta confusión, ya que tanto las placas base como los programas de información de sistemas las reconocen unas veces por su velocidad nominal y otras por su velocidad efectiva. Comienzan a utilizarse con la salida de los Pentium 4 y Thlon XP, tras el fracasado intento por parte de Intel de imponer para los P4 un tipo de memoria denominado RIMM, que pasó con más pena que gloria y tan sólo llegó a utilizarse en las primeras versiones de este tipo de procesadores (Pentium 4 Willamette con socket 423). Se han hecho pruebas con módulos a mayores velocidades, pero por encima de los 200MHz (400MHz efectivos) suele bajar su efectividad. Esto, unido al coste y a la salida de los módulos del tipo DDR2, ha hecho que en la práctica sólo se comercialicen módulos DDR de hasta 400MHz (efectivos). Estas memorias tienen un consumo de entre 0 y 2.5 voltios. Este tipo de módulos se está abandonando, siendo sustituido por los módulos del tipo DDR2.

DDR2:
Módulo DDR2. Vemos que tiene una sola muesca de posicionamiento, situada a la derecha del centro del módulo, aunque más hacia en centro que en los módulos DDR. También se puede apreciar la mayor densidad de contactos.
Los módulos DDR2 SDRAM son una evolución de los módulos DDR SDRAM. Se trata de módulos del tipo DIMM, en este caso de 240 contactos y 64bits. Tienen unas velocidades de bus de memoria real de entre 100MHz y 266MHz, aunque los primeros no se comercializan. La principal característica de estos módulos es que son capaces de realizar cuatro accesos por ciclo de reloj (dos de ida y dos de vuelta), lo que hace que su velocidad de bus de memoria efectiva sea el resultado de multiplicar su velocidad de bus de memoria real por 4. Esto duplica la velocidad en relación a una memoria del tipo DDR, pero también hace que los tiempos de latencia sean bastante más altos (pueden llegar a ser el doble que en una memoria DDR). El consumo de estas memorias se sitúa entre los 0 y 1.8 voltios, es decir, casi la mitad que una memoria DDR. Tanto las memorias DDR como las memorias DDR2 se suelen denominar de dos formas diferentes, o bien en base a su velocidad de bus de memoria efectiva (DDR-266, DDR-333, DDR-400, DDR2-533, DDR2-667, DDR2-800) o bien por su ancho de banda teórico, es decir, por su máxima capacidad de transferencia (PC-2100, PC-2700 y PC-3200 en el caso de los módulos DDR y PC-4200, PC-5300 y PC-6400 en el caso de los módulos DDR2). El Ancho de banda de los módulos DDR y DDR2 se puede calcular multiplicando su velocidad de bus de memoria efectiva por 8 (DDR-400 por 8 = PC-3200). El último y más reciente tipo de memorias es el
DDR3.
Módulo DDR. Vemos que tiene una sola muesca de posicionamiento, situada en esta ocasión a la izquierda del centro del módulo.
Este tipo de memorias (que ya han empezado a comercializarse, y están llamadas a sustituir a las DDR2) son también memorias del tipo SDRAM DIMM, de 64bits y 240 contactos, aunque no son compatibles con las memorias DDR2, ya que se trata de otra tecnología y además físicamente llevan la muesca de posicionamiento en otra situación. Según las informaciones disponibles se trata de memorias con una velocidad de bus de memoria real de entre 100MHz y 250MHz, lo que da una velocidad de bus de memoria efectiva de entre 800MHz y 2000MHz (el doble que una memoria DDR2 a la misma velocidad de bus de memoria real), con un consumo de entre 0 y 1.5 voltios (entre un 16% y un 25% menor que una DDR2) y una capacidad máxima de transferencia de datos de 15.0GB/s. En cuanto a la medida, en todos los casos de memorias del tipo SDRAM (SDR, DDR, DDR2 y DDR3) se trata de módulos de 133mm de longitud. En cuanto a su instalación, pueden ver una amplia información de cómo se instalan en el tutorial - Instalación y ampliación de módulos de memoria.. Una cuestión a considerar es que estos tipos de módulos no son compatibles entre sí, para empezar porque es físicamente imposible colocar un módulo en un banco de memoria que no sea de su tipo, debido a la posición de la muesca de posicionamiento. Hay en el mercado un tipo de placas base llamadas normalmente duales (OJO, no confundir esto con la tecnología Dual Channel) que tienen bancos para dos tipos de módulos (ya sean SDR y DDR o DDR y DDR2), pero en estos casos tan sólo se puede utilizar uno de los tipos. Esto quiere decir que en una placa base dual DDR - DDR2, que normalmente tiene cuatro bancos (dos para DDR y otros dos para DDR2), podemos poner dos módulos DDR o dos módulos DDR2, pero NO un módulo DDR y otro DDR2 o ninguna de sus posibles combinaciones. Es decir, que realmente sólo podemos utilizar uno de los pares de bancos, ya sea el DDR o el DDR2.

viernes, 10 de octubre de 2008

La computacion..!!

Historia de la Computación:

COMPUTADORA:

Máquina capaz de efectuar una secuencia de operaciones mediante un programa, de tal manera, que se realice un procesamiento sobre un conjunto de datos de entrada, obteniéndose otro conjunto de datos de salida.

TIPOS DE COMPUTADORAS:

Se clasifican de acuerdo al principio de operación de Analógicas y Digitales.

COMPUTADORA ANALÓGICA:

Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas similares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el Hardware).

COMPUTADORA DIGITAL:

Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos valores posibles: ‘1’ ó ‘0’. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que la necesidad de modificar físicamente la máquina.

HISTORIA DE LA COMPUTACIÓN:

Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa.
Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.


La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.
Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas.
El mundo no estaba listo, y no lo estaría por cien años más.
En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores

En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.
El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras.
La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.
La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.
Todo este desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos:
La forma en que están construidas.
Forma en que el ser humano se comunica con ellas.
Primera Generación
En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.
Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:
Estas máquinas estaban construidas por medio de tubos de vacío.
Eran programadas en lenguaje de máquina.
En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).



En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos.
En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines).
Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957.
Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado.
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.
Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.
Segunda Generación
Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas.
Las características de la segunda generación son las siguientes:
Están construidas con circuitos de transistores.
Se programan en nuevos lenguajes llamados lenguajes de alto nivel.
En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.
Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario.
El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema "constante" es que ninguna solución para el uso de los programas es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC.
Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.
La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.
Tercera generación


Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3
Las características de esta generación fueron las siguientes:
Su fabricación electrónica esta basada en circuitos integrados.
Su manejo es por medio de los lenguajes de control de los sistemas operativos.
La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).
El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.
En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.
En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.
A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos.
A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.
Cuarta Generación

Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".
En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.
En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.
Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).
No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo.
Quinta Generación
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:
Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.
Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.
MODELO DE VON NEUMANN
Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con el, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.