lunes, 21 de enero de 2013

Overclocking


Overclocking

El overclocking se trata de aumentar la velocidad de funcionamiento de los componentes de la que tiene puesta por el fabricante para aumentar su rendimiento.
A pesar de que al hacer overcloking puedas estropear el compone si lo haces siguiendo unas pautas no debería haber ningún problema.

¿Que puede pasar si realizo overclocking?

1.-En primer lugar, perder la garantía, ya que al hacer que los componentes fiunciones a mayores esfuerzos que los especificados por el fabricante hay riesgo de que se rompan.
Por esta razón es recomendable hacerlo cuando la garantía del producot ya a espirado.

2.-Que se caliente el procesador más de lo normal, deteriorando su funcionamiento normal.

3.-Que se estropee el componente. Esta es la consecuiencia más temida pero si se realiza el overclocking siguiendo unos pasos específicos podemos evitarlo en la mayoría de los casos.

4.-El equipo no funciona correctamente: y además puedes perder información del disco duro.




La electromigración 


Este fenomenos es el desgaste del procesador por el voltaje, calor y otros factores.
El overclocking puede producir electromigración y poco a poco el procesador se ira estropeando.


Realizar overclocking

Existen varias opciones para realizar overclocking:
1. Elevar la frecuencia base del sistema o FBS lo que redundaría en una subida de la velocidad del micro, memoria y buses
2. Subir aisladamente la velocidad del micro, memoria y buses.
3. Alguna combinación de las anteriores.
4. Combinación de las anterires.
5. Mejorar el rendimiento de otros elementos del equipo como la tarjeta gráfica etc.


 Hay que tener en cuentas estas formulas:

Velocidad del micro=Multiplicador X velocidad base FSB
Velocidad real del FSB= Velocidad base FSB x Índice de aprovechamiento

Para saber los parámetros de los componentes de mi equipo como por ejemplo la velocidad base de mi FSB, la velocidad efectiva o real, etc.. utilizaré el el programa CPU-Z
Este programa no necesita ni instalación, tan solo bajamos el fichero ZIP , lo descompriminos y ejecutamos.


 ¿Como se debería de hacer el overclocking para que funcione?

El overclocking para que sea seguro debería de hacerse de forma gradual y verificando en cada pequeña subida que el sistema funciona correctamente realizándole una batería de test o un test de tortura.
Realizando este test de tortura durante cierto tiempo continuado se puede garantizar la estabilidad del sistema o lo que es lo mismo, que el sistema esté funcionando correctamente.
Es recormendable intentar modificar solo un parámetro y luego comprobar si el sistema está funcionando correctamente porque si el test no es superado no sabremos cual de los parámetros modificados ha hecho que el sistema no funcione.



 En la imagen superior se muestra cómo funciona este proceso. Se intenta modificar un sólo parámetro y después se comprueba si el sistema está funcionando correctamente, porque si el test no es superado no sanremos cual de los parámetros modificados ha hecho que el sistema no funcione (puede que el problema sea la combinación de éstos).
Durante la realización del test de tortura debemos monitorizar el microprocesador sobre todo mirando la temperatura que está alcanzando para no llegar nunca a temperaturas en las que la salud del micro vaya a verse afectada. Hay que cerciorarse que la temperatura que va a alcanzar ahora el microprocesador (que será supuestamente superior) no va a incrementarse de tal manera que el micro se puede estar degradando rápidamente.
Si se va a aumentar de una forma considerable la velocidad del microprocesador se aconseja cambiar el disipador de serie por otro con mejores características para tener así el microprocesador mejor ventilado.

¿Cómo se modifican estos parámetros?

Antiguamente el overclocking se hacía configurando los jumpers de la placa base. En la actualidad se modifícan vía software estos parámetros de la siguiente manera:
  • Mediante la BIOS.
  • Con el programa de overcloking que proporciona el fabricante de la placa base.
  • Con algún tipo de programa específico para modificar parámetros de overcloking tipo microguru o similar.
 A veces puede ser que encontremos problemas para modificar parámetros del overclocking, ya sea por que los valores del multiplicador están fijos en algún valor concreto (para impedir la falsificación de los microprocesadores y otras cosas) o que solo permitan el underclocking impidiendo subir el valor del multiplicador.




¿Como hacer un test de tortura?
Para realizar el test de tortura se va a utilizar el programa prime95. En realidad este programa se utiliza para búsqueda de números primos muy grandes, pero dado que esta búsqueda requiere de un funcionamiento intensivo des sistema se suele utilizar y esta mundialmente aceptada para testear el rendimiento en condiciones extremas.
El cual cuando habras el ejecutable te saldrá esta pantalla y en la cual tendrás que elegir la opción segunda la cual esta indicada para equipos con un solo núcleo que es en el que se va a realizar la prueba. En esta prueba se fuerza al micro a que genere el máximo calor, consuma más energía y se hace un testeo de la RAM.


 Subir el multiplicador del procesador


La relación entre la frecuencia del FBS y el multiplicador con la velocidad del micro.
Esta información es proporcionada por la BIOS.

El micropocesador funciona ocn dos velocidades:
 1.-Externa: Es la velocidad con la que se comunica la placa base con la cpu ypor tanto, la velocidad del FSB.
 2.-Interna: Es la velocidad del FSB multiplicada por el multiplicador.


Existen muchos procesadores con el multiplicador fijo que impiden las modificaciónes con este.

Subir la velocidad del bus FSB

En este caso lo que se modifica es la velocidad base del bus FSB.
Esta modificación tiene efecto sobre otros componentes como por ejemplo la memoria, la cual funciona en porporción  a la velocidad del FSB o los buses PCI, PCIe o AGP.

Cambiar el multiplicador del microprocesador y subir la velocidad del bus FSB.

El aumento de este, hace que aumente tambien la velocidad del procesador, con lo cual el incremento del multiplicador no tiene que ser tan grande.

Elevar voltaje

Este metodo, como ya comente anteriormente es el menos apropiado ya que al aumentar el voltaje aumenta la intensidad de la CPU lo cual puede prejudicar a la vida útil de esta, ya que el aumento de intensidad eléctrica recalentara más de lo necesario la cpu.
Si haces este metodo, asegurate de tener una buena refrigeración para tu CPU.
Tmbien aumenta el riesgo de electromigración.
Hay que aumentar como mucho de 0,1 a 0,2 voltios y antes que nada asegurarse de que tu placa base puede hacerlo.

Algunas veces cuando se aumenta la frecuencia del microprocesador hay que subir el voltaje para estabilizar lso demas componenetes. Esto aumenta el riesgo de electromigración.



Overclocking de tarjetas gráficas
Muchas veces el cuello de botella en un ordenador se encuentra en la tarjeta gráfica. Si se utiliza el equipo para diseño o simplemente para jugar, el disponer de una tarjeta gráfica con mejores prestaciones hará que todo el equipo vaya mucho más rápido. No obstante, el cambio de una tarjeta de vídeo a otra es bastante caro y no queda más remedio que optar por el overclocking.

¿Qué opciones tengo para overclockear la tarjeta gráfica?

    Aumentar la velocidad de la GPU.
    Aumentar la velocidad de la memoria de video.
    Aumentar las dos anteriores.

¿Cómo puedo modificar estos parámetros?

Estos parámetros se pueden modificar mediante los drivers de la tarjeta gráfica u otra utilidad como PowerStrip.

Overclocking de la memoria:

La memoria funciona a una velocidad proporcional al bus FSB

Ejemplo:

Una proporción FSB:DRAM es 2:5. Esa proporción quiere decir que si el FSB duplica su velocidad de la RAM se quintuplicaría.

Numéricamente, la proporción sería la siguiente:

Velocidad de la RAM = 5 x velocidad FSB / 2

5 x 133,3 / 2 = 333,3

Como se puede observar, 333,3MHz es la velocidad de la RAM que marca el programa CPU-Z. Para un overclocking de la RAM podemos aumentar la velocidad del FSB o bien modificar la proporción FSB:DRAM





IMPORTANTE:Mientras más parámetros modifiques, más posibilidades de error se producirán y mejores prestaciones conseguirás. El objetivo es conseguir un mejor rendimiento con un sistema estable.


Aquí dejo un vídeo de como realizar overclocking.




Fuentes:
Wikipedia
Apuntes del profesor.
 

lunes, 14 de enero de 2013

50 Conceptos básicos de las computadoras.

Estos son los 50 Conceptos básicos de las computadoras:

1.-Computadora: Una computadora es una máquina programable, es decir, capaz de ejecutar programas desarrollados por programadores. A la computadora también se le conoce por el término ordenador o equipo informático.

2.-Binario: Es el lenguaje que utiliza una computadora y tiene dos cifras: el 1 y 0.

3.-Computadora analógica: Es un tipo de computadora que funciona con señales analógicas.

4.-Dato analógico:  Los datos analógicos son magnitudes que pueden tomar valores de un rango continuo. Por ejemplo, la temperatura de un cuerpo, la altura de una persona, etc. Gráficamente, los datos analógicos se pueden representar con una línea continua.

5.-Computadora digital: Es un tipo de computadora que trabaja con datos digitales. Hoy en día todas las computadoras modernas son digitales.

6.-Dato digital: Son magnitudes que sólo pueden tomar valores de un rango discreto. Por ejemplo, el número de habitantes de una ciudad, el número de hijos de una persona, etc. De manera gráfica, los datos digitales se pueden representar mediante una línea discontinua de puntos.
La computadora tiene una señal digital con dos estados: con señal o sin señal y se presenta con el 1 y 0.

7.- Computadoras híbridas: Son computadoras que trabajan tanto con señales analógicas como digitales.
Se utilizan sobre todo para el control de procesos y robótica.

8.-Bit: La unidad mas pequeña con la que trabaja un computadora digital

9.-Byte: Son 8 bit.

10.-Palabra: El máximo numero de bits con el que la cpu puede trabajar en paralelo.


11.-Informática: Se define como los principales fundamentos de las ciencias de la computación, como la programación para el desarrollo de software, la arquitectura de las computadoras y del hardware, las redes como Internet y la inteligencia artificial. Incluso se aplica en varios temas de la electrónica.

12.-Software: al equipamiento lógico o soporte lógico de un sistema informático, el que comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas

13.-Von Neumann: Considerado el padre de la informatica, fue quien invento la arquitectura de vonn Neumann la cual, utilizan todos los ordenadores hoy en día

14.-Software: Es la parte de un ordenador intangible. Información lógica que almacena la computadora.

15.-Hardware:  Son los componentes que se pueden tocar de al computadora.

16.-Ordenador de marca: Son ordenadores fabricados por un fabricante con sus piezas propias.

17.-Ordenador clónico: Son ordenadores que cualquiera puede crear con componentes estándar.

18.-Chip o circuito integrado: También conocido como chip o microchip, es una pastilla pequeña de material semiconductor, sobre la que se fabrican circuitos electrónicos generalmente mediante fotolitografía y que está protegida dentro de un encapsulado de plástico o cerámica.
Los semiconductores que tiene dentro son diminutos cabiendo alrededor de millones de transistores en una uña. 
Este invento marco un antes y un después en la evolución de las computadoras ya uno de los componentes mas importantes del ordenador es un chip al que conocemos como CPU O procesador

19.-Procesador: Es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es un circuito integrado conformado por millones de componentes electrónicos.
Es el encargado de procesar los datos.

20.-CISC:  (del inglés Complex Instruction Set Computer, en español Computador con Conjunto de Instrucciones Complejas) es un modelo de arquitectura de computadores. Los microprocesadores CISC tienen un conjunto de instrucciones que se caracteriza por ser muy amplio y permitir operaciones complejas entre operandos situados en la memoria o en los registros internos, en contraposición a la arquitectura RISC.

21.-RISC: (del inglés Reduced Instruction Set Computer, en español Computador con Conjunto de Instrucciones Reducidas) es un tipo de diseño de CPU generalmente utilizado en microprocesadores o microcontroladores con las siguientes características fundamentales:
1.Instrucciones de tamaño fijo y presentadas en un reducido número de formatos.
2.Sólo las instrucciones de carga y almacenamiento acceden a la memoria de datos.

22.-RAM o memoria principal: Es la memoria temporal en la que se cargan los datos de programas mientras están en uso. Una vez que se acaba el proceso se libera la RAM de este.

23.-Disco duro: Es el dispositivo donde se almacena los datos de la computadora de forma permanente

24.-GPU: Es un procesador que procesa los datos de video para que la CPU pueda estar libre para otros procesos,  (como la inteligencia artificial o los cálculos mecánicos en el caso de los videojuegos).

25.-Tarjeta de vídeo o gráfica:  Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor.

26.-Superordenadores: Es el tipo de ordenador más potente que existe en la actualidad.

27.-Mainframe: Son ordenadores de alta gama, caros, pero de menores prestaciones que los supercomputadores. Se utilizan principalmente para servidores.

28.-Miniordenadores: Son equipo con mayores prestaciones que el PC y se suele utilizar como servidor.

29.-PC o Computador personal: Son las computadoras utilizadas en el hogar.

30.-Ordenador portatil: Es un PC portable.

31.-Smartphone: Son equipos de telefonía con prestaciones menores que la de las computadoreas personales.

32.-1ª Generación de computadoras: La generacion en la cual las computadoras funcionaban con tubos de vacio o valvulas y solo eran capaces de realizar operaciones sencillas.

33.-2ª Generación de computadoras: En esta generacion se cambio el tubo de vacio por el recien descubierto transistor.

34.-3ª Generación de computadoras: esta surgio debido a al operacion de los circuitos integrados. Más ñigeras y eficientes,

35.-4ª Generación de computadoras: Aparece el procesador dando lugar a computadores mas avanzadas y con mejor rendimiento.

36.-5ª Generación de computadoras: Basadas en la inteligencia artificial. Hunbo un mejor uso de sus prestaciones.

37.-6ª Generación de computadoras: La generación actual en la cual hubo una gran mejora en todos los componenetes de la computadora aumentando sus prestaciones bastante con susu antecesoras.

38.-ISO: La Organización Internacional de Normalización o ISO (del griego, ἴσος (isos), 'igual'), nacida tras la Segunda Guerra Mundial (23 de febrero de 1947), es el organismo encargado de promover el desarrollo de normas internacionales de fabricación (tanto de productos como de servicios), comercio y comunicación para todas las ramas industriales a excepción de la eléctrica y la electrónica.

39.-Caracteres: es una unidad de información que corresponde aproximadamente con un grafema o con una unidad o símbolo parecido, como los de un alfabeto o silabario de la forma escrita de un lenguaje natural.

40.-EBCDIC (Extended Binary Coded Decimal Interchange Code) es un código estándar de 8 bits usado por computadoras mainframe IBM.

41.-ASCII: (Código estándar americano para el intercambio de información) es un tipo de código utilizado por los ordenadores y el más utilizado.

42.-Unicode: Es un código que intenta contener a todos los símbolos que se utilizan en todos los idiomas por los humanos.

43.-Cliente: En una red cliente/servidor, los equipos clientes pueden ser empleados por los usuarios de dicha red para solicitar información (datos) y servicios (impresión de documentos, transferencia de ficheros, correo electrónico,...) a los equipos servidores.


44.-Servidor: Cuando en una red cliente/servidor existe una gran cantidad de recursos, es normal que existan varios equipos servidores, pudiendo estar cada uno de ellos dedicado a ofrecer un solo tipo de servicio o información.


45.-7.-ENIAC: ENIAC es un acrónimo de Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico), utilizada por el Laboratorio de Investigación Balística del Ejército de los Estados Unidos.
Se ha considerado a menudo la primera computadora de propósito general, aunque este título pertenece en realidad a la computadora alemana Z3.


46.-Protocolos: Una serie de leyes que rigen las redes.

47.-WWW: La World Wide Web es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet. Permite tener acceso a páginas web.

48.-Host: Un dispositivo final en un red

49.-LAN o red de area local: Como su propio norbre indica son redes de reducido espacio.

50.-WAN o redes de área extensa: Son redes de un área grande cno varios host conectados entre sí.

51.-MAN: es una red de alta velocidad (banda ancha) que da cobertura en un área geográfica extensa, proporciona capacidad de integración de múltiples servicios mediante la transmisión de datos, voz y vídeo, sobre medios de transmisión tales como fibra óptica y par trenzado (MAN BUCLE), la tecnología de pares de cobre se posiciona como la red más grande del mundo una excelente alternativa para la creación de redes metropolitanas.

52.-Backbone: El la autopista de internet por la cual viajan millones de datos a gran velocidad de un país a otro o de un zona separada a larga distancia.

53.-Humanware: La parte humana de un sistema informáticos. Se divide entre profesionales informáticos y usuarios.

Fuentes:
Wikipedia.com
www.identi.li
http://www.monografias.com/trabajos15/computadoras/computadoras.shtml

domingo, 13 de enero de 2013

La historia de las computadoras

ÍNDICE:
 
HISTORIA
PRIMERA GENERACIÓN
SEGUNDA GENERACIÓN
TERCERA GENERACIÓN
CUARTA GENERACIÓN
QUINTA GENERACIÓN
SEXTA GENERACIÓN

Básicamente “Generación de computadoras” es un término relacionado con la evolución y adaptación de la tecnología y de la informática. Es decir que cada avance importante, como la reducción del tamaño de los elementos tales como procesadores y memorias, así también como el aumento de su capacidad y velocidad, se produce un salto generacional 
 


 

HISTORIA 

 
 
En 1928 la empresa Fairchild y Texas Instruments produjeron los primeros circuitos integrados basados en semiconductores. Las primeras computadoras, incluyeron a la ENIAC, el Electronic Numerical Integrator and Computer, que en 1943 comenzaron a construir John W. Mauchly y John P. Eckert en la universidad de Pensilvania (EE.UU.). Esta enorme máquina medía más de 30 metros de largo y pesaba 32 toneladas, estaba compuesta por 17.468 válvulas. El calor de las válvulas elevaba la temperatura de la sala donde se hallaba instalada hasta los 50º C. y para que llevase a cabo las operaciones para las que se había diseñado. Cuando la ENIAC se terminó en 1946, la II Guerra Mundial ya había terminado. El fin de la contienda hizo que los esfuerzos hasta entonces dedicados principalmente a objetivos militares, se destinaran también a otro tipo de investigación científica más relacionada con las necesidades de la empresa privada.

El fin de la contienda hizo que los esfuerzos hasta entonces dedicados principalmente a objetivos militares, se destinaran también a otro tipo de investigación científica más relacionada con las necesidades de la empresa privada. Los esfuerzos múltiples dieron resultados en 1945 Mauchly y Eckert comenzaron a trabajar en una sucesora de la ENIAC, el EDVAC (Electronic Discrete Variable Automatic Computer) y Aiken inició el diseño de la Mark II. En 1951, el que está considerado como la primera computadora que se llamo saly ampliamente comercializada, la UNIVAC I, comenzó a funcionar con éxito. En 1952 la computadora UNIVAC se utilizó para realizar el recuento de votos en las elecciones presidenciales de EE.UU. El resultado victoria (Eisenhower sobre Adlai Stevenson) se conoció 45 minutos después de que se cerraran los colegios electorales.

En 1952 entra en funcionamiento la primera de las llamadas IAS machines, diseñadas por John von Neumann y que incorporaban notables mejoras respecto a sus predecesoras y en 1962, Steven Russell creó el primer juego para computadoras, Spacewar.
 
 

 

PRIMERA GENERACIÓN



 

En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:

-Usaban tubos al vacío para procesar información.
-Usaban tarjetas perforadas para entrar los datos y los programas.
-Usaban cilindros magnéticos para almacenar información e instrucciones internas.
-Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas.
Se comenzó a utilizar el sistema binario para representar los datos.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000 dólares).
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.



 



SEGUNDA GENERACIÓN


El principal cambio de estas computadoras fue el cambio del uso de tubos de vacío ( o válvulas) por transistores.
Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío. 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío. Usaban pequeños anillos magnéticos para almacenar información e instrucciones. Producian gran cantidad de calor y eran sumamente lentas. Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación. Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran comercialmente accesibles. Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general. La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I". Surgieron las minicomputadoras y los terminales a distancia. Se comenzó a disminuir el tamaño de las computadoras.

Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero.
Características de está generación:

-Usaban transistores para procesar información.
-Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.
-200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
-Usaban pequeños anillos magnéticos para almacenar información e instrucciones. cantidad de calor y eran sumamente lentas.
-Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación.
-Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran comercialmente accsesibles.
-Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general.
-La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".
-Surgieron las minicomputadoras y los terminales a distancia.
-Se comenzó a disminuir el tamaño de las computadoras.

LA PRIMERA COMPUTADORA BASADA EN TRANSISTORES

La primera computadora basada puramente en transistores fue la
TX-0 (Transitorized eXperimental computer 0), en el MIT. Fue un dispositivo usado para probar la TX-2. Uno de los ingenieros que trabajaron en este laboratorio, Kenneth Olsen, abandonó el laboratorio para formar la compañía DEC (Digital Equipment Company).  


 




TERCERA GENERACIÓN



 

    A mediados de los años 60 la tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio)o microchip por parte de Jack St. Claire Kilby y Robert Noyce. Después llevó a Ted Hoff a la invención del microprocesador, en Intel, en las que se colocan miles de componentes electrónicos en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El ordenador IBM-360 dominó las ventas de la tercera generación de ordenadores desde su presentación en 1965. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.

Características de está generación:

-Se desarrollaron circuitos integrados para procesar información.
-Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores.
-Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas eléctricas.
-Surge la multiprogramación.
-Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos.
-Emerge la industria del "software".
-Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
-Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes.
-Consumía menos electricidad, por lo tanto, generaban menos calor.


 
 


CUARTA GENERACIÓN
 
 
Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".

En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.

En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.

Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactivo la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, GAR Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).

No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo.

Se desarrolló el microprocesador.
Se colocan más circuitos dentro de un "chip".
"LSI - Large Scale Integration circuit".
"VLSI - Very Large Scale Integration circuit".
Cada "chip" puede hacer diferentes tareas.
Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica.  El tercer componente, la memoria primaria, es operado por otros "chips".
Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.
Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
Se desarrollan las supercomputadoras.


 

Las computadoras de quinta generación son computadoras basadas en inteligencia artificial.




La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software,1 usando el lenguaje PROLOG2 3 4 al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).
A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras de los Modelos de los Estados Unidos y el Reino Unido. Japón decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El centro del desarrollo y proceso de la información de Japón fue el encargado de llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos junto con industrias y la academia. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.
Los campos principales para la investigación de este proyecto inicialmente eran:
  • Tecnologías para el proceso del conocimiento
  • Tecnologías para procesar bases de datos y bases de conocimiento masivo
  • Sitios de trabajo del alto rendimiento
  • Informáticas funcionales distribuidas
  • Supercomputadoras para el cálculo científico
Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación entre los otros países.
Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Corporación de Microelectrónica y Tecnologías de la Computación, en Inglaterra fue Alves, y en Europa su reacción fue conocida como el Programa Europeo en Investigación Estratégica de la Tecnología de la Información.
Como uno de los productos finales del Proyecto se desarrollaron 5 Maquinas de Inferencia Paralela (PIM) teniendo como una de sus características principales 256 elementos de Procesamiento Acoplados en red. El proyecto también produjo herramientas que se podían utilizar con estos sistemas tales como el Sistema Paralelo de Gerencia de Bases de Datos Kappa, el Sistema de Razonamiento Legal HELIC-II y el Teorema Autómata de Aprobaciones MGTP.
Tambien se ha hablado de que la quinta generacion incluye el uso de sistemas expretos estos son aplicaciones de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas
Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.

 

 

SEXTA GENERACIÓN (ALTUAL)
Esta es la generación actual que nos toco vivir, los avances en esta etapa han sido los mas grandes. Esta generación se puede considerar la continuación de la cuarta generación, ya que la quinta generación fue un proyecto separado a la evolución de los primeros microprocesadores.
Aparecieron las computadoras mas pequeñas y mas potentes procesadores mas rapidos y menor consumo de energia, los sistemas operativos dejaron de ser por linea de comando y ahora eran con interfaz grafica.
 
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.
La velocidad de los procesadores aumento drasticamente del orden de Mhz a las primeras unidades de Ghz, las tarjetas de video experimentaron cambios en los puertos de interfase desde los ISA hasta los actuales PCI express y comenzaron a jugar un papel determinante en el desempeño de las computadoras al quitarle la carga de procesamiento de graficos al procesador, los discos duros que eran de Megabytes ahora son de Terabytes pasando por los discos con motor electrico a los nuevos con memorias (SSD) por ende la velocidad de lectura y escritura hoy superan los 300 Megabityes por segundo, los monitores que eran monocromaticos evolucionaron a los monitores de color con millones de colores y despues se elimino el cinescopio dando cabida a los monitores LCD con menor consumo de energia.
Esos entre varios avances más (refrigeración, periféricos, etc..) fueron lo que marcaron las sexta generación



Las ventas de computadoras han crecido en los ultimos años tan solo en Estados Unidos se han vendido 80 millones por año aproximadamente, aunque del año 2011 a la fecha se visto una contraccion en las ventas por aparicion de las tablets que en muchas tareas reemplazan a las computadoras personales.
En esta generacion se posicionaron las lideres del mercado en la industria de tecnologia informatica, como Intel, AMD, Cyrix, ATI, Nvidia, Creative Labs, Microsft, IBM, 3 Com, por mencionar algunas.

Tipos de computadoras y su clasificación:


 Supercomputadoras


Una supercomputadora es un tipo de computadora muy potente y rápida, diseñada para procesar enormes cantidades de información en poco tiempo y dedicada a una tarea específica.

Por lo mismo son las más caras, su precio alcanza los 30 millones de dólares o más; y cuentan con un control de temperatura especial, esto para disipar el calor que algunos componentes alcanzan a tener.
Ejemplos de tareas a las que son dedicadas las supercomputadoras:
•Búsqueda y estudio de la energía y armas nucleares.
•Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
•El estudio y predicción de tornados.
•El estudio y predicción del clima de cualquier parte del mundo.
•La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo.
Características:

Velocidad de Proceso: Miles de millones de instrucciones de punto flotante por segundo.
 

Usuario a la vez: Hasta miles, en entorno de redes amplias.
 

Tamaño: Requieren instalaciones especiales y aire acondicionado industrial.
 

Facilidad de uso: Solo para especialistas.
 

Clientes usuales: Grandes centros de investigación.
 

Penetración social: Prácticamente nula.
 

Impacto social: Casi nulo.
 

Parque instalado: Menos de un millar en todo el mundo.
 

Costo: Hasta decenas de millones cada una.
 



Macrocomputadoras o Mainframes

Las macrocomputadoras son también conocidas como mainframes. Los mainframes son sistemas grandes, rápidos y caros con capacidad de controlar cientos de usuarios en forma simultánea, así como manejar cientos de dispositivos de entrada y salida.

Su costo va desde los 350 mil dólares hasta varios millones de dólares. De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. sin embargo las supercomputadoras pueden ejecutar un sólo programa más rápido que un mainframe.

En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, esto para ocultar los cientos de cables de los periféricos, y su temperatura tiene que estar controlada.



Características:
 

 Velocidad de proceso: Cientos de millones de instrucciones por segundo o mas.
 

 Usuario a la vez: Centenares o miles.
 

 Tamaño: Requieren instalaciones especiales y aire acondicionado.
 

 Facilidad de uso: Para especialistas.
 

 Clientes usuales: Grandes corporaciones y gobiernos.
 

 Penetración social: Baja.
 

Impacto social: Muy alto, aunque pasa inadvertido, la sociedad industrial moderna no puede funcionar sin ellas.
 

 Parque instalado: Miles en todo el mundo.
 

 Costo: Centenares de miles de dólares o más.
 



Minicomputadoras


En 1960 surgió la minicomputadora, una versión más pequeña de la macrocomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un mainframe, y esto ayudo a reducir el precio y costos de mantenimiento.

En general, una minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario.



Características:
 

Velocidad de proceso: Cientos de millones de instrucciones por segundo.


Usuario a la vez: Hasta decenas, o cientos cuando se usan en red.
 

Tamaño: Reducido; no siempre necesitan instalaciones especiales.

 

Facilidad de usos: Para especialistas.
 

Clientes usuales: Universidades, empresas medianas. Suelen funcionar  como servidores de redes.
 

Penetración social: Baja.

 

Impacto social: Reducido, aunque amplio en los entornos de las redes.

 

Parque instalado: Cientos de miles.

 

Costo: Decenas de miles de dólares.
 

 


Microcomputadoras o PC´s

Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es "una computadora en un chip". Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares.

El término PC se deriva de que para el año de 1981 , IBM®, sacó a la venta su modelo "IBM PC", la cual se convirtió en un tipo de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando procesadores del mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de programas.

Existen otros tipos de microcomputadoras , como la Macintosh®, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también "PC´s", por ser de uso personal.

En la actualidad existen variados diseños de PC´s: computadoras personales, con el gabinete tipo minitorre, con el gabinete horizontal, computadoras personales portátiles "Laptop" o "Notebook".

Características:
 

Velocidad de proceso: Decenas de millones de instrucciones por segundo.
 

Usuario a la vez: Uno (Por eso se llaman Personales).
 

Tamaño: Pequeño, o portátiles.
 

Facilidad de uso: Supuestamente fáciles de usar.
 

Clientes usuales: Pequeñas empresas, oficinas, escuelas, individuos.
 

Penetración social: Mediana.
 

Impacto social: Alto, en los países industrializados.
 

Parque instalado
 

Cientos de millones en el mundo.
 

Costo: Pocos cientos de dólares.