jueves, 17 de enero de 2013

El Overclocking

Definición

El Overclocking trata de forzar los componentes del equipo para que trabajen a una velocidad más rápida que la establecida por fábrica, con el objetivo de mejorar el rendimiento del equipo.
La idea es conseguir un rendimiento más alto graetuitamente, o superar las cuotas actuales de rendimiento, aunque esto pueda suponer una pérdida de estabilidad o acortar la vida útil del componente.
La modificación de los parámetros de fábrica (overclocking) implica la pérdida de  la garantía sobre los componentes.

El fabricante nos avisará en las observaciones de los posibles riesgos fatídicos que puede tener la práctica del Overlocking. Lo normal es que si se realiza sabiendo lo que se hace y de una forma controlada, no debería suceder nada.
Los componentes electrónicos que se fabrican normalmente tienen un margen de seguridad que sirve para asegurar que estos componentes trabajando en esas condiciones y bajo esos parámetros no van a sufrir ningún tipo de fallo. No obstante, los componentes pueden trabajar mucho más rápido, pero ya no garantiza que todos los productos fabricados funcionen sin problemas con rendimiento exigido al ordenador.

¿Qué puede pasar?

  • La primera consecuencia de realizar un overclocking es perder la garantía del fabricante. Aunque si ganamos en prestaciones, nos podemos permitir correr el riesgo. Se suele aconsejar realizar el overclocking con equipos que ya tengan la garantía vencida, ya que así no corremos el riesgo de perderla.
  • Que funcione el overclocking, pero que se caliente más el microprocesador (cosa que es completamente normal, ya que a mayor velocidad hay mayor generación de calor).
  • Que se estropee el componente. En teoría con una subida escalonada del rendimiento no debería de haber problemas. Es aconsejable que entre esas pruebas probemos la estabilidad del sistema y el incremento del calor generado.
  • También nos puede pasar que no funcione correctamente la velocidad que le hemos marcado, y hasta podemos perder datos del disco duro.

Realizar el overclocking

Para realizar un overclocking tenemos varias opciones:
  • Elevar la frecuencia base del sistema o FSB (del inglés Front Side Bus), lo que nos proporcionaría una subida de la velocidad del micro, memoria y buses.
  • Subir aisladamente la velocidad del micro, memoria o buses.
  • Una combinación de las anteriores.
  • Mejorar el rendimiento de otros elementos del equipo como por ejemplo la tarjeta gráfica.

Velocidad del micro = Multiplicador X Velocidad base FSB
Velocidad real del FSB = Velocidad base FSB X Índice de aprovechamiento

¿Cómo se debería de hacer el overclocking para que funcione?

Para que el overclocking sea seguro debería de hacerse de forma gradual y verificando cada pequeña subida que el sistema funciona correctamente, realizándole un test de tortura (con el programa Prime95).

Enlace de interés: ¿Cómo realizar un test de Overclocking?


Realizando el test de tortura durante cierto tiempo continuado, se puede garantizar la escalabilidad del sistema, es decir, que el sistema esté funcionando correctamente (CPU, memoria, placa base...).


 En la imagen superior se muestra cómo funciona este proceso. Se intenta modificar un sólo parámetro y después se comprueba si el sistema está funcionando correctamente, porque si el test no es superado no sanremos cual de los parámetros modificados ha hecho que el sistema no funcione (puede que el problema sea la combinación de éstos).
Durante la realización del test de tortura debemos monitorizar el microprocesador sobre todo mirando la temperatura que está alcanzando para no llegar nunca a temperaturas en las que la salud del micro vaya a verse afectada. Hay que cerciorarse que la temperatura que va a alcanzar ahora el microprocesador (que será supuestamente superior) no va a incrementarse de tal manera que el micro se puede estar degradando rápidamente.
Si se va a aumentar de una forma considerable la velocidad del microprocesador se aconseja cambiar el disipador de serie por otro con mejores características para tener así el microprocesador mejor ventilado.

¿Cómo se modifican estos parámetros?

Antiguamente el overclocking se hacía configurando los jumpers de la placa base. En la actualidad se modifícan vía software estos parámetros de la siguiente manera:
  • Mediante la BIOS.
  • Con el programa de overcloking que proporciona el fabricante de la placa base.
  • Con algún tipo de programa específico para modificar parámetros de overcloking tipo microguru o similar.
 A veces puede ser que encontremos problemas para modificar parámetros del overclocking, ya sea por que los valores del multiplicador están fijos en algún valor concreto (para impedir la falsificación de los microprocesadores y otras cosas) o que solo permitan el underclocking impidiendo subir el valor del multiplicador.

Criterios a tener en cuenta.

  • La modificación de los parámetros de fábrica (overclocking) implica la pérdida de la garantía del fabricante.
  • La electromigración: es el desgaste del microprocesador debido a varios factores (calor, voltaje...). El overclocking puede producir electromigración, y esto quiere decir que irá cada vez más lento hasta que termine de estropearse por completo.
  • Existen microprocesadores con multiplicador fijo que impiden la modificación del mismo (puesto por el fabricante para impedir su falsificación).
  • Hay veces que cuando aumenta la frecuencia del microprocesador es inevitable subir el voltaje (para estabilizar el sistema). Una subida de la frecuencia u overclock, en ocasiones requiere una subida del voltaje debido a que los componentes demandan más corriente de la habitual. Como es lógico, una subida del voltaje implica una mayor probabilidad de electromigración.

lunes, 14 de enero de 2013

50 Conceptos Básicos de Computadoras

  1. Sistema Informático (SI): es el conjunto de componentes de hardware necesarios para la explotación de las aplicaciones informáticas o software.
  2. Hardware: elementos tangibles de la computadora, como la pantalla, teclado...
  3. Software: elementos no tangibles de la computadora, como los programas, aplicaciones...
  4. Unidad Central de Proceso (CPU) o microprocesador: es el circuito integrado constituido por millones de componentes electrónicos. Se encarga de interpretar las instrucciones contenidas en los programas y procesa los datos.
  5. Unidad de Control (UC): gestiona y coordina todas las unidades funcionales ara obtener el fin deseado.
  6. Unidad Aritmético-Lógica (UAL): su cometido es realizar las operaciones necesarias para procesar la información.
  7. Unidad de Memoria (UM): es la encargada de almacenar la información. Esta arquitectura se caracteriza por utilizar dicha unidad tanto para almacenar información como para programas.
  8. Memoria Auxiliar: es la que se usa como soporte de respaldo de información, pudiendo situarse en medios extraíbles o en red.
  9. Memoria Secundaria: también se le conoce como memoria de disco. Se utiliza para almacenar información de forma permanente.
  10. Memoria Principal (RAM): es el bloque que realmente constituye la UM. Se emplea para almacenar datos y programas de forma temporal.
    Memoria Principal (RAM)
  11. Memoria Caché: es la memoria intermedia entre la UM y la CPU utilizada como apoyo para acelerar los accesos de la CPU a la UM. La caché, en realidad, está dispuesta en varios niveles (L1-L4) siendo L1 la más rápida y de menor capacidad, y la L4 la más lenta y de mayor capacidad.
  12. Memoria de Registros: son memorias de alta velocidad y baja capacidad utilizadas para el almacenamiento intermedio de datos en las unidades funcionales, especialmente len la UC y la UAL.
  13. Unidad de Entrada/ Salida (UE/S): también denominados periféricos. Su misión es realizar las operaciones de introducción y extracción de información en el ordenador.
  14. Periféricos de Entrada: con éstos, el usuario introduce la información en el ordenador. Ejemplos: el ratón, teclado, escáner...
  15. Periféricos de Salida: son utilizados por el ordenador para mostrar la información al usuario. Ejemplos: monitor, impresora, altavoces...
  16. Periféricos de E/S: pueden actuar en los dos sentidos del flujo de la información, ya sea para introducir datos, como para mostrarlos.
  17. Periféricos de comunicaciones: es un tipo de periférico de E/S, ya que se emplea para establecer una comunicación entre dos usuarios a través de los ordenadores. Ejemplos: módem, router, switch...
  18. Periféricos de almacenamiento: es otro tipo de periférico de E/S. Se usan como memoria auxiliar a la principal del ordenador. Ejemplos: discos duros, memoria flash, unidad de DVD...
  19. Sistema Operativo (SO): es un programa o conjunto de programas que en un sistema informático gestiona los recursos de hardware y provee servicios a los programas de aplicación, ejecutándose en modo privilegiado respecto de los restantes. Hay distintos tipos de SO: Windows, Linux...
  20. Aplicaciones: es un tipo de programa informático diseñado como herramienta para permitir a un usuario realizar uno o diversos tipos de trabajos. Suele resultar una solución informática para la automatización de ciertas tareas.
  21. Buses de Comunicación: la UM, la CPU, la UAL, la UC y los dispositivos de E/S se comunican entre sí a través de unos canales llamados buses. Pueden ser de diferentes tipos:
    • Bus de Datos (BD): transfiere datos entre los elementos del ordenador.
    • Bus de Direcciones (BA): transfiere direcciones entre la UC y la UM.
    • Bus de Control (BC): emite las señales de control que gobiernan el funcionamiento de las unidades.
      Buses de Comunicación
  22. Cooler: Ventilador que se utiliza en los gabinetes de computadoras y otros dispositivos electrónicos para refrigerarlos. Por lo general el aire caliente es sacado desde el interior del dispositivo con los coolers.
  23. Microprocesador: es el cerebro del ordenador. Es un chip, un tipo de componente electrónico en cuyo interior existen miles (o millones) de elementos llamados transistores, cuya combinación permite realizar el trabajo que tenga encomendado el chip.
    Los microprocesadores suelen tener forma de cuadrado o rectángulo negro, y van o bien sobre un socket o soldados en la placa.
  24. Computadora analógica: manipula datos analógicos (son valores de rango continuo).
  25. Computadora digital: trabajan con datos digitales (son valores de rango discreto). Trabajan con dígitos binarios (bits).
  26. Bit: es el acrónimo de binary digit. Es la unidad de información más pequeña con la que pueden trabajar los dispositivos electrónicos que constituyen una computadora digital. Se representa con dos estados de tensión eléctrica: baja (0) y alta (1).
  27. CMOS (Semiconductor Complementario de Óxido Metálico): se usan para fabricar un tipo de memoria de acceso aleatorio (RAM) de la computadora digital. Un CMOS está compuesto por 2 transistores.
    CMOS
  28. Transistor: es un material semiconductor (silicio) que puede funcionar como:
    • Amplificador: aumenta la amplitud de una señal eléctrica.
    • Interruptor: para interrumpir el paso de una corriente eléctrica en un circuito.
    • Oscilador: para generar corrientes oscilatorias en un circuito.
  29. Circuito integrado (chip): es un conjunto de componentes miniaturizados como transistores, resistencias, condensadores... Un microchip son millones de transistores agrupados en láminas de silicio del tamaño de una uña.
  30. Computadora: es una máquina programable.
    Esquema de una Computadora
  31. Programa: es un conjunto de instrucciones u órdenes que indican a la máquina las operaciones que ésta debe realizar con unos datos determinados. Indica a la computadora cómo obtener unos datos de salida a partir de unos datos de entrada.
  32. Datos de entrada: son los datos que la computadora va a procesar.
  33. Datos de salida: son los datos derivados, es decir, los obtenidos a partir de los datos de entrada.
  34. Información: son los datos que maneja la computadora (textos, imágenes, sonidos, videos...). En un sentido más filosófico, los datos de entrada son la materia prima de los datos de salida, considerados éstos como la verdadera información.
  35. Arquitectura: fue propuesta en 1946 por John von Neumann.
    John von Neumann
  36. Computadoras Personales (PC): son de tamaño adecuado para un escritorio y son las más asequibles económicamente. En un principio, los PC fueron pensados y diseñados para un uso doméstico, aunque hoy en día se usan en multitud de ámbitos. Es considerada una microcomputadora. En esta categoría también están incluidos los portátiles, que son muy cómodos de transportar debido a su reducido peso y tamaño.
  37. Estaciones de trabajo: en general tienen mayores prestaciones que los PC, y se utilizan, sobre todo, en oficinas de trabajo. No obstante, las diferencias entre ambos tipos de computadoras son cada vez más pequeñas. A las estaciones de trabajo también se les consideran microcomputadoras.
  38. Minicomputadoras: son de mayor tamaño y potencia que cualquier microcomputadora (un PC o una estación de trabajo), y por lo tanto son más caras. Éstas computadoras se usan principalmente en universidades, laboratorios o empresas medianas.
  39. Mainframe: son ordenadores mucho más grandes y caros que una minicomputadora. Generalmente se emplea en centros de investigación, instituciones gubernamentales y empresas grandes.
  40. Supercomputadoras: son consideradas mainframes y son capaces de realizar billones de instrucciones por segundo. La supercomputadora IBM es considerada la más rápida del mundo.
    Supercomputadora de IBM
  41. Módem: es el acrónimo de los términos modulador/ demodulador. Es un dispositivo de E/S. Cuando una computadora envía información a través del módem, éste la transforma de digital a analógica (modulación), cuando la información llega a la computadora de destino, otro módem se encarga de realizar la operación inversa (demodulación).
  42. Recursos: son el software (programas y datos) y hardware (impresoras, escáneres...) que comparten los usuarios de una red.
  43. Red Cliente/ Servidor: existen dos tipos de equipos: los equipos clientes y los equipos servidores. Los servidores dedicados son mucho más eficaces que aquellos que tienen asignadas múltiples tareas. En todas existe un administrador de red.
  44. Red igual a igual: en esta red todos los equipos pueden ser cliente y servidor al mismo tiempo. No existen clientes exclusivos ni servidores dedicados. El usuario de cada PC puede decidir que recursos compartir y cuales no.
  45. Red de Área Local (LAN): son equipos conectados a poca distancia. Ejemplo: todos los equipos de una oficina, un aula... El límite geográfico está en unos pocos kilómetros. Ejemplos: equipos de un campus universitario, un hospital, un aeropuerto...
  46. Red de Área Extensa (WAN): son equipos conectados a decenas , cientos o miles de kilómetros. Ejemplo: la red que conecte a los equipos de una empresa con sede en varios países. Una WAN puede conectar a dos o más LAN.
  47. Internet: es una red de redes. Interconecta millones de computadoras repartidas por todo el mundo. Esto lo realiza mediante los medios físicos que serían las líneas telefónicas, la fibra óptica, enlaces vía satélite, ondas terrestres...
  48. Superautopistas de la información: el núcleo o corazón de internet está compuesto por supercomputadoras conectadas a través de conexiones de alta velocidad. A éstas se le conectan otras computadoras todavía más pequeñas, así hasta llegar a los ordenadores que usan los usuarios de internet. A las superautopistas también se les conoce como backbone.
  49. TCP/IP: protocolo desarrollado por Vinton Cerf en 1973 para un proyecto de la ARPA. Así apareció ARPAnet, considerado el abuelo de internet. Permite a todas las computadoras del mundo conectadas a internet comunicarse entre sí, con independencia del SO que utilicen.
  50. WWW: acrónimo de World Wide Web. Desarrollada por Timothy Berners-Lee. Permite a los usuarios de internet buscar y acceder a una gran cantidad de información multimedia (textos, imágenes, sonidos...). Dicha información se encuentra almacenada en servidores de páginas web a los que se acceden por medio de exploradores y navegadores.


viernes, 11 de enero de 2013

Generaciones de Computadoras


Historia

Las primeras computadoras, incluyeron a la ENIAC (Electronic Numerical Integrator and Computer), que la comenzaron a construir en 1943 John W. Mauchly y John P. Eckert. 

John W. Mauchly & John P. Eckert


Esta máquina estaba compuesta por 17468 válvulas, y generaba un calor de 50º en la sala en la que se encontraba. La ENIAC se terminó en 1946, al final de la II Guerra Mundial. Esto hizo que lo que se había creado para usos militares se destinara a otro tipo de investigaciones científicas relacionadas con la empresa privada. 

ENIAC

Por ello, en 1945 empezaron a  trabajar en una sucesora de la ENIAC, el EDVAC (Electronic Discrete Variable Automatic Computer) y Aiken inició el diseño de la Mark II.

MARK II


Primera Generación (1940-1954)

En esta época las computadoras funcionaban con válvulas, se usaban tarjetas perforadas para la entrada de datos y programas, utilizaban cilindros magnéticos para almacenar información e instrucciones internas y se utilizaban exclusivamente en el ámbito científico o militar.
En 1947 se creó la Harvard Mark II, que sólo era una ampliación de la Mark I.
En 1948 la SSEM ("Small-Scale Experimental Machine", Máquina Experimental de Pequeña Escala), fue desarrollada por Frederic C. Williams, Tom Kilburn y Geoff Tootill, fue la primera computadora del mundo con programa almacenado en memoria. Usaba 32 palabras como memoria principal.

La Manchester Mark I es una versión mejorada de la SSEM, posee bastante más memoria y un juego de instrucciones ampliado, más adelante se usó como base de la Ferranti Mark I.
En 1949 la EDSAC (Electronic Delay Storage Automatic Calculator), es la primera máquina pensada para trabajar con programas internos ubicados de manera separada de la memoria principal de la máquina. La construyó Maurice Wilkes y su equipo de la Universidad de Cambridge. Se creó el primer videojuego de la historia, OXO (un tres en raya) desarrollado para funcionar en esta computadora.

En 1950 la Oficina Nacional de Estándares de EEUU (NBS), presenta dos pequeños ordenadores, el SEAC (Standards Eastern Automatic Computer), basada en el EDVAC y el SWAC (Standards Western Automatic Computer), que fue la máquina mas rápida del momento, en parte por su simplicidad.

En 1951 se inicia la producción de la primera máquina en serie.
En 1953 hay unas 100 máquinas en todo el mundo, pero en 1958 solamente en los Estados Unidos hay cerca de unas 2.500 computadoras. En 5 años se ha producido un gran aumento, a pesar de la complejidad técnica de producir, el altísimo precio, y el muy elevado coste de mantenimiento de estas máquinas.


Segunda Generación (1955-1963)

Una de las principales características de esta generación de computadoras es que usaban transistores (en ve de tubos de vacío) para procesar la información. Además, los transistores eran de menor tamaño que los tubos de vacío, por lo que así también se ahorraba espacio. Usaban anillos magnéticos para almacenar información e instrucciones. Eran unas computadoras bastante lentas y todavía producían mucho calor. Se mejoraron los programas creados en la primera generación de computadoras y se desarrollaron lenguajes de programación como COBOL y FORTRAN. Se usaban en sistemas de aplicaciones de reservas aéreas, control de tráfico aéreo...

La producción de las computadoras en seria cambia bastante en esta generación, ya que con los transistores la producción es más sencilla, se reduce el precio de venta hasta una décima parte de lo que costaban antes, y es más fácil que las grandes empresas ya cuenten con computadoras.
Una de las empresas más importantes en la creación de computadoras es la IBM.


Tercera Generación (1964-1970)

Las computadoras de esta generación empezaron a surgir con el desarrollo de los circuitos integrados (eran pastillas de silicio), en las que se colocan miles de componentes electrónicos en una integración en miniatura.

El uso de estos circuitos integrados permitió rebajar aún más los costos de producción de los ordenadores al par que se aumentaba la capacidad de procesamiento de los ordenadores y se reducía su tamaño considerablemente.


Cuarta Generación (1971-1983)

Esta fase está caracterizada por la integración de los componentes electrónicos, lo que hizo que apareciera el microprocesador, un único circuito integrado en el que se reúnen los elementos básicos de una máquina. Se colocan más elementos en un chip. Cada uno de estos chips realiza diferentes tareas.

Las características de esta generación es el desarrollo de los circuitos integrados para almacenar y procesar información. Un chip (pieza de silicio) contiene componentes electrónicos miniaturizados llamados semiconductores. Los circuitos integrados recuerdan datos porque almacenan la información como cargas eléctricas.


Quinta Generación (1984-1983)

Surge la PC tal cual como la conocemos en la actualidad. IBM presenta su primera computadora personal y revoluciona el sector informativo.En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras.


Sexta Generación (1999- Hasta la fecha)

La sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes.
Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.