/**MBW Navgation bar**/ #mbwnavbar { background: #bdbfbf; width: 900px; color: #d8f602; margin: 0px; padding: 0; position: relative; border-top:0px solid; height:35px; } #mbwnav { margin: 0; padding: 0; } #mbwnav ul { float: left; list-style: none; margin: 0; padding: 0; } #mbwnav li { list-style: none; margin: 0; padding: 0; border-left:1px solid #333; border-right:1px solid #333; height:35px; } #mbwnav li a, #mbwnav li a:link, #mbwnav li a:visited { color: #FFF; display: block; font:normal 12px Helvetica, sans-serif; margin: 0; padding: 9px 12px 10px 12px; text-decoration: none; } #mbwnav li a:hover, #mbwnav li a:active { background: #023d90; color: #0a0a0a; display: block; text-decoration: none; margin: 0; padding: 9px 12px 10px 12px; } #mbwnav li { float: left; padding: 0; } #mbwnav li ul { z-index: 9999; position: absolute; left: -999em; height: auto; width: 160px; margin: 0; padding: 0; } #mbwnav li ul a { width: 140px; } #mbwnav li ul ul { margin: -25px 0 0 161px; } #mbwnav li:hover ul ul, #mbwnav li:hover ul ul ul, #mbwnav li.sfhover ul ul, #mbwnav li.sfhover ul ul ul { left: -999em; } #mbwnav li:hover ul, #mbwnav li li:hover ul, #mbwnav li li li:hover ul, #mbwnav li.sfhover ul, #mbwnav li li.sfhover ul, #mbwnav li li li.sfhover ul { left: auto; } #mbwnav li:hover, #mbwnav li.sfhover { position: static; } #mbwnav li li a, #mbwnav li li a:link, #mbwnav li li a:visited { background: #023d90; width: 150px; color: #FFF; display: block; font:normal 12px Helvetica, sans-serif; margin: 0; padding: 9px 12px 10px 12px; text-decoration: none; z-index:9999; border-bottom:1px dotted #333; } #mbwnav li li a:hover, #mbwnavli li a:active { background: #70b6bd; color: #FFF; display: block; margin: 0; padding: 9px 12px 10px 12px; text-decoration: none; }

Semana 3

Historia de los Procesadores Intel y AMD

Historia

El primer procesador comercial, el Intel 4004, fue presentado el 15 de noviembre de 1971. Los diseñadores fueron Ted Hoff y Federico Faggin de Intel, y Masatoshi Shima de Busicom (más tarde ZiLOG).
Los microprocesadores modernos están integrados por millones de transistores y otros componentes empaquetados en una cápsula cuyo tamaño varía según las necesidades de las aplicaciones a las que van dirigidas, y que van desde el tamaño de un grano de lenteja hasta el de casi una galleta. Las partes lógicas que componen un microprocesador son, entre otras: unidad aritmético-lógica, registros de almacenamiento, unidad de control, Unidad de ejecución, memoria caché y buses de datos control y dirección.
Existen una serie de fabricantes de microprocesadores, como IBM, Intel, Zilog, Motorola, Cyrix y AMD. A lo largo de la historia y desde su desarrollo inicial, los microprocesadores han mejorado enormemente su capacidad, desde los viejos Intel 8080, Zilog Z80 o Motorola 6809, hasta los recientes Intel Core 2 Duo, Intel Core 2 Quad, Intel Xeon, Intel Itanium II, Transmeta Efficeon o Cell.
Ahora los nuevos microprocesadores pueden tratar instrucciones de hasta 256 bits, habiendo pasado por los de 128, 64, 32, 16, 8 y 4 bits. Desde la aparición de los primeros computadores en los años cuarenta del siglo XX, muchas fueron las evoluciones que tuvieron los procesadores antes de que el microprocesador surgiera por simple disminución del procesador.

Antecedentes

Entre estas evoluciones podemos destacar estos hitos:
o   ENIAC (Electronic Numeric Integrator And Calculator) Fue un computador con procesador multiciclo de programación cableada, esto es, la memoria contenía sólo los datos y no los programas. ENIAC fue el primer computador, que funcionaba según una técnica a la que posteriormente se dio el nombre de monociclo.
o   EDVAC (Electronic Discrete Variable Automatic Computer) fue la primera máquina de Von Neumann, esto es, la primera máquina que contiene datos y programas en la misma memoria. Fue el primer procesador multiciclo.
o   El IBM 7030 (apodado Stretch) fue el primer computador con procesador segmentado. La segmentación siempre ha sido fundamental en Arquitectura de Computadores desde entonces.
o   El IBM 360/91 supuso grandes avances en la arquitectura segmentada, introduciendo la detección dinámica de riesgos de memoria, la anticipación generalizada y las estaciones de reserva.
o   El CDC 6600 fue otro importante computador de microprocesador segmentado, al que se considera el primer supercomputador.
o   El último gran hito de la Arquitectura de Computadores fue la segmentación superescalar, propuesta por John Cocke, que consiste en ejecutar muchas instrucciones a la vez en el mismo microprocesador. Los primeros procesadores superescalares fueron los IBM Power-1.

Avances

Hay que destacar que los grandes avances en la construcción de microprocesadores se deben más a la Arquitectura de Computadores que a la miniaturización electrónica. El microprocesador se compone de muchos componentes. En los primeros procesadores gran parte de estos estaban ociosos el 90% del tiempo. Sin embargo hoy en día los componentes están repetidos una o más veces en el mismo microprocesador, y los cauces están hechos de forma que siempre están todos los componentes trabajando. Por eso los microprocesadores son tan rápidos y tan productivos. Esta productividad tan desmesurada, junto con el gran número de transistores por microprocesador (debido en parte al uso de memorias caché) es lo que hace que se necesiten los inmensos sistemas de refrigeración que se usan hoy en día. Inmensos en comparación con el microprocesador, que habitualmente consiste en una cajita de 2 centímetros de largo y de ancho por 1 milímetro de altura, cuando los refrigeradores suelen tener volúmenes de al menos 5 centímetros cúbicos.
ü  Intel 4004
ü  Intel 4004
ü  Zilog Z80
ü  Zilog Z80
ü  Motorola 68000
ü  Motorola 68000
ü  Microprocesador Intel 80486DX2.
ü  Microprocesador Intel 80486DX2.

Evolución del microprocesador

Ø  1971: Intel 4004. Nota: Fue el primer microprocesador comercial. Salió al mercado el 15 de noviembre de 1971.
Ø  1974: Intel 8008
Ø  1975: Signetics 2650, MOS 6502, Motorola 6800
Ø  1976: Zilog Z80
Ø  1978: Intel 8086, Motorola 68000
Ø  1979: Intel 8088
Ø  1982: Intel 80286, Motorola 68020
Ø  1985: Intel 80386, Motorola 68020, AMD80386
Ø  1987: Motorola 68030
Ø  1989: Intel 80486, Motorola 68040, AMD80486
Ø  1993: Intel Pentium, Motorola 68060, AMD K5, MIPS R10000
Ø  1995: Intel Pentium Pro
Ø  1997: Intel Pentium II, AMD K6, PowerPC G3, MIPS R120007
Ø  1999: Intel Pentium III, AMD K6-2, PowerPC G4
Ø  2000: Intel Pentium 4, Intel Itanium 2, AMD Athlon XP, AMD Duron, MIPS R14000
Ø  2003: PowerPC G5
Ø  2004: Intel Pentium M
Ø  2005: Intel Pentium D, Intel Extreme Edition con hyper threading, Intel Core Duo, AMD Athlon 64, AMD Athlon 64 X2, AMD Sempron 128.
Ø  2006: Intel Core 2 Duo, Intel Core 2 Extreme, AMD Athlon FX
Ø  2007: Intel Core 2 Quad, AMD Quad Core, AMD Quad FX
Ø  2008: Procesadores Intel y AMD con más de 8 núcleos.

https://es.slideshare.net/paatriciags/tabla-microprocesadores 








Semana 2

¿Qué es la computación cuántica?



Ordenador, Supercomputación
La computación cuántica está siendo noticia estos días por conseguir grandes avances en su desarrollo, pero, muy probablemente, te estés preguntando qué es exactamente la computación cuántica y qué representa para el futuro de la informática y los sistemas computacionales.
Una de las primeras cosas que debes olvidar para comprender la computación cuántica es el funcionamiento de los ordenadores actuales. La computación cuántica deja a un lado los sistemas lógicos empleados por los sistemas informáticos actuales y utilizan el modelo de los estados del átomo para realizar sus procesos.
Los dispositivos y ordenadores convencionales, como el que probablemente estés utilizando para leer este artículo, resumen toda la información que procesan a lenguaje binario, es decir, que solo utilizan dos estados para los datos: 0 ó 1.

Como si de un interruptor se tratara, los bits solo pueden estar encendidos o apagados. Toda la información en la computación actual se resume en una secuencia de ceros y unos, o encendido o apagado.
Los átomos tienen sus propias leyes
En cambio, los átomos tienen una curiosa cualidad, que es precisamente una de las propiedades que hacen increíble la computación cuántica. Esta cualidad es la superposición.
La superposición del átomo consiste en que un átomo puede adoptar un estado de 0 y de 1, pero además puede adoptar ambos estados al mismo tiempo. Estos ordenadores cuánticos son capaces de probar, al mismo tiempo, todas las posibilidades que existen para la solución concreta de un problema, en lugar de probar todas las posibilidades una tras otra como se realizan actualmente.

Este cambio en el paradigma de la computación supone un enorme salto adelante en la potencia de computación, que permitirían realizar cálculos complejos que actualmente son inalcanzables incluso para los superordenadores.





¿Cómo son de rápidos los ordenadores cuánticos?
La potencia de los ordenadores cuánticos, al igual que la de los ordenadores convencionales, se mide en unidades de procesamiento, que no son más que átomos individuales. En el caso de los ordenadores cuánticos, se mide en bits cuánticos o qubits. A mayor cantidad de qubits, más rápido funcionan.
Los cinco superordenadores más potentes del mundo
Los díscolos y caprichosos átomos, además de poder adoptar varios estados simultáneamente, también cuentan con otra particularidad llamada entrelazamiento atómico.
Gracias a esta particularidad, un átomo puede transmitir determinadas propiedades a otro sin que haya nada de por medio. Algo así como una telepatía entre átomos que hace que cualquier cambio en el estado de uno de los átomos entrelazados, provoque un cambio instantáneo en el otro.
 Esto, permite crear entrelazamientos cuánticos entre varios átomos de forma que permiten crear una red de átomos que funcionan de forma armónica. Podríamos decir que son como los núcleos que funcionan de forma conjunta dentro de un procesador convencional, pero a un nivel muchísimo más complejo.
Dado que un bit cuántico o qubit es capaz de procesar mucha más información que un bit, la potencia de procesado con respecto a los sistemas actuales se incrementa exponencialmente. A medida que los nuevos descubrimientos permitan crear entrelazados cuánticos con un mayor número de átomos, esta potencia aumentará sustancialmente, hasta el punto de poder resolver en segundos tareas para las que un superordenador normal tardaría años. Aunque esto sólo se aplica a ciertos cálculos.
¿Qué son los superordenadores y cómo funcionan?
Sin discos duros ni monitores
En un procesador cuántico no se utilizan ni monitores, ni discos duros, ni ningún tipo de hardware tal y como lo conocemos en el ámbito de la informática actual.
Todo sucede en la unidad de procesamiento que debe permanecer en unas condiciones de absoluto aislamiento ya que los estados cuánticos del átomo son extremadamente frágiles y la superposición de los estados que se produce durante el proceso de cálculo, puede perturbarse.
La superposición de los átomos puede verse alterada ante el contacto con un campo electromagnético o la más mínima vibración o fluctuación de la temperatura.

Esta alteración del estado del átomo provocaría errores de cálculo. Por ese motivo, los procesadores en los que se encuentran los qubits deben enfriarse y mantenerse a cero absolutos (-273 grados Celsius).
Los estados de cada átomo se observan mediante mediciones con láser, de las que se extraen los resultados de los cálculos y se procesan con ordenadores normales.

Milky Way 2 el superordenador más potente del mundo
¿Existe ya un ordenador cuántico?
Por el momento, sólo existen ordenadores cuánticos en laboratorios e instituciones de investigación. Sin embargo, han demostrado que la tecnología funciona, aunque todavía queda un largo camino por delante ya que, para su correcto funcionamiento, los ordenadores cuánticos necesitan unas condiciones muy concretas.
Por el momento, empresas como Google, IBM, la NASA o diversos organismos científicos están desarrollando prototipos con la tecnología necesaria para conseguir que, en unos 10 años o 15 años, los ordenadores cuánticos sean una realidad cotidiana.
Prototipos como el D-Wave 2x son ejemplos tangibles de la evolución de estos sistemas computacionales, pero, a su vez, sirven para tomar conciencia del largo camino que todavía queda por recorrer.
La primera versión de este prototipo funcionaba con 512 qubits y costaba alrededor de 11 millones de euros. La nueva versión de este prototipo que se dio a conocer en 2013, según aseguran sus desarrolladores, es hasta 108 millones de veces más rápido que un ordenador tradicional.
El cerebro humano es 30 veces más rápido que los superordenadores
Un salto cuántico en la velocidad
La computación cuántica lidera la ejecución de ciertas operaciones aritméticas y en aquellas en las que se producen muchas operaciones similares al mismo tiempo. Tres ejemplos:
Los ordenadores cuánticos son las herramientas ideales para trabajar con información cifrada. El sistema criptográfico RSA, que se integra en los navegadores y protege la banca online, se puede quebrar rápidamente con un ordenador cuántico potente. Un superordenador convencional tardaría incluso años.


Con ordenadores cuánticos se pueden procesar enormes cantidades de datos. Una razón más de por qué las agencias de inteligencia y empresas como Google están tan interesadas en esta tecnología.
Los científicos podrían realizar simulaciones mucho más complejas con ordenadores cuánticos que con los actuales superordenadores. De este modo, calcular patrones climáticos o simulaciones moleculares se realizarían en muy poco tiempo y permitirían dar un paso de gigante en el avance de otras ramas de la ciencia.
http://www.quees.info/que-es-la-fisica-cuantica.html

¿Qué es la Física Cuántica?

La física cuántica se define como la rama de la física que se ocupa de estudiar y explicar el comportamiento a nivel microscópico de los átomos y de las partículas subatómicas y elementales, también conocida como mecánica cuántica sus leyes están basadas en probabilidades rompiendo con todos los esquemas establecidos en la física clásica.

La física clásica es la ciencia que se ocupa de estudiar y predecir el comportamiento de los objetos macroscópicos que nos rodean mediante leyes matemáticas, gracias a la física clásica podemos predecir con exactitud la velocidad de un avión, la órbita de la luna o cual es la gravedad en Júpiter, su principal característica es que es una ciencia determinista, es decir se puede calcular con exactitud valores como la velocidad o posición de un objeto y por lo tanto su trayectoria.
Por otro lado, tal y como se indica en la definición de la física cuántica, esta se ocupa de estudiar el comportamiento de objetos microscópicos como los átomos, electrones, quarks o fotones, a este nivel microscópico las leyes de la física clásica no sirven puesto que son incapaces de predecir el comportamiento de estas partículas, siendo su principal característica la indeterminación de valores como la posición o velocidad de una partícula. Por ello la principal diferencia de la cuántica respecto a la clásica es que esta última es una ciencia determinista y la primera es probabilística.
A nivel microscópico las partículas fundamentales como los electrones o los fotones se comportan de una manera extraña, desconcertante y mágica, no teniendo nada que ver con la concepción que tenemos de nuestra realidad, por ejemplo;
• El fenómeno de superposición nos indica que un electrón puede estar al mismo tiempo presente en tu casa, en el pico más alto del Everest o en la superficie de Júpiter, es decir una partícula está presente en muchos lugares a la vez con diferentes probabilidades siempre y cuando no sea observada.
• El fenómeno de entrelazamiento nos indica que un electrón que se encuentra en nuestro ordenador puede estar entrelazado con otro electrón ubicado en un planeta distante a 400 años luz, cuando modificamos el estado de alguno de los electrones el otro cambia instantáneamente.
• El efecto túnel nos afirma que un electrón puede atravesar en ocasiones muros o paredes delgadas de energía como si fuera un fantasma, esto se debe a la dualidad onda-partícula que confirma la mecánica cuántica.
Aunque parezca increíble todos estos principios y fenómenos cuánticos se han comprobado con numerosos experimentos, confirmándose cada uno de ellos, por ello numerosos científicos aseguran que la mecánica cuántica es la ciencia más exacta jamás descubierta por el hombre.
Gracias a estas mágicas propiedades que dispone el mundo microscópico, el ser humano ha desarrollado instrumentos increíbles, por ejemplo el microscopio de efecto túnel nos permite visualizar a escalas nanométricas los átomos que componen un material distinguiéndose claramente unas de otras, en un futuro podremos enviar información instantánea de un sistema solar a otro gracias al efecto del entrelazamiento cuántico, por otro lado mediante el fenómeno de superposición los investigadores están desarrollando ordenadores cuya potencia de cálculo superará a todos los ordenadores del mundo conectados al mismo tiempo.
Todo esto no es ciencia ficción, ya hemos desarrollado ordenadores cuánticos que funcionan correctamente con una potencia 3600 veces superior a un microprocesador de 8 núcleos, hemos teleportado el estado de un fotón a casi 100 km de distancia, en poco tiempo veremos como la mecánica cuántica iniciará una revolución que cambiará nuestra manera y hábitos de vida.

Aplicaciones de la física cuántica.

Aunque no lo parezca la mayoría de los dispositivos y objetos que utilizamos y vemos en nuestro día a día están basados en algún principio o fenómeno de la física cuántica, por ejemplo, el funcionamiento del láser se basa en la mecánica cuántica y se utilizan en reproductores de cd y DVD, escáneres de códigos de barras utilizados en los centros comerciales, herramientas de corte y soldadura utilizadas en la industria o bisturíes de láser utilizados en el campo de la medicina.
El desarrollo de los transistores, elemento fundamental de todos los microprocesadores que utilizar todos los aparatos electrónicos como nuestro ordenador, el desarrollo de los relojes atómicos con alta precisión, así como los termómetros ultra precisos son entre otros ejemplos donde la mecánica cuántica ha desempeñado un papel fundamental en su desarrollo.
Las placas solares, detectores de movimiento, sistemas de control de calidad automáticos en líneas de producción continuas como detección de productos rotos y defectuosos, envases vacíos u otros, sistemas de alarmas contraincendios o incluso para la medición de las estrellas lejanas a nuestro planeta basan su funcionamiento en el efecto fotoeléctrico explicado gracias a la física cuántica.
Otro de los ejemplos que se aplica la mecánica cuántica son las memorias USB que utilizamos en nuestros ordenadores, estas pequeñas memorias flash capaces de almacenar cantidades ingentes de información utilizan el efecto túnel para proceder al borrado de las diversas celdas que las componen de tal forma que podamos reutilizarlo tantas veces como queramos.
El futuro próximo nos espera el desarrollo de ordenadores cuánticos con una potencia de cálculo ilimitado, gracias a ellos podremos predecir con gran exactitud el comportamiento del clima a largo plazo, diseñar fármacos y medicinas a nivel molecular con propiedades altamente curativas o podremos simular a la perfección fenómenos naturales altamente complejos como la formación de las galaxias.
Por otro lado, en un futuro muy próximo dispondremos del llamado Internet cuántico donde las comunicaciones serán totalmente seguras e instantáneas, en cuestión de milisegundos podremos descargar millones de Mb de información y donde la criptografía cuántica hará un Internet totalmente seguro.

Unidades de medida de capacidad

Las medidas informáticas son:

Un petabyte, es una unidad de almacenamiento de información. Corresponde a 1024 terabytes, o mil billones de bytes. Se representa con el símbolo PB.
https://es.wikipedia.org/wiki/Velocidad

Unidades de velocidad

Sistema Internacional de Unidades (SI)

• Metro por segundo (m/s), unidad de velocidad en el SI (1 m/s = 3,6 km/h).
• Kilómetro por hora (km/h) (muy habitual en los medios de transporte)
• Kilómetro por segundo (km/s)

Sistema Cegesimal de Unidades CGS)

• Centímetro por segundo (cm/s) unidad de velocidad en el CGS

Sistema Anglosajón de Unidades

• Pie por segundo (ft/s), unidad de velocidad del sistema inglés
• Milla por hora (mph) (uso habitual)
• Milla por segundo (mps) (uso coloquial)

Navegación marítima y Navegación aérea

• El nudo es una unidad de medida de velocidad, utilizada en navegación marítima y aérea, equivalente a la milla náutica por hora (la longitud de la milla naútica es de 1852 metros; la longitud de la milla terrestre —statute mile— es de 1609,344 metros).

Aeronáutica

• El número Mach es una medida de velocidad relativa que se define como el cociente entre la velocidad de un objeto y la velocidad del sonido en el medio en que se mueve dicho objeto. Es un número adimensional típicamente usado para describir la velocidad de los aviones. Mach 1 equivale a la velocidad del sonido, Mach 2 es dos veces la velocidad del sonido, y así sucesivamente. La velocidad del sonido en el aire es de 340 m/s (1224 km/h).

Unidades de Planck (Unidades naturales)

• El valor de la velocidad de la luz en el vacío = 299 792 458 m/s (aproximadamente 300 000 km/s).
http://conceptodefinicion.de/ascii/

Código ASCII

El código ASCII es conocido como el acrónimo de las palabras inglesas American Standard Code for Information Exchange y en español significa Código Estadounidense Estándar para el Intercambio de Información, este código está basado integralmente en el alfabeto latino que tiene distintos tipos de usos y puede tratarse de una combinación de símbolos en el marco de un sistema establecido que cuenta con un cierto valor.

http://computer-information5.webnode.es/news/primer-blog/

Semana 1

abaco_2.jpgHISTORIA DE LA COMPUTADORA
El Ábaco :El dispositivo de cálculo más antiguo que se conoce es el ábaco. Fueron los egipcios quienes 500 años A.C. inventaron el primer dispositivo para calcular, basado en bolitas atravesadas por alambres. Posteriormente, a principios del segundo siglo D.C., los chinos perfeccionaron este dispositivo, al cual le agregaron un soporte tipo bandeja, poniéndole por nombre SAUN-PAN. El ábaco permite sumar, restar, multiplicar y dividir.
Su nombre viene del griego ábacos que significa superficie plana. Se sabe que los griegos empleaban tablas para contar en el siglo V. Antes de Cristo. El ábaco tal como lo conocemos actualmente esta constituido por una serie de hilos con cuentas ensartadas en ellos. en nuestro país este tipo de ábaco lo podemos ver en todas las salas de billar.

La Pascalina:
la_pascalina.jpg En 1642, el filósofo y matemático francés Blaise Pascal (1623-1662) construyó la primera sumadora mecánica, que se llamó La Pascalina y blase_pascal.jpgque funcionaba con un complicado mecanismo de engranes y ruedas: la rotación completa de una de las ruedas dentadas hacía girar un paso a la rueda siguiente. 
A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina resultó un fracaso financiero, pues resultaba más costosa que la labor humana para los cálculos aritméticos.
La Pascalina sólo realizaba sumas y restas.

La Máquina de Cálculo:
maquina_de_calculo_de_le.jpgEsta Máquina diseñada por Gottfried Leibnitz apareció en 1672; se diferencia de la de Pascal en varios aspectos fundamentales el más importante de los cuales era que podía multiplicar, dividir y obtener raíces cuadradas.
Leibnitz propuso la idea de una máquina de cálculo en sistema binario (base de numeración empleada por los modernos ordenadores actuales).





Tanto La Pascalina como la de Leibnitz, se encontraron con una grave freno para su difusión. La revolución industrial aún no había tenido lugar y sus máquinas eran demasiado complejas para ser utilizadas a mano. La civilización leib.jpgque habría podido producirlas en serie estaba todavía a más de 200 años.
La Máquina Diferencial / Analítica:

La persona que sentó las Bases para la Computación Moderna fue
babbage_buena.jpg "Charles Babbage" (Matematico e Ingeniero Inglés). El propuso la construcción de una máquina para que hiciera los cálculos y para no utilizar la regla de cálculo.Fue inicialmente descripa en 1816, aunque Babbage siguió refinando el diseño hasta su muerte en 1871.Durante su desarrollo de la Máquina de Diferencias tuvo dos ideas que hasta este momento, son parte de la computación moderna y forman parte del diseño de cualquier computadora:1. La máquina debe de ser capaz de ejecutar varias operaciones elegibles por unas instrucciones que se encuentran en un medio externo, es decir que se pueda programar para que lleve acabo una maquina_diferencia.jpgtarea.2. La máquina debe disponer de un medio para almacenar los datos intermedios y finales.Basándose en estas dos ideas, diseñó y le llamó "La Máquina Analítica", que nunca se construyó por que la tecnología de la época no estaba lo suficientemente desarrollada para llevarla acabo. Tiempo después se realiza la construcción de La Máquina Analítica.
Las características de esta Máquina incluye una Memoria que puede almacenar hasta 1000 números de hasta 50 dígitos cada uno, las operaciones que realizaba esta máquina eran almacenadas en "Tarjetas Perforadas", se estima que la máquina tardaba un segundo en hacer una suma y un minuto en una multiplicación.







El MARK I: mark1.jpgEn 1944 concluyó la construcción del " Primer Computador Electro-mecánico Universal" por la empresa informatica IBM, tomando como base la Maquina Analitica de Babbage. El Mark I le tomaba seis segundos para efectuar una multiplicación y doce para una división, era una computadora que estaba basada en rieles (tenia aproximadamente 3000), con 800 kilómetros de cable, con dimensiones de 17 metros de largo, 3 metros de alto y un metro de profundidad. Al MARK I posteriormente se le fueron haciendo mejoras obteniéndose EL MARK II, MARK III, MARK IV. ENIAC:












En 1946 aparece la primera "Computadora Electrónica", a la cual se le llamó así por que Funcionaba con Tubos al Vació. Esta computadora era 1500 veces más rápida que el Mark I, así podía efectuar 5000 sumas o 500 multiplicaciones en un segundo y permitía el uso de aplicaciones científicas en astronomía, meteorología, etc.

ENIAC.jpg












ENIAC.jpg

vonNeumannLarge.jpg
Durante el desarrollo del proyecto el matemático Von Neumman propuso unas mejoras que ayudaron a llegar a modelos actuales de computadoras:
1. Utilizar un sistema de numeración binario en Base de Dos Dígitos (Binario).
2. Hacer que las instrucciones de operación estén en la memoria, al igual que los datos.
Basado en la ENIAC en 1952 apareció el computadora EDVAC que cumplía con todas las especificaciones propuestas por el matemático.

Asi Von Neumman junto con Charles Babage son considerados los padres de la Computación.
A partir de 1951 las computadoras dejan de ser exclusivas de las universidades, con la construcción de la UNIVAC, se inicia entonces la comercialización de las computadoras y dentro de poco IBM se consolida como la mayor empresa de fabricación de computadoras.

LA MICROCOMPUTADORA:
Altair 8080
La primera microcomputadora de la historia de la computadora en ganar popularidad fue la Altair 8080, comercializada por MITS (Micro Instrumentation & Telemetry Systems), compañía fundada por el Dr. Ed Roberts en Alburquerque, New México.
Sabemos que una computadora no puede hacer nada sin un programa o software y como resultado de esta necesidad nacieron muchas empresas para satisfacer esta necesidad. Una compañía pequeña pero notoria fue establecida en Alburquerque por un reprobado de Harvard para proporcionar un software (El lenguaje BASIC) para la computadora Altair. El nombre del fundador era Bill Gates (Junto con su socio Paul
altair-8800.jpgAllen) y el de la empresa Microsoft.
https://historiacomputacion.wikispaces.com/2.+Historia

Introducción

Bienvenidos


Resultado de imagen para arquitectura del pc

Bienvenidos a este espacio donde se compartira la experiencia de conocer cada uno de los componentes, tanto internos com externos de una computadora, espero les guste.