elabora una cronologia con la evolucion delos dispocitivos para almacenamiento de la informacion.
plis es para hoy, ayudaaaaaaa
Respuestas
Respuesta:Un dispositivo de almacenamiento computacional es un dispositivo que es capaz de almacenar datos o cualquier tipo de información. Actualmente es posible almacenar digitalmente en un disco compacto por ejemplo, los datos que cabrían en miles de carpetas archivadas. A lo largo de la historia se ha buscado el camino al conocimiento y sus consecuencias de encontrar el sistema más pequeño físicamente y con más capacidad para almacenar más datos y tratarlos rápidamente.
El circuito integrado se desarrolló por primera vez en 1959 por el ingeniero Jack S. Kilby justo meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase. En el año 2000, Kilby obtuvo el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología.
Un microchip es una pastilla muy delgada donde se encuentran miles o millones de dispositivos electrónicos interconectados, principalmente diodos y transistores, y también componentes pasivos como resistores o condensadores. Su área puede ser de 1 cm, 2 cm o inferior. Los microchips son quizás los sistemas de almacenamiento más empleados, hoy en día se utilizan además de en los computadores, en los teléfonos móviles, electrodomésticos, juguetes con algún componente electrónico, etcétera.
El transistor actúa como interruptor. Puede encenderse o apagarse electrónicamente o amplificar corriente. Se usa en computadoras para almacenar información o en amplificadores para aumentar el volumen de sonido. Las resistencias limitan el flujo de electricidad y nos permiten controlar la cantidad de corriente que fluye, esto se usa por ejemplo para controlar el volumen de un televisor o radio.
El desarrollo del microchip es especialmente importante en la historia, pues es algo increíblemente pequeño que puede almacenar cantidad de datos inmensas, que hace años era impensable. Se necesita un desarrollo a nivel microscópico para diseñar los microchips.
El primer computador que usó microchips fue un IBM lanzado en 1965, llamado serie 360. Estas computadoras se consideran de la tercera generación de computadoras, y sustituyeron por completo a las de segunda generación, introduciendo una manera de programar que aún se mantiene en grandes computadoras de IBM.
Explicación:
ahita ahora si. espero que te sirva >:V