Menu schließen

Facharbeit: Historie und technische Entwicklung der Wirkprinzipien der Speichermedien

Alles zu Festplatte

Marcus Ullrich 2.Juni 2007



Belegarbeit
Thema : Historie und technische Entwicklung der Wirkprinzipien der Speichermedien in der Datentechnik bis in die heutige Zeit.
Mechanische Speicherung
1.1 Historie, Funktion und Aufbau der Lochkarte
Halbleiterspeicherung
2.1 Grundlagen: Halbleiter, Transistoren und Speicherformen
2.2 Schreibe/Lese Speicher RAM, SRAM und DRAM
2.3 Der Nur Lese Speicher ROM und Weiterentwicklungen PROM, EPROM, EEPROM und Flash-EEPROM
3 Magnetische Speicherung
3.1 Codierungsarten (FM/MFM/RLL)
3.2 Vertreter Magnetband, Diskette und die Festplatte
4 Optische Speicherung
4.1 Compact Disk und die CD-ROM
4.2 Andere Vertreter (LD/DVD/HVD)
4.3 Magneto-Optische Speicherung

Mechanische Speicherung:
Die ersten Speichermedien treten in der Geschichte anfang des 18. Jahrhunderts auf. Diese bestanden aus einer gelochten Platte oder einen Band, so wurden nach dem High-Low-Prinzip bestimmte Informationen auf den Medien durch ihre Position codiert und konnten später durch mechanische Abtaster wieder ausgelesen werden. 1796 wurden dieses Prinzip erstmals verwendet. So erklang durch sich drehenden Scheiben bzw. Walzen mit angebrachten Stahllamellen erstmals Musikstücke einer Spieldose. 1805 gelang es Joseph-Marie Jaquard den ersten Lochkartengesteurten Webstuhl einzusetzten.
Historie, Funktion und Aufbau der Lochkarte
Das Lochkartenverfahren wurde 1890 erstmals in der Datenverarbeitung bei einer amerikanischen Volkszählung verwendet. Der Deutsch-Amerikaner Hermann Hollerith verwendete ein selbst entwickeltes System, wobei er auf einen Karton Felder mit verschiedener Wertigkeiten anlegte und mittels einer Maschiene Lochungen stanzte. Die entstantenen Löcher konnten durch elektrische Abtaster ausgelesen werden. Das erste standartisierte Lochkartenformat (18,7 cm × 8,3 cm & ca. 0,17 mm dick) wurde 1928 von IBM eingeführt und als Hollerith-Lochkarte bezeichnet. Diese bestand aus Karton, war in 12 Zeilen und 80 Spalten aufgebaut und besaß rechteckige Löcher (540 möglich). Durch sogenannte Lochkartenstanzer, Magnet/Motorlocher oder Pantographen konnte man Lochkarten beschreiben. Lochkartenleser überprüfen die Karten durch entweder elektromechanische Abfühlbürsten (Metallbürste) oder optisch, also fotoelektrisch mit hilfe von Lichtstrahlen auf vorhandene Löcher. Die Lochplatte wird bei der elektromechanischen Lesemethode über eine Kontaktwalze geführt, über diese Befindet sich eine kleine Metallbürste. Bei den Durchführen der Karte kommt es bei jeder Lochung zu einen Stromfluss, durch dessen Messung kann die gespeicherte Information gelesen werden. Somit wird ein Binärer Code übertragen, entweder eine Lochung ist vorhanden (entspricht 1 Signal), oder es ist keine vorhanden (entspricht 0 Signal). Bei der Optischen Methode wird das Selbe Wirkungsprinzip angewandt, nur das bei dieser die Karte über eine Fotozelle bewegt wird, dabei befindet sich direkt über der Fotozelle eine festangebrachte Lichtquelle. Wenn eine Lochung vorhanden ist erhält die Fotozelle ein Licht- und damit ein 1 Signal, andernfalls ein 0 Signal. Die Vorteile von Lochkarten liegen zum einen in der Herstellungskosten und zum anderen in den fast so gut wie ausgeschlossenen Signalstörungen, betreffs des Auslesemechanismuses. Die Nachteile liegen ind er geringen Speicherkapazität, sowie den Sequentiellen Speicherverfahren und zudem ist eine Lochkarte nur einmal beschreibar. Die Lochkartentechnik hat seit mitte der 70 so gut wie keine Verwendung mehr, da sie schon seit einiger Zeit durch effektiverere, im ezug auf Speicherzugriffszeit, Speicherbare Menge oder Wiederbeschreibarkeit, Speichermedien abgelöst ersetzt wurde, zum Beispiel durch CD’s/DVD’s. IBM plant jedoch eine neue Generationen von Lochkarten in Miniformat, so sollen zukünftige Lochkarten in einer große einer Briefmarke eine Speicherkapazität von 20 DVD’s besitzten. Im Frühjahr 2005 wurde in einer Hannover Messe ein Prototyp dieser Technik namens ‚Millipede’ von IBM vorgestellt. Durch diese neue Form ist es möglich Daten so dicht wie nie zu vor speichern zu können. Die Speicherchips bestehen aus vielen Tausenden aus Silizium geätzten Federbalken, die an ihren Enden (‚Füßchen’) die feinste Spitze besitzen die möglich ist, sie besteht genau aus ein Atom. Auf einer Fläche von 40 mm² befinden sich 64x64, also 4096 Federbalken. Die Datenspeicherung erolgt hierbei durch eine Kunststoffschicht, wobei das Prinzip der Lochkartentechnik eine wiederverwendung findet. Wird einer der Federbalken mit strom versorgt erhitzt sich seine der darunterbefindliche Kunststoff und die feine Spitze des Federbalkens kann in die darunterliegenden Kunststoffschicht eindringen. Durch diese Methode entstehen Vertiefungen mit 10 Nanometer Durchmesser. Selbst die magnetischen Partikel mit den auf Festplatten gespeichert werden sind je 10 mal großer als eine Vertiefung. Die dabei entstandenen Informationstechnischen Einheiten, genannt ‚Bits’, können wieder gelöscht werden, indem am Rand die Spitze des Federbalkens angesetzt wird und so wieder Material in das Loch zurückgeschoben werden kann (0 Signal). Das Auslesen wird über den selben Federbalken realisiert, dieser prüft jedeglich ob eine Vertiefung vorhanden ist oder nicht.
Halbleiterspeicherung
Grundlagen: Halbleiter, Transistoren und Speicherformen
Ein Halbleiter ist ein elektronisches Bauelement das als Leiter fungiert, dabei ist seine Leitfähigkeit stark von seiner Temperatur abhängig. Bei einer niedrigen Temperatur agiert der Halbleiter als Isolator, nur bei erhöhter Temperatur ist dieser Leitfähig. Die Grundlage dieser Technologie bildeten Stephen Gray 1727 mit der Endeckung des Leiters und Nichtleiters und Georg Simon Ohm 1821 der den Zusammenhang zwischen dem Leitermaterial und den resultierenden Strom- und Spannungsproportionalitäten im ohmische Gesetz formulierte. 1874 beschrieb Ferdinand Braun die veränderlichkeit des Wiederstandes im Sperrschichteffekt, also die behinderung des Stronflusses in einer bestimmten Richtung bei Halbleitermaterialien. Die Wichtigsten Vertretermaterialien sind Germanium und Silicium, u.a. auch Cadmiumsulfid, Galliumphosphit und Indiumantimonit. Der erste Transistor und damit die Grundlage der heutigen Mikroelektronik wurde 1947 von Walter Houser Brattain, William Bradford Shockley und John Bardeen durch das Zusammenführen von 2 Metalldrahtspitzen auf ein Germaniumplätchen.
Ein Transistor is ein äußerst schneller binärer Schalter, wobei man zwei Arten unterscheidet. Der sehr schnelle Bipolare (Strom-gesteuert) und der unipolaure Transistor (Spannungs-gesteuert) der im gegensatz zum bipolaren langsamer aber dafür Platzsparender ist und weniger Strom benötigt. Die bipolare Form des Transistors besteht aus 3 Schichten unterschiedlicher dotierten Halbleitermaterialien. Das n-dotierte Material enthält Elektronen und im p-dotierten Material fehlen Elektronen, ein solcher Transistor besteht entweder aus einer pnp oder npn Schicht. Wenn die Spannung der Mittleren Schicht Null beträgt, so wirkt der Transistor als Unendlichgroßer Wiederstand und es fließt somit kein Strom, doch falls eine Spannung angelegt wird fungiert der Transistor als Leiter. Ein Unipolarer Transistor besteht ebenfalls aus 3 Schichten, wobei die Mittlere Schicht ein Durchgängigen Kanal bildet und die beiden anders Dotierten Schichten diesen nur Seitlich begrenzen. Dieser Kanaldurchschnitt kann mittles der angelegten Spannung verändert werden und somit auch der Kanalwiederstand.
Die Halbleiterspeicher lassen sich in zwei Formen Unterscheiden, zum einen der Schreibe/Lese Speicher genannt RAM (Random Access Memory) und in den Nur Lesespeicher ROM (Read Only Memory). Dabei besitzen alle elektronischen Halbleiterspeicherelemente drei Anschlüsse, die Adressleitung um den jeweiligen Speicher eine Adresse hinzu zu fügen, die Datenleitung zum Transport der Informationen und die Steuerleitung um den Speicher in einen bestimmten Modus zu schalten wie Lesen oder Schreiben.

Schreibe/Lese Speicher RAM (Random Access Memory):
Der RAM/Arbeitsspeicher ist ein schneller, flüchtiger Speicher mit wahlweisen Zugriff, der seine Daten solange eine Spannung angelegt ist speichert und mit dem Abschalten der Energieversorgung wieder verliert. Ende der 60er wurden die ersten RAM’s entwickelt und löste der Kernspeicher ab. Der RAM besteht aus vielen kleinen Ein-Bit Speicherzellen die Mittels Kondensatoren und/oder Transistoren realisiert werden, zu größen Gruppen zusammengefasst werden und in einer Matrix angeordnet sind. Beim Lese/Schreibe Vorgang wird zuerst die Adresse der zubearbeitenden Speicherzelle auf die Adressleitung gelegt. Beim Schreibvorgang werden die zuschreibenen Daten an der Datenleitung bereitgestellt. Nun wird über die Steuerleitung entschieden ob ein Lese oder Schreibevorgang erfolgt.
SRAM (Static Random Access Memory)
Die Speicherung eines Statischen RAM’s wird mittels vielen Flip Flops realisiert, ein einzellner kann hierbei nur eine ein Bit-Information speichern. Diese elektronischen Halbleiterspeicher bestehen aus je vier bis sechs Tansistoren, ein in Durchlassrichtung geschaltender Transistor repräsentiert eine eins und ein in Sperrrichtung geschaltender Transistor einer Null. Die Speicherzellen müssen dadurch nicht in einen bestimmten Zeitintervall, wie bei Kondensatoren, wieder aufgeladen werden und besitzen eine äußerst geringe Zugriffszeit im gegensatz zu dem DRAM’s. Ensprechend dieser Bauweise ist eine geringe Speicherdichte, ein hoher Herstellungsaufwand und ein hoher Preis verbunden. Trotzsdessen das der SRAM vor dem DRAM erschien wurde dieser anfang der 70er aufgrund des Preisunterschiedes vom Markt weitgehend verdrängt und fand nur noch in einzellnen Berreichen anwendung. SRAM’s werden heute vorwiegend in dem intigrierten Zwischenspeicher des Prozessor, dem Cache, verwendet. Dies ist durch die hohe Taktung des Prozessors und der schnellen Zugriffszeit des SRAM’s notwendig.
DRAM (Dynamic Random Access Memory)
Ein dynamischer RAM besteht aus einen unipolaren Transistor und einen Kondensator. Die Speicherinformationen werden über den Zustand des Kondensators festgehalten, ein aufgeladener Kondensator entspricht den binären Wert eins und im entladnenen Zustand einer Null. Dabei müssen geladene Kondensatoren nach dem Bruchteil einer Sekunde wieder aufgeladen werden, weil sich diese sonst selbst entladen. Aus dieser Bauweise resultiert eine hohe Datendichte und preiswerte Herstellung. 1966 wurde der erste DRAM von IBM entwickelt, 1970 eingeführt und werden bis Heute verwendet. Der aktuellste DRAM heute ist neben dem SDRAM von 1997 und RDRAM von 1999 der DDR/DDR2- bzw DDR3-RAM. Die Taktfreguenz ist wie beim SDRAM fast systemsynchron, darraus resultiert eine sehr geringer Ladezeit. Pro Takt wird das doppelte beim DDR RAM, das vier-fache beim DDR2 RAM und acht-fache beim DDR3 RAM an Informationen verarbeitet.
Der nur Lese Speicher ROM (Read Only Memory)
Der ROM ist ein digitales Speichermedium dessen Daten unveränderlich sind und nur gelesen werden können, dabei bleiben die Informationen auch ohne einer angelegten Spannungsversorgung erhalten. Die einzellnen Speicherzellen sind wie beim RAM in einer Matrix angeordnet, diese Zeilen- und Spaltenstruktur bilden die Adressleitungen und die Datenleitungen. Wird eine Speicherzelle über ihre Adresse aktiviert, so ist diese entweder durch eine Diode mit der Datenleitung verbunden oder nicht. Ist dies der Fall, so wird das Signal von der Adressleitung über die Datenleitung weitergeleite und als eine eins interpretiert. Wenn diese Verbindungstelle jedoch nicht vorhanden ist, so ist die Datenleitung an einen Massepotential (ein leitender, aber ungeladender Körper) von Null Volt angeschlossen und gibt damit ein Null Signal wieder. Ein Masseanschluss ist notwendig, weil sonst durch Umwelteinflüsse zufällige Spannungswerte interpretiert werden können. Die Programmierung erfolgt direkt bei der Herstellung durch eine Fotomaske, welche Die Verbindungen der Speicherzellen darstellt. Verwendet wird dieser in Geräten die keinen oder nur wenig wiederbeschreibbaren Speicher benötigen wie Waschmaschienen, Taschenrechner oder Mobiltelefone, allerdings in PC’s nur in vereinzellten Berreichen wie dem BIOS.
Weiterentwicklungen: PROM, EPROM,EEPROM und der heutige Flash-ROM
Eine frühe Weiterentwicklung die heute allerdings nicht mehr verwendet wird is der Programable ROM, welcher ebenfalls in einer Matrix durch Adress- und Datenleitungen angeordnet ist und sich durch seine geringe Zugriffszeit, von etwa Fünfzehn bis Fünzig Nanosekunden, gekenntzeichnet. In jeder Speicherzelle liegt eine Reinschaltung vor und ist mit einer Diode plus ein Fusible Link, ein leicht schmelzbarer Nickeldraht verbunden. Durch diese Bauweise kann der PROM einmalig programmiert werden und im nachhinein wie ein ganz normaler ROM genutzt werden. Bei dem Programmiervorgang werden die Speicherzellen die ein Null Signal liefern solln durch die Adressleitung ausgewählt und ein Stromimpuls angelegt, so das die Nickeldrähte durchschmelzen. Die nichtdurchgebrannten Fusible Links Liefern ein eins Signal.
Eine weitere Entwicklung ist der Erasble PROM von D. Frohmann, welcher elektrisch mehrmals programmierbar und mit UV Licht wieder Löschbar ist. Diese Technologie wurde 1971 von Intel eingeführt. Aus diesen entwickelte sich dann der elektrisch programmierbare und löschbare Ellectrically EPROM. Die Heute am aktuellste Entwicklung dieser Speichertechnologie ist der Flash-ROM.Dieser kombiniert die Vorteile des ROM und RAM, trotz das er wiederbeschreibbar ist bleiben die Daten bei fehlender Betriesspannung erhalten,zusätzlich ist diese Speicherform trotz hoher Datendichte klein, robust, unempfindlich gegen magnetische Felder und benötigt wenig Energie. Die Nachteile dieser Technologie liegen in der Schreib und Zugriffsgeschwindigkeit, sowie eine begrenzte Anzahl von Taktzyklen. Flash-ROMs werden in Digitalkameras, Mobiltelefone und als Speicherkarten wie zum beispiel MMC- oder SD-Karten verwendet.

Magnetische Speicherung:
Die Grundlage der magnetischen Speicherung bilden 2 Verfahren des Elektromagnetismus mit denen der Lese/Schreibevorgang realisiert wird. Das erste besagt: Wenn durch einen Leiter ein elektrischer Strom fließt, so baut sich um diesen ein Magnetisches Feld auf. Dabei hängt dessen Polarität von der Richtung des durchfließenden Stromes ab. Dieses Magnetfeld kann Materialien die sich in der Nähe befinden beeinflussen. Das zweite lautet: Wenn sich ein Leiter in einem veränderlichen Magnetfeld befindet, so wird in diesen Leiter ein Strom induziert. Bei magnetischen Speichermedien ist der Abstand zwischen den U-förmigen Lese- /Schreibeköpfe und der Magnetplatte ist äußerst gering. Die Lese- und Schreibeköpfe sind mit Drahtspulen umwickelt. Die Magnetische Platte bzw. Scheibe besteht aus einen Grundmaterial, das mit einen magnetisierbaren Material überzogen ist, beispielsweise eine Eisenoxidschicht. Bei Festplatten ist das Grundmaterial Aluminium oder Glas und bei Disketten Kunststoff. Die Köpfe funkieren bei den Lese bzw. Schreibevorgängen als Leiter. Fließt durch diesen Leiter ein Strom, so entsteht ein magnetisches Feld, dessen Polarität sich sehr schnell umschaltet. Die Polarität der magnetischen Partikel eines noch nichtbeschriebennen oder gelöschten Mediums befinden sich in einen Zufälligen Zustand. Durch den magnetischen Fluß die Schreibe-/Leseköpfe werden die Partikel in der Richtung der Köpfe polarisiert, dabei ist diese Ausrichtung permanent, d.h. die Partikel erzeugen nun, trotz das der Schreibe-/Lesekopf sich nicht mehr über die Partikel befindet, ein schwaches Magnetisches Feld. Durch das ändern dere Polarität in den Köpfen ändert sich auch die Ausrichtung der Partikel auf der Platte. So können sich zwei unterschiedliche polarisierte Stellen auf der Platte hintereinander befinden, dies bezeichnet man als Flußumkehr. Durch solche Flußumkehrungen werden Bitmuster erstellt mit denen die Informationen in form einer Codierung gespeichert und ausgelesen werden können. Wenn der Lesekopf eine Flußumkehrung überquert entsteht ein Flußrichtungswechsel. Dieser bewirkt das in den Lesekopf eine Spannung kurzzeitig induziert wird die der Lesekopf als Signal wahrnehmen kann.

Codierungarten
Die Infomationen die festgehalten werden sollen liegen als digitale Daten vor, aber werden als analoge Daten auf dem Medium geschrieben. Deshalb müssen alle Daten bevor sie auf das Madium abgelegt werden Codiert werden. Um dies zu realisieren werden die Daten an einen Decoder gesendet der diese in Wellensignale umwandelt. Beim Lesevorgang werden die Wellensignale von einen Encoder wiederum in Digitale Werte ungewandelt. Für eine hohe Speicherdichte und optimale Ausnutzung der vorhandenen Speicherkapazität wurden verschiedene Codierungsverfahren entwickelt. Die wichtigsten sind das FM-Verfahren (Frequency Modulation), das MFM-Verfahren (Modified Frequency Modulation) und das RLL-Verfahren (Run Length Limited).

Das FM-Codierungsverfahren
Das FM-Codierungsverfahren war in den 70er aktuell wurde aber später durch das MFM-Verfahren abgelöst. Bei dem FM Verfahren werden Taktbits auf das Medium geschrieben, wobei ein Taktbit ein Flußwechsel ist, d.h. die Polarität ändert sich. Zwei aufeinanderfolgende Taktbits bilden ein Datenbit, also ein eins oder null Signal. Zwei Flußwechsel bilden ein 1 Signal. Wenn ein Flußwechsel stattfindet, aber dannach die Polarität erhalten bleibt, so liegt ein 0 Signal vor.

Das MFM-Codierungsverfahren
Bei den MFM-Verfahren wurde die Taktfrequenz verdoppelt und damit auch die Datendichte. Verwendet wird dieses hauptsächlich in Disketten, früher auch in Festplatten in mitte der 80er. Zudem wurden die Anzahl der Flußwechsel reduziert und somit eine höhere Speicherkapazität realisiert. Hierbei stehen wie bei dem FM-Verfahren zwei Taktbits für ein Datenbit. Wenn diese 2 Taktbits keinen Flußwechsel aufweisen, so handelt es sich hierbei um ein null Signal. Wenn nur das zweite Taktbit ein Flußwechsel aufweist, so handelt es sich um ein eins Signal. Wenn Zwei null-Signal aufeinanderfolgen so weist das erste Taktbit des zweite null-Signals einen Flußwechsel auf, dies ist notwendig um unter den einzellnen Bitzellen zu unterscheiden.

Das RLL-Codierungsverfahren
Das RLL-Verfahren von IBM wurde seit dem späten 80er verwendet und löste somit das MFM-Verfahren ab. Durch dieses Verfahren können bis zu 50 % mehr Daten auf ein Medium gespeichert werden als zuvor und ist heute eins der verbreitesten Codierungsverfahren. Es haben sich 2 Varianten dieser Codierung durchgesetzt, RLL 1.7 und RLL 2.7. Im RLL Verfahren werden Bits zu den kleinsten und größten Gruppen zusammengefasst die zwischen zwei Flußwechsel sein dürfen und als Muster von Flußwechsel gespeichert. Bei den RLL-Typen gibt jeweils die erste Zahl die kleinste Anzahl und die zweite die größte Anzahl von Bitzellen an. Das RLL 1.7 ist gegenüber den RLL 2.7 für hochkapazitiven Laufwerke durch seine größere Speicherdichte und einen großeren Zeitfenster für die Erkennung von Flußwechsel geeigneter. Durch dieses Codierungsverfahren steht ein Bit nicht mehr für ein polarisiertes Partikel. Die gespeicherte Information wird mittels eines Algorithmus codiert und somit eine höhere Speicherkapazität erzielt. Heute wird das PRML (Partial Response Maximum Likehood) bzw. EPRML (Extended Partial Response Maximum Likehood) oder MEEPRML (Modified Extended Partial Response Maximum Likehood) Verfahren verwendet.
Das Perpendicular Aufzeichnungsverfahren
Bei allen bisherigen Aufzeichnungsverfahren wurden die einzellnen Magnetpartikel, die jeweils für eine Ein-Bit-Information stehen, horizontal und parallel zum Mittelpunkt, also zur Rotationsrichtung des Datenträgers aufgetragen. Diese werden bei den Perpendicular Verfahren senkrecht auf den Datenträger geschrieben. Darraus resultiert auf gleichgroßen Raum eine höhere Datendichte, damit eine Steigerung der Speicherkapazität (ca. um das 10-Fache), eine höhere Schreib bzw. Lesegeschwindigkeit, eine geringere benötigte Drehgeschwindigkeit und damit auch der Wärmeentwicklung. Der Nachteil diess Speicherverfahren liegt in seiner technischen Umsetzung. Der Abstand zwischen den Schreibe/Lesekopfes und der Datenträgeroberfläche muss geringer sein, weil der Lesekopf durch die senkrechte Anordnung tiefer in das Material hineinlesen muss. Diese Technik wurde bereits 1976 von einen Japanischen Professor entwickelt, 1980 erstmals bei einer 3,5 Zoll Diskette und 2005 in einer Festplatte von Toshiba erstmals verwendet. Horizontalbeschriebene Festplatten haben eine Maximale Datendichte von 150 GByte pro Quadratzoll was künftig durch das Perpendicularverfahren auf 500 GByte pro Quadratzoll erweitert werden kann, so könnte ein nur 3,5 Zoll Laufwerk ein Terabyte Speicherkapazität ermöglichen.

Vertreter: Das Magnetband
Das Magnetband wurde von BASF/IG/AIG von 1935 bis 1940 entwickelt. Es besteht aus einer Trägerfolie die auf Spulen aufgewickelt ist und einer Magnetisierbaren Schicht z.B. Eisenoxid, wobei Heute Vor- und Rückseite beschreibbar ist. Diese Spulen befinden sich meist in einer Kasette. Die Daten können durch zwei verschiedene Methoden auf das Band gespeichert werden. Bei den Start-Stopp-Verfahren werden die einzellnen Datenblocke getrennt durch unbeschriebene Berreiche auf das Band geschrieben. Diese Lücken sind notwendig weil die Infomationen nur mit einer bestimmten Geschwindigkeit am Schreibekopf auf das Band geschrieben werden können, diese unbeschriebenen Bereiche dienen also nur für die Beschleunigungsphase des Bands zwischen den einzellnen Datenblöcken. Die moderne Methode ist der sogenannte Streaming Mode. Bei diesen Modus läuft das Band durchgängig weiter, dadurch ist es weitaus schneller, platzsparender und Schonender für das Bandgerät. Aus den Magnetband

Diskette
1935 waren die Magnetbänder nach den Trommelspeicher 1932 die ersten Massenspeicher auf Magnetischer Basis, diese konnten auf ihre Informationen nur sequentiell zugreifen, d.h. die Daten konnten nur nacheinander ausgelesen werden wie sie gespeichert wurden. Anfang der 70er wurde die ersten acht-Zoll Disketten hergestellt und verwendet, die dahingegen ein Speichermedium mit wahlfreien Zugriff ist. Der Lese bzw. Schreibevorgang erfolgt durch einen Spindelmotor in dem Diskettenlaufwerk mit 360 Umdrehung pro Minute plus pro Seite einen Schreibe/Lesekopf. Die Heutigen üblichen Formate sind die 5,25 und die 3,5 Zoll Disketten.

Festplatte
Eine Festplatte ist ein Speichermedium mit wahlfreien Zugriff das aus 2 bis 8 Aluminiumplatten besteht, diese sind jeweils mit einer magnetisierbaren Schicht überzogen. Jede Platte hat pro Seite einen Schreibe/Lesekopf und einen Abstand von ca. 250 bis 650 Nanometer bei 3600 Umdrehungen pro Minute. Die Lebensdauer einer Festplatte liegt um die 10 Jahre, dabei liegt die Hauptgefahr bei Staub, Haar oder Rauchpartikeln die die Plattenoberfläche verunreinigen können oder einen Head-Crash, d.h. das der Lese/Schreibekopf Die Platte berüht. IBM stellte 1956 das erste Festplattenlaufwerk vor mit ca. Fünf Megabyte Speicherkapazität. 1978 wurde der Festplattencontrollerentwickelt und bereits 1979 wurden die ersten Festplatten vorgestellt bei denen eine Speicherkapazität von Fünf Megabyte für einen Preis von 10 000 DM erhältlich war. Ein MegaByte Speicher kostete 1980 300 DM und 2000 nur noch 0,015 DM. Am 4. Januar 2007 wurde von Hitachi auf der Consumer electronic Shows die erste Terabytefestplatte angekündigt.

Optische Speicherung:
Die optische Speicherung von Informationen erfolgt in digitaler Form. Die Datenträger von optischen Speichermedien bestehen aus einen Grundmaterial (z.b. Kunststoff) das mit einer Reflexionsschicht wie Metall überzogen ist, diese ist wiederum mit einer zusätzlichen Schutzschicht gesichert. Der Infomationsträger hierbei ist das unterschiedliche Reflexionsverhalten das durch Lands und Pits in der Reflexionsschicht hervorgerufen wird. In einer durchgehende Spur die von Innen nach außen spiralförmig verläuft sind die Information festgehalten und können durch den Laser ausgelesen werden. Pits sind die Vertiefungen, wodurch das Licht gestreut wird und damit eine schwache Lichtreflexion entsteht und Lands die unbehandelten Oberflächen die bewirken das das Licht stark reflektiert wird. Ein Laser tastet die Spur von innen nach außen ab, dabei wird er durch die zwei unterschiedlichen Oberflächenkonturen verschieden reflektiert. Diese zurückgeworfene Strahlen werden von einen Sensor(Fotodoide) registriert und in Bitwerte umgewandelt.
Die Compact Disk und die Die CD-ROM (Compact Disc – Read Only Memory)
Seit die erste CD 1979 (Einführung 1982) vorgestellt wurde ist sie heute eine der wichtigsten Speichermedien überhaupt. Ihre Speicherkapazität beträgt bis zu 650 Megabyte was ca. 74 Minuten Audiodaten enspricht. Eine CD besteht aus Fünf Schichten, Das Grundmaterial is eine Polycarbonatschicht, weitere sind eine Lichtempfindliche organische Farbstoffschicht, eine goldreflektierende Aluminiumschicht (bzw. Silber oder Goldschicht), eine Lackschicht und eine zusätzliche Schutzschicht. Je nach Verwendungszweck wurden verschiedene CD-Typen entwickelt, z.b. 1982 wurde die CD-DA, Mitte der 80er die CD-WORM, 1992 die Foto-CD, 1994 die CD-R und die CD-I, 1996 die CD-RW und 1997 die CD-MO eingeführt, jedoch is ihr Hauptvertreter die CD-ROM. Erst nach einen ganzen Jahrzehnt nach der CD-ROM wurden wiederbeschreibbare CD-Typen eingeführt, die wiederum neue CD-Typen hervorbrachten. Die CD löste ihre Vorgänger wie die Diskette ab und ist heute eine der wichtigsten Speichermedien überhaupt.
Die CD-ROM kann nur gelesen und nicht wieder beschrieben werden. Sie hat einen Durchmesser von Zwölf Zentimeter, in der Mitte eine Kreisöffnung mit einen Durchmesser von Fünfzehn Milimeter, ist 1.2 Milimeter dick und besitzt eine Speicherdichte von 1600 Spuren pro Zoll. Die Pits sind zwei Mikrometer lang, einen halben Mikrometer Breit und 0.11 Mikrometer Tief, dabei is die Spur in einzellne Sektoren unterteilt, die sogenannten Tracks.
Andere Vertreter: Die Laser Disk (LD)
Eine Laser Disk ist speziell für die Aufzeichnung von Videos und sind durch ihre hohe Qualität gekenntzeichnet. 1971 wurde die erste LD von MCA gebaut und 1978 in dem Markt eingeführt. Auf der Grundlage der Laserdisk entwickelte sich später 1979 die CD. Die LD gibt es in drei Formate: 30 cm, 20 cm oder 12 cm Durchmesser, wobei die die zwei größeren Formate beidseitig bespielbar sind.
Die Digital Versatile Disc(DVD)
Ist ein CD ähnliches Massenspeichermedium das anfangs auf Videodaten speziallisiert war, später aber auch für andere Daten genutzt werden konnte. Die DVD wurde 1996 eingeführt, wobei sie die Video CD bzw. die LD in Qualität und Speicherdichte übertraff. Bei der DVD wurde der Spurenabstand auf 0,74 Mikrometer sowie die Pits auf 0,4 Mikrometer reduziert. Um die Pits trotz dieser Dichte lesen zu können wurde die Wellenlänge des Abtastlasers ebenfalls veringert, so das die DVD eine bis zu 25 Fache Speicherkapazität einer CD erreichen kann. Die Informationen können auf 2 verschiedenen Ebenen je beidseitig beschrieben werden. Eine einfache Speicherschichtseite kann so ca. 4,7 Gigabyte und mit zwei beidseitigbeschriebenen Ebenen bis zu 17 Gigabyte speichern. Bis Heute haben sich mehrere verschiedene DVD-Typen hinsichtlich ihres Verwendungszweckes entwickelt wie z.B. DVD-Audio, DVD-Video, DVD-ROM, DVD-R, DVD-RW, DVD+RW oder die DVD+R. Die aktuelle Nachfolger der DVD ist die Blue-ray Disc und die High Density DVD seit 2006.
Die Holographic Versatile Disc (HVD)
Die zukünftige Generation von optischen Speichermedien nach der HD-DVD und der Blue-ray Disc sind die HVD’s. Bei dieser Form von Datenträger werden zwei Laser zum Lesen benötigt. Ein blau-grüner-Laser ließt die Daten als Interferenz-Muster im oberen Berreich des Datenträgers aus einer holografischen Schicht heraus. Der rote Laser hingegen ließt bestimmte Hilsinformationen aus einer gewöhnlichen Aluminiumschicht heraus die aus Segment, Sektor und Kopfinformationen bestehen und zur Orientierung dienen. Eine spezielle Spiegelschicht trennt die Hilfs und Holografischen Daten, wobei diese Trennschicht nur den blau-grünen Laser reflektiert und den roten zur Alumiumschicht durchlässt. So können die Holografischen Informationen getrennt von den Hilfsdaten gelesen werden wodurch ein Schutz von Interferenz ensteht, also ein Schutz vor Überlagerung der beiden Laserwellen. Durch diese Technik haben HVD’s eine Speicherkapazität von 3,9 Terabyte und übertrifft damit die bisher größte von 200 Gigabyte die die Blue-ray disc derzeit bietet. Auch die Transferrate der HVD übertrifft mit ein Gigabit pro Sekunde alles vorherige. Bei der CD beträgt diese 1,4, bei der DVD 10,8 und bei der Blue-ray Disc 36 Megabyte pro Sekunde.

Magneto Optische Speicherung
Wenn ein Permamentmagnet über eine bestimmte Temperatur erhitzt wird verliert er seine Magnetisierung, erlangt diese aber bei einer Abkühlung wieder. Diese Temperatur ist jeweils von Material abhängig und wird als Curie-Temperaturpunkt bezeichnet. In diesen erhietzen Zustand kann das Material die Polarisation eines in der nähe befindlichen Magnetfeldes annehmen. Bei dem Abkühlungsprozess erlangt das Material seine magnetischen Eigenschaften wieder, behält aber die Polarisation des angelegten Magnetischen Feldes. Bei dem Schreibvorgang von Magnetooptischen Datenträgern wird dieses Verfahren Punktuell mittels eines Lasers angewendet. Eine Speicherplatte mit einen Durchmesser von 5.25 Zoll (130 mm) kann so eine Speicherkapazität von 325 bis zu 16700 Megabyte, was jedeglich von der Sektorengröße abhängig ist, besitzten. Beim Lesevorgang wird ein weiterer Physikalischer Effekt genutzt. Wenn ein Linear polarisiertes Laserlicht auf eine Magnetisierte Oberfläche trifft, wird dieser elliptisch polarisiert zurückgeworfen, wie stark diese eliptische Drehung ausfällt hängt von den Magnetfeld des Materials ab. Durch einen Filter der nur polarisiertes Licht mit einer bestimmten Richtung durchlässt kann der reflektierte Laserstrahl ausgelesen werden. Endweder verläuft die Polarisationsrichtung in Richtung des Filters oder nicht, falls dies zutrifft kann eine eins interpretiert werden und anderfalls eine null. Der Datenträger besteht aus einer magnetisierbaren, z.B. Lanthaniodlegierung und einer optischen Reflexionsschicht. Durch das Magnet-Optische Speicherverfahren werden die Vorteile von optischen und magnetischen Speicherverfahren kombiniert. MO Speichermedien sind äußerst Robust, bis zu 100 Grad Celcius temperaturunempfindlich sowie gegen andere Magnetfelder resistent, lichtunentpfindlich und bis zu Zehnmillionenmal wiederbeschreibbar und kann ca. Eine Milliardemal gelesen werden. Sie besitzten eine hohe Speicherkapazität die durch die Steigerung der Datenträgergröße und Informationsdichte vergrößerbar ist. Seit 1991 sind die MO Datenträger auf dem Markt, konnten sich aber nicht gegen andere leichter zuhandhabende Speichermedien wie die CD durch ihre hohen Preise behaupten. Die Hauptvertreter dieser Speichertechnik ist die MiniDisk bzw. MO-Disk.
(4284 Wörter)
Inhalt
1Mechanische Speicherung
1.1 Historie, Funktion und Aufbau der Lochkarte

2Halbleiterspeicherung
2.1 Grundlagen: Halbleiter, Transistoren und Speicherformen
2.2 Schreibe/Lese Speicher RAM, SRAM und DRAM
2.3 Der Nur Lese Speicher ROM und Weiterentwicklungen PROM, EPROM, EEPROM und Flash-EEPROM

3 Magnetische Speicherung
3.1 Codierungsarten (FM/MFM/RLL)
3.2 Vertreter Magnetband, Diskette und die Festplatte

4 Optische Speicherung
4.1 Compact Disk und die CD-ROM
4.2 Andere Vertreter (LD/DVD/HVD)
4.3 Magneto-Optische Speicherung (4184 Wörter)
Hochgeladen
von unbekannt
Optionen
Facharbeit herunterladen: PDFPDF, Download als DOCDOC
  • Bewertung 4.2 von 5 auf Basis von 21 Stimmen
  • 1
  • 2
  • 3
  • 4
  • 5
4.2/5 Punkte (21 Votes)



Seite drucken | Melden
Kostenlos eine Frage an unsere Informatik-Experten stellen:

1 weitere Dokumente zum Thema "Festplatte"
72 Diskussionen zum Thema im Forum
Wenn du dieses Dokument verwendest, zitiere es bitte als: "Historie und technische Entwicklung der Wirkprinzipien der Speichermedien", https://e-hausaufgaben.de/Facharbeiten/D5663-Facharbeit-Informatik-Historie-und-technische-Entwicklung-der-Wirkprinzipien-der-Speichermedien.php, Abgerufen 29.03.2024 16:08 Uhr

Es handelt sich hier um einen fremden, nutzergenerierten Inhalt für den keine Haftung übernommen wird.
Download: PDFPDF, Download als DOCDOC
ÄHNLICHE DOKUMENTE:
  • Festplatten
    Referat über den Aufbau und die Funktionsweise einer Festplatte. - Mechanischer Aufbau - Fehlerkorrektur - Ansteuerung - Speed
  • mehr ...
PASSENDE FRAGEN: