Definition Was ist der Amazon Simple Storage Service oder S3 (AWS S3)?
Seit der Einführung des AWS-Webspeicherservices S3 hat sich die S3-Schnittstelle als ein Industriestandard der Datenspeicherung im Web etabliert. Immer mehr Hersteller bieten inzwischen Speicherprodukte mit einer S3-Schnittstelle an.
Anbieter zum Thema

Die Erfolge von Amazon mit dem hauseigenen Speicherdienst S3 („Simple Storage Service“) sind unübersehbar. So verdoppelte sich zwischen dem dritten Quartal 2014 und dem dritten Quartal 2015 der Datentransfer von AWS S3. In Zahlen ausgedrückt: Die Kunden speicherten in diesem Zeitraum Billionen von Objekten.
Angesichts dieses Wachstums hat sich die S3-Schnittstelle ähnlich wie Windows zu einem De-facto- oder auch Industriestandard entwickelt. Und die Digitalisierung sorgt dafür, dass der Bedarf nach global nutzbarer Speicherkapazität und einer einfach nutzbaren Zugriffsmethode nicht abreißt.
Globaler Speicherservice
AWS hat die Technologie hinter S3 selbst entwickelt. Der Internetdienst brauchte eine Speicherschnittstelle und eine Technologie, die für einen weltweit verfügbaren Speicherservice aus dem Internet taugte. Bekannte Transportprotokolle wie SMB/CIFS, NFS, FC oder FTP eigneten sich nicht dafür. Der Grund dafür ist einfach erklärt, da niemand bis zu diesem Zeitpunkt ein Bedürfnis nach weltweiter Replikation oder weltweit erreichbaren Fileshares hatte:
- NFS (Network File System) und CIFS wurde für Arbeitsgruppen entwickelt. Deshalb stoße der Dienst bei zu vielen Teilnehmern schnell an Grenzen.
- Bei Fibre Channel scheitere die Übertragung übers Web schon allein an den engen Latenzzeiten, die sehr sinnvoll für die Aufgaben sind, für die das Protokoll konzipiert ist: die zuverlässige Datenlieferung aus Inhouse-SANs an Server mit unterschiedlichen Applikationen, darunter auch solchen, die zeitkritische Transaktionen abwickeln.
- FTP sei sehr umständlich zu konfigurieren.
Wer im Web arbeitet, muss die spezifischen Bedingungen einer verteilten, globalen Infrastruktur berücksichtigen. Und da ist „http“ ähnlich wie TCP/IP das einzige Protokoll, das zuverlässig nicht in der Firewall hängenbleibt – weil sonst die gesamte Web-Kommunikation nicht funktioniert.
Mit S3 wurde ein Service entwickelt, der http spricht und das Firewall-Problem umgeht. Wie http verwendet S3 die Befehle Get (für den Download) und Put (für den Upload). Zudem erhält jedes Speicherobjekt eine http-Adresse genau wie Webseiten.
Globale Trittbrettfahrer
AWS ist hinsichtlich seiner Schnittstelle offen – man findet sie inzwischen an zahlreichen Speichersystemen und Softwarelösungen, die spezifische Speicher- und Zugriffsaufgaben erfüllen sollen. Beispielsweise
- hat Filer-Spezialist Netapp S3 im Programm,
- ermöglicht Oracle das RMON-Backup über S3,
- hat Hitachi seine Content-Plattform (HCP) mit S3 ausgerüstet,
- ermöglicht Panzura, ein Softwarespezialist für die gemeinsame Bearbeitung großer Dateien im Web, ebenfalls die S3-Nutzung,
- rüstet Riverbed sein Cloud-Storage-Gateway mit S3 aus,
- bietet Festplattenhersteller WD/HGST in seinem von Amplidata zugekauften Speicherprodukt Active Archive SA7000 seit neuestem mehr als 5 Petabyte S3-Speicher in einem Rack an,
- und sind EMCs Datalakes auf Isilon-Basis seit dem neuesten Release des Betriebssystems One FS 8.0 ebenfalls mit S3-Fähigkeit ausgestattet.
Motor dieser Entwicklung ist der Wunsch vieler Anwender, hybride Clouds aufzubauen, die einerseits auf Public-Cloud-Services (wie eben S3) zugreifen, andererseits Private-Cloud-Anteile direkt im Unternehmen haben.
Übereinstimmend glauben Marktforscher, dass dieses Konzept die Unternehmens-IT in den kommenden Jahren dominieren wird. Da können auch etablierte Speicheranbieter nicht außen vor bleiben.
Geo-Dislokation verspricht Datenverfügbarkeit
Eher verschlossen gibt sich Amazon hinsichtlich seiner RZ- und Systemarchitektur. Der Dienstleister hat seine Rechenzentrumsstandorte in geografische Zonen aufgeteilt. Daten werden grundsätzlich in mehreren Zonen redundant gehalten, hinzu kommt die Redundanz innerhalb des Rechenzentrums.
Insgesamt werden alle Daten auf mehrere Server so verteilt, dass im Regelfall weder der Ausfall eines Rechenzentrums noch der Ausfall eines Servers zu Datenverlusten führen können: Der verlorene Datenbestand eines zerstörten Servers oder Rechenzentrums lässt sich aus den an den übrigen Orten gehaltenen Daten schnellstens wieder aufbauen.
So kommt es, dass AWS S3 hinsichtlich des Nichtverlustes von Objekten in seinem Standardspeicherdienst eine Datenbeständigkeit von sagenhaften elf Neunen (99,999999999 Prozent) garantiert. Das bedeutet, dass rein statistisch bei zehntausend gespeicherten Objekten nur alle zehn Millionen Jahre eines verloren gehen könnte. Die Verfügbarkeit der Infrastruktur ist dagegen nur mit mageren vier Neunen (99,99 Prozent) gewährleistet.
Im Gitter speichern
Aufbau und Speicherverfahren entsprechen den Prinzipien des sogenannten Grid Storage, wie sie von diversen Start-ups bei den Speichermessen der vergangenen Jahre immer wieder vorgeführt wurden. Die Basistechnologie wird angeblich inzwischen von Amazon selbst entwickelt.
Hinsichtlich der verfügbaren Speicherklassen hat S3 sein Angebot im Lauf der Jahre immer weiter ausdifferenziert. Aktuelle Neuerung (seit Herbst 2015) ist die Klasse S3-IA (Infrequent Access) für große Datenmengen, die selten angefragt werden. Sie eignet besonders für Backup-Bedürfnisse von Anwendern, die eine Offsite-Lagerung wichtiger Daten benötigen.
(ID:44679443)