- Anzeige -
- Anzeige -
Lesedauer: min
Open Source contra kommerzielle parallele Dateisysteme

Jan 6, 2020 | Technologie

 (Bild: ©peshkov/stock.adobe.com)

(Bild: ©peshkov/stock.adobe.com)

High-Performance Computing (HPC) und dessen Fähigkeit, große Datenmengen schnell zu speichern, zu verarbeiten und zu analysieren, treibt Innovationen voran. Da Unternehmen zunehmend auf neue Technologien wie künstliche Intelligenz (KI), maschinelles Lernen und Augmented Reality setzen, suchen sie nach leistungsfähigen Datenspeicherinfrastrukturen. HPC-Datenspeichersysteme basieren dabei auf parallelen Dateisystemen. Bei der Systemwahl können Unternehmen auf Open Source-Modelle oder kommerzielle parallele Dateisysteme zurückgreifen.

Anschaffungskosten – Was kann besser sein als kostenlos?

Open-Source-Produkte sind in aller Regel kostenlos für den Anwender – so auch bei bei parallelen Dateisystemen wie etwa Lustre oder BeeGFS. Unternehmensanwender können von einem solchen Systemen jedoch überfordert sein, da sie oftmals nicht die Handhabbarkeit und Benutzerfreundlichkeit bieten, wie die bestehende IT-Umgebung. Berücksichtigt man die Kosten für den zusätzlichen Personalbedarf zur Implementierung und Verwaltung eines parallelen Open-Spource-Dateisystems, sind mit der ‚kostenlosen‘ Anschaffung doch höhere Kosten verbunden. Kommerzielle parallele Dateisysteme werden als Plug-and-Play-Systeme geliefert, wodurch sich die Gesamtbetriebskosten in Grenzen halten. Darüber hinaus sind kommerzielle Systeme in der Lage, sich bei veränderten Workloads automatisch zu optimieren und neu anzupassen, was die Opportunitätskosten von Ausfallzeiten reduziert.

Individuelle Anpassung

Bei Open-Source-Dateisystemen können individuelle Codes implementiert werden und sie haben die Möglichkeit, die Funktionalität des Codes zu modifizieren, anzupassen und zu erweitern, um den spezifischen Arbeitsabläufen ihres Unternehmens gerecht zu werden. Aber sind Anwender auf der Suche nach Anpassbarkeit oder sehnen sie sich nach mehr Flexibilität? Wenn eine echte Anpassung erforderlich ist, sollten Unternehmensanwender die Art der Fähigkeiten und die Anzahl der Mitarbeiter einschätzen, die für eine erfolgreiche Anpassung und für den Support des Open-Source-Codes erforderlich sind. Ist Flexibilität das oberste Ziel, bieten wiederum kommerzielle Dateisysteme Anpassungsmöglichkeiten an sich ändernde Arbeitsabläufe, ohne Änderungen am Code vorzunehmen. Kommerzielle Dateisysteme mit industrietauglicher Hardware sind selbstoptimierende Systemlösungen, die speziell für Anpassungsfähigkeit und Flexibilität in einer Vielzahl von Anwendungsfällen entwickelt worden sind. Anwender können das System nach ihrem Workload-Bedarf konfigurieren, ohne dass einzelne Komponenten überdimensioniert werden. Die Skalierbarkeit der Systeme ist uneingeschränkt und Bandbreite, Kapazität und Metadatenleistung können unabhängig voneinander eingestellt werden.

Bild: Panasas, Inc.

Große Datensätze schnell erarbeiten

Kommerzielle Systeme haben zudem die bisherige Performance-Lücke bei Open Source geschlossen. Die Leistung von Dateisystemen mit Open Source ist vergleichbar mit kommerziellen portablen Dateisystemen, die die neueste Hardware- und Speichertechnologie nutzen. Die Fähigkeit, schnell und unterbrechungsfrei zu skalieren, ist wesentlich bei kommerziellen Anwendungen, um auf Kurs zu bleiben und anspruchsvolle Markteinführungs-Zeitpläne einzuhalten. Die Verarbeitung größerer Datensätze mit hoher Genauigkeit bei gleichzeitiger Verarbeitung Tausender I/O-Operationen ist ein Muss beim Einsatz von High-End-Computing im kommerziellen Bereich. Beispiele dafür sind Simulation und Analyse mit computergestütztem Engineering (CAE), Energieerkundung und Medikamentenentwicklung sowie neu entstehende Arbeitsbereiche wie KI und autonomes Fahren. Die Leistung wird optimiert und bleibt zuverlässig, wenn Soft- und Hardware zuvor abgestimmt werden, sodass sich das System automatisch an die steigende Komplexität anpassen kann. Dies ist der Fall bei portablen kommerziellen parallelen Dateisystemen, die für vorqualifizierte Standard-Hardwarekomponenten optimiert wurden und darauf abgestimmt sind. Open-Source-Dateisystemen kommt nicht die gleichen nahtlose Integration zugute, da sie oft tiefgreifende Kenntnisse über die Funktionsweise des Speichersystems erfordern, um es auf die maximale Leistung und Bandbreitennutzung abzustimmen und laufend neu einzustellen, die von verschiedenen Workloads benötigt werden.

Systemwartung – Was braucht es, damit die Dinge zuverlässig laufen?

In der schnelllebigen Welt von High Performance Computing nehmen Anwender immer wieder neue und komplexe Projekte in Angriff. Datenspeicherung ist dabei eine wesentliche Komponente, um geschäftskritische Arbeitsergebnisse zu erreichen. Lösungen sind zudem einfach zu implementieren und zu skalieren. Es entsteht ein sich selbst verwaltendes System, in dem alle typischen Wartungsabläufe und die Datensicherheit automatisiert werden, wodurch Ausfallzeiten oder die Gefahr von Datenverlusten gesenkt wird. Kommerzielle Dateisysteme beherrschen diesen automatisierten Betrieb, während viele Open-Source-Lösungen einer täglichen Speicherverwaltung und -wartung bedürfen. Der Bedarf an leistungsfähiger Datenspeicher-Infrastruktur ist auf Unternehmensseite nicht zu unterschätzen. Die enormen Datenmengen, die beispielsweise durch KI-Technologien generiert werden, wachsen immer weiter an. HPC-Datenspeichersysteme – egal ob kommerziell oder Open Source – ermöglichen die Nutzung dieser Technologien. Bei der Wahl des Systems sollte dabei nicht nur der Kostenfaktor eine Rolle spielen, sondern auch geprüft werden, welcher Aufwand mit der Implementierung eines entsprechenden Systems verbunden ist.

Autor:
Firma:
- Anzeige -

News

Weitere Beiträge

Das könnte Sie auch interessieren

Erste marktreife KI-Anwendung für Lackierereien

Advanced Analytics von Dürr ist die erste marktreife KI-Anwendung für Lackieranlagen. Die intelligente Lösung, die neueste IT-Technologie mit Maschinenbaukompetenz kombiniert, identifiziert Fehlerquellen und ermittelt optimale Wartungszeitpunkte. Zudem spürt sie bislang unbekannte Zusammenhänge auf und passt mit diesem Wissen selbstlernend den Algorithmus an der Anlage an. Erste Praxiseinsätze belegen, dass die Software von Dürr die Anlagenverfügbarkeit und die Oberflächenqualität lackierter Karosserien optimiert.

mehr lesen

Künstliche Intelligenz – zwischen Hype und Realität

Das Thema künstliche Intelligenz (KI) ist aus der aktuellen Debatte um Zukunftstechnologien nicht wegzudenken. Prof. Markus Kaiser, Professor für praktischen Journalismus an der TH Nürnberg, organisiert im Sommersemester 2020 eine Ringvorlesung zum Thema ‚künstliche Intelligenz‘. Expertinnen und Experten aus Wirtschaft und Forschung erläutern an fünf Abenden die Chancen und Folgen von neuen Technologien. Alle Interessierten sind herzlich willkommen.

mehr lesen

Fraunhofer IAO untersucht Potenziale und Einsatz von KI in Unternehmen

Wie kommt künstliche Intelligenz (KI) in der Unternehmenspraxis an? Welche Potenziale versprechen sich Unternehmen davon, welche Auswirkungen erhoffen und fürchten sie und wo werden KI-Technologien schon in der Praxis eingesetzt? Diese und weitere Fragen zu den Potenzialen und Auswirkungen von KI hat das Fraunhofer IAO auf Basis einer Befragung untersucht. Die resultierende Publikation ‚Künstliche Intelligenz in der Unternehmenspraxis‘ ist ab sofort kostenlos erhältlich

mehr lesen

Studie: Künstliche Intelligenz in der öffentlichen Verwaltung

Was ist künstliche Intelligenz und wie wird sie in den kommenden Jahren die Organisation und Arbeitsweisen der öffentlichen Verwaltung verändern? Das Fraunhofer IAO sowie die Zeppelin Universität haben im Auftrag der Digitalakademie@bw diese Fragestellung untersucht. Die jetzt vorliegende Studie liefert einen Überblick der Fähigkeiten und Einsatzmöglichkeiten von KI im öffentlichen Sektor.

mehr lesen

Förderung für die KI-Forschung der Technomathematik

Künstliche Intelligenz (KI) ist zurzeit einer der dynamischsten Forschungs- und Wirtschaftsbereiche. Ob es um Sprachassistenzsysteme, Krebsdiagnose oder Autonomes Fahren geht – eine korrekte und leistungsfähige mathematische Basis ist stets die Voraussetzung für neue KI-Lösungen. Die Expertise dafür kommt auch aus der Universität Bremen: Das Zentrum für Technomathematik erhält jetzt zwei Millionen Euro, um in mehreren Projekten als wissenschaftlicher Partner neue KI-Anwendungen zu realisieren.

mehr lesen

Schutz der Privatsphäre und KI in Kommunikationssystemen

Alle zwei Jahre vergeben der VDE, die Deutsche Telekom sowie die Städte Friedrichsdorf und Gelnhausen den mit 10.000 Euro dotierten Johann-Philipp-Reis-Preis an einen Nachwuchswissenschaftler. Dieses Jahr geht er an Prof. Dr.-Ing. Delphine Reinhardt von der Georg-August-Universität Göttingen und an Dr.-Ing. Jakob Hoydis von den Nokia Bell Labs in Nozay, Frankreich. Die beiden Preisträger teilen sich die Auszeichnung und damit das Preisgeld.

Infor bringt Infor Coleman AI auf den Markt

Infor, Anbieter von branchenspezifischer Business-Software für die Cloud, hat bekanntgegeben, dass die Plattform Infor Coleman AI für Embedded-Machine-Learning-Modelle ab sofort verfügbar ist. Sie bietet die Geschwindigkeit, Wiederholbarkeit und Personalisierung, die Unternehmen benötigen, um KI vollständig zu operationalisieren.