EQS-News: WEKA stellt WEKApod-GerÀte der nÀchsten Generation vor, die die Wirtschaftlichkeit von KI-Speichern neu definieren (deutsch)
19.11.2025 - 22:50:31WEKA stellt WEKApod-GerÀte der nÀchsten Generation vor, die die Wirtschaftlichkeit von KI-Speichern neu definieren
EQS-News: WEKA / Schlagwort(e): ProdukteinfĂŒhrung
WEKA stellt WEKApod-GerÀte der nÀchsten Generation vor, die die
Wirtschaftlichkeit von KI-Speichern neu definieren
19.11.2025 / 22:50 CET/CEST
FĂŒr den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
---------------------------------------------------------------------------
WEKApod Prime basiert auf AlloyFlash und bietet eine bahnbrechende
Kosteneffizienz mit einem um 65 % besseren Preis-Leistungs-VerhÀltnis.
WEKApod Nitro bietet eine beispiellose Leistungsdichte mit doppelt so hohen
Geschwindigkeiten fĂŒr anspruchsvolle KI-Workloads
ST. LOUIS und CAMPBELL, Kalifornien, 19. November 2025 /PRNewswire/ -- Von
SC25: WEKA, das KI-Speicherunternehmen, hat die nÀchste Generation seiner
WEKApod(TM)-GerĂ€te angekĂŒndigt, die den traditionellen Kompromiss zwischen
Leistung und Kosten auf den Kopf stellen sollen. Das komplett ĂŒberarbeitete
WEKApod-Prime-GerÀt erzielt eine um 65 % bessere Preis-Leistungs-Bilanz,
indem es Daten intelligent ĂŒber gemischte Flash-Konfigurationen verteilt und
so bahnbrechende Wirtschaftlichkeit ohne Kompromisse bietet. WEKApod Nitro
verdoppelt die Leistungsdichte mit aktualisierter Hardware und ermöglicht es
Unternehmen, Innovationen im Bereich KI und High-Performance-Computing (HPC)
zu beschleunigen, die GPU-Auslastung zu maximieren und mehr Kunden zu
bedienen. Durch sein Design mit höherer Dichte eignet es sich auch ideal fĂŒr
groĂe Objektspeicher-Repositorys und KI-Data-Lakes, die kompromisslose
Leistung erfordern.
WEKA Unveils Next-Gen WEKApod Appliances to Redefine AI Storage Economics
WEKApod-GerÀte sind die einfachste und schnellste Möglichkeit, NeuralMesh(TM)
von WEKA zu implementieren und zu skalieren, das weltweit einzige
Speichersystem, das speziell fĂŒr die Beschleunigung von KI in groĂem MaĂstab
entwickelt wurde. WEKApod bietet die softwaredefinierte FlexibilitÀt von
NeuralMesh in einsatzbereiten, vorab validierten Konfigurationen mit einem
deutlich verbesserten Setup-Dienstprogramm und Plug-and-Play-FunktionalitÀt.
Unternehmen können mit nur acht Servern beginnen und bei wachsenden
Bereitstellungen auf Hunderte skalieren, wodurch komplexe
Integrationsarbeiten entfallen und gleichzeitig auf den kompletten
Funktionsumfang von NeuralMesh zugegriffen werden kann - einschlieĂlich
verteilter Datensicherung, sofortiger Snapshots, Multi-Protokoll-Zugriff,
automatisierter Tiering, VerschlĂŒsselung und Hybrid-Cloud-Funktionen.
Die Krise der Infrastruktureffizienz
Unternehmen, die in KI-Infrastruktur investieren, stehen unter zunehmendem
Druck, den ROI nachzuweisen, da wertvolle GPU-Ressourcen nicht ausgelastet
sind, Trainingszyklen die ZeitplÀne verlÀngern, Inferenzkosten die Margen
auffressen und die Cloud-Rechnungen mit dem Datenwachstum in die Höhe
schnellen. Herkömmliche Speichersysteme zwingen sie zu einer unmöglichen
Wahl: extreme Leistung oder ĂŒberschaubare Kosten, aber nie beides.
Gleichzeitig bedeuten die EinschrÀnkungen von Rechenzentren - begrenzter
Rack-Platz, Strombudgets und KĂŒhlkapazitĂ€t -, dass jede Rack-Einheit mehr
Leistung liefern muss, da sonst die Infrastrukturkosten auĂer Kontrolle
geraten.
Die WEKApod-Familie der nÀchsten Generation geht diese geschÀftlichen
Herausforderungen direkt an. WEKApod Prime beseitigt den Zwang, zwischen
Leistung und Kosten abzuwÀgen, und bietet eine um 65 % bessere
Preis-Leistungs-Bilanz durch intelligente Datenplatzierung, die die
Platzierung automatisch anhand der Workload-Eigenschaften optimiert - so
wird sichergestellt, dass SchreibvorgÀnge ihre volle Leistung beibehalten
und gleichzeitig bahnbrechende Wirtschaftlichkeit erzielt wird.
Jetzt brauchen KI-Entwickler und Cloud-Anbieter keinen Kompromiss zwischen
Leistung und Kosten mehr einzugehen
WEKApod Prime: bietet einen einzigartigen Ansatz fĂŒr die
Mixed-Flash-Technologie, indem es TLC- und eTLC-Flash-Laufwerke intelligent
in Konfigurationen kombiniert, die bis zu 20 Laufwerke in einem 1U-Rack oder
40 Laufwerke in einer 2U-Rack-Konfiguration unterstĂŒtzen. Im Gegensatz zu
herkömmlichen mehrstufigen Speicherlösungen, die Cache-Hierarchien,
Datenbewegungen zwischen den Ebenen und EinbuĂen bei der
Schreibgeschwindigkeit mit sich bringen, bietet AlloyFlash von WEKApod eine
konsistente Leistung bei allen VorgĂ€ngen - einschlieĂlich voller
Schreibgeschwindigkeit ohne Drosselung - und erzielt dabei bahnbrechende
Wirtschaftlichkeit. Keine Kompromisse, keine EinbuĂen bei der
Schreibgeschwindigkeit, keine Cache-Hierarchien. WEKApod Prime wird bereits
von fĂŒhrenden Pionieren im Bereich der KI-Cloud wie dem Danish Centre for AI
Innovation (DCAI) eingesetzt.
Das Ergebnis ist eine auĂergewöhnliche Dichte, die direkt auf die
RessourcenbeschrÀnkungen von Rechenzentren eingeht: 4,6-mal bessere
KapazitÀtsdichte, 5-mal bessere Schreib-IOPS pro Rack-Einheit (im Vergleich
zur vorherigen Generation), 4-mal bessere Leistungsdichte bei 23.000 IOPS
pro kW (oder 1,6 PB pro kW) und 68 % weniger Stromverbrauch pro Terabyte bei
gleichbleibender extremer Leistung, die KI-Workloads erfordern. FĂŒr
schreibintensive KI-Workloads wie Training und Checkpointing bedeutet dies,
dass der Speicher ohne LeistungseinbuĂen Schritt hĂ€lt, die teure GPUs
wÀhrend kritischer VorgÀnge ungenutzt lassen können.
WEKApod Nitro: speziell fĂŒr KI-Fabriken mit Hunderten oder Tausenden von
Grafikprozessoren entwickelt wurde, bietet es eine doppelt so hohe Leistung
und ein 60 % besseres Preis-Leistungs-VerhÀltnis durch verbesserte Hardware,
darunter NVIDIA ConnectX-8 SuperNIC mit einem Durchsatz von 800 Gb/s und 20
TLC-Laufwerken in einem kompakten 1U-Formfaktor. Als schlĂŒsselfertige NVIDIA
DGX SuperPOD und NVIDIA Cloud Partner (NCP)-zertifizierte GerÀte ersparen
beide WEKApod-Konfigurationen wochenlange Integrationsarbeiten, sodass
Unternehmen Kundenservices innerhalb von Tagen statt Monaten auf den Markt
bringen können und gleichzeitig sicherstellen, dass die
Speicherinfrastruktur mit den Beschleunigern der nÀchsten Generation Schritt
hÀlt.
Messbare geschÀftliche Auswirkungen von KI-Implementierungen
* FĂŒr KI-Cloud-Anbieter und Neoclouds: Bedienen Sie mehr Kunden profitabel
mit Ihrer bestehenden Infrastruktur und halten Sie gleichzeitig
garantierte Leistungs-SLAs ein. Die Verbesserung des
Preis-Leistungs-VerhĂ€ltnisses um 65 % fĂŒhrt direkt zu höheren Margen fĂŒr
GPU-as-a-Service-Angebote. Schnellere Bereitstellungszeiten bedeuten
schnellere UmsĂ€tze fĂŒr neue Kunden.
* FĂŒr Unternehmen, die KI-Fabriken einrichten: Setzen Sie KI-Initiativen
innerhalb von Tagen statt Monaten um - mit schlĂŒsselfertigen Lösungen,
die komplexe Integrationsarbeiten ĂŒberflĂŒssig machen und es IT-Teams
ermöglichen, ohne spezielles Fachwissen eine Speicherleistung auf
Unternehmensniveau zu erzielen. Reduzieren Sie den Stromverbrauch durch
verbesserte Dichte und Effizienz um bis zu 68 % und skalieren Sie
gleichzeitig die KI-FĂ€higkeiten, ohne dass sich die Anforderungen an
Platzbedarf, Stromverbrauch oder KĂŒhlung im Rechenzentrum proportional
erhöhen - so erzielen Sie vom ersten Tag an einen messbaren ROI fĂŒr Ihre
Infrastruktur.
* FĂŒr KI-Entwickler und -Forscher: Beschleunigen Sie die Modellentwicklung
mit GPU-Auslastungsraten von mehr als 90 %. Reduzieren Sie die
Trainingszeit, um Iterationszyklen zu beschleunigen und sich einen
Wettbewerbsvorteil zu verschaffen. Senken Sie die Inferenzkosten, um
neue KI-Anwendungen wirtschaftlich rentabel zu machen. Beginnen Sie mit
nur acht Servern und skalieren Sie bei steigendem Bedarf auf Hunderte,
wobei alle NeuralMesh-Unternehmensfunktionen standardmĂ€Ăig enthalten
sind.
Anbieter von KI-Infrastrukturen sehen bereits direkte geschÀftliche
Auswirkungen dieser Innovationen:
"Platz und Strom sind die neuen Grenzen der Innovation in Rechenzentren. Die
auĂergewöhnliche Speicherdichte von WEKApod ermöglicht es uns, einen
Datendurchsatz und eine Effizienz auf Hyperscaler-Niveau bei optimiertem
Platzbedarf zu erzielen - und so mehr KI-Leistung pro Kilowatt und
Quadratmeter freizusetzen", sagte Nadia Carlsten, CEO des Danish Centre for
AI Innovation (DCAI). "Diese Effizienz verbessert direkt die
Wirtschaftlichkeit und beschleunigt die Bereitstellung von KI-Innovationen
fĂŒr unsere Kunden."
"KI-Investitionen mĂŒssen einen ROI nachweisen. WEKApod Prime bietet eine um
65 % bessere Preis-Leistungs-Bilanz ohne EinbuĂen bei der Geschwindigkeit,
wÀhrend WEKApod Nitro die Leistung verdoppelt, um die GPU-Auslastung zu
maximieren. Das Ergebnis: Schnellere Modellentwicklung, höherer
Inferenzdurchsatz und bessere Renditen fĂŒr Investitionen in Rechenleistung,
die sich direkt auf die RentabilitĂ€t und die MarkteinfĂŒhrungszeit
auswirken", so Ajay Singh, Chief Product Officer bei WEKA.
"Netzwerke sind fĂŒr die KI-Infrastruktur von entscheidender Bedeutung und
verwandeln KI-Rechen- und SpeicherkapazitÀten in eine Denkplattform, die
Token digitaler Intelligenz in groĂem MaĂstab generiert und bereitstellt",
sagte Kevin Deierling, Senior Vice President Networking bei NVIDIA. "Mit
NVIDIA Spectrum-X Ethernet und NVIDIA ConnectX-8-Netzwerken als Grundlage
fĂŒr WEKApod unterstĂŒtzt WEKA Unternehmen dabei, DatenengpĂ€sse zu beseitigen
- was fĂŒr die Optimierung der KI-Leistung von entscheidender Bedeutung ist."
VerfĂŒgbarkeit
WEKApod-GerĂ€te der nĂ€chsten Generation sind jetzt verfĂŒgbar. Organisationen
können mehr erfahren unter weka.io/wekapod oder WEKA auf der SuperComputing
2025, Stand Nr. 2215 besuchen.
Informationen zu WEKA
WEKA verÀndert die Art und Weise, wie Unternehmen KI-Workflows aufbauen,
betreiben und skalieren - mit NeuralMesh(TM) by WEKAÂź, seinem intelligenten,
adaptiven Mesh-Speichersystem. Im Gegensatz zu herkömmlichen
Dateninfrastrukturen, die mit steigender Arbeitslast langsamer und
anfÀlliger werden, wird NeuralMesh mit zunehmender Skalierung schneller,
leistungsfÀhiger und effizienter. Es passt sich dynamisch an KI-Umgebungen
an und bietet so eine flexible Grundlage fĂŒr Unternehmens-KI und
agentenbasierte KI-Innovationen. NeuralMesh genieĂt das Vertrauen von 30 %
der Fortune-50-Unternehmen und unterstĂŒtzt fĂŒhrende Unternehmen,
KI-Cloud-Anbieter und KI-Entwickler dabei, GPUs zu optimieren, KI schneller
zu skalieren und Innovationskosten zu senken. Erfahren Sie mehr auf
www.weka.io oder verbinden Sie sich mit uns bei LinkedIn und X.
WEKA und das W-Logo sind eingetragene Marken von WekaIO, Inc. Andere hier
genannte Markennamen können Marken der jeweiligen EigentĂŒmer sein.
WEKA: The Foundation for Enterprise AI
Foto -
https://mma.prnewswire.com/media/2825279/PR_Next_Gen_WEKAPod_launch_ID_3f30ac2ba733.jpg
Logo - https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg
Cision View original content:
https://www.prnewswire.com/de/pressemitteilungen/weka-stellt-wekapod-gerate-der-nachsten-generation-vor-die-die-wirtschaftlichkeit-von-ki-speichern-neu-definieren-302620908.html
---------------------------------------------------------------------------
19.11.2025 CET/CEST Veröffentlichung einer Corporate News/Finanznachricht,
ĂŒbermittelt durch EQS News - ein Service der EQS Group.
FĂŒr den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Die EQS Distributionsservices umfassen gesetzliche Meldepflichten, Corporate
News/Finanznachrichten und Pressemitteilungen.
Originalinhalt anzeigen:
https://eqs-news.com/?origin_id=bcf05a40-c591-11f0-be29-0694d9af22cf&lang=de
---------------------------------------------------------------------------
2232958 19.11.2025 CET/CEST

