News von DataCenter-Insider (https://www.datacenter-insider.de)
-
So funktioniert Megawatt-Kühlung für KI
KI-Anwendungen versprechen revolutionäre Vorteile. Aber ist die IT-Infrastruktur dafür schon bereit? Die Leistungsdichte für Anwendungen wie das Training und der Betrieb von Large Language Models (LLMs) wird die heute übliche konventionelle Luftkühlung schnell an ihre physikalischen und wirtschaftlichen Grenzen bringen. Daher steht ein radikaler Technologiewandel an, der das gesamte Rechenzentrum als System betreffen wird. Das Interview von Insider Research mit Martin Dörrich von Rittal liefert Einblicke.
-
Speicher-Performance für AI-, ML- und HPC-Workloads in Kombi mit OCI
Das Unternehmen Hammerspace implementiert auf der Oracle Cloud-Infrastucture (OCI) eine NAS-Architektur, die lokale NVMe-Speicher in Tier-0- und Tier-1-Cluster integriert. So ergeben sich quasi latenzfreie Datenzugriffe direkt auf GPU-Compute-Knoten.
-
Cloudian stellt S3‑kompatible KI‑Infrastruktur vor
Eine KI‑fähige Lösung für den hausinternen Einsatz (On-Prem) vereinfacht die Bereitstellung integrierter Plattformen für beschleunigte Rechen- und Speichernetzwerke in „S3“‑kompatiblen Enterprise‑Umgebungen – besonders wichtig für MSPs. Nutzbar sind ausschließlich firmeninterne Daten, und zum Einsatz kommt ein durch Air-Gap abgesichertes Sprachmodell (LLM).