Intel stellt AI-Cloud mit Gaudi 3-Chips und Inflection AI-Partnerschaft vor

Der Trend bei KI geht zur Private Cloud, daher verbündet sich Intel mit Inflection AI. Intels neue KI-Lösung ist auf der Intel Tiber AI Cloud verfügbar, nächstes Jahr wird sie als Server-Appliance erhältlich sein.

Intels Gaudi 3 soll ein besseres Preis-Leistungs-Verhältnis aufweisen als H100 von Nvidia

Intel gab am Montag bekannt, dass es einen KI-Cloud-Service mit seinen neuen Gaudi 3-Beschleunigerchips gestartet hat und damit eine neue KI-Lösung für Unternehmen mit Hybrid-Cloud-Funktionen des generativen KI-Startups Inflection AI unterstützen wird.

Der nun erweiterte Service "Intel Tiber AI Cloud" wird seit Oktober so genannt, er startete vor einem Jahr unter der Bezeichnung Intel Developer Cloud. Ziel war und ist es: Kunden und Partnern einen frühen Zugang zu neuen Intel-Chips wie Gaudi 3 und Xeon 6 für Entwicklungszwecke zu ermöglichen.

Mit Intel iber AI Cloud erweitert der Chiphersteller den Anwendungsbereich des Dienstes auf Cloud-Instanzen auf Produktionsebene, die für kommerzielle Zwecke genutzt werden können. Zu den Kunden, auf die Intel abzielt, gehören große KI-Startups und Unternehmen. Zusätzlich zu den Gaudi 3-Instanzen bietet der Service laut Intel auch Instanzen, die von Gaudi 2-Chips, Xeon-CPUs, Core Ultra 200V-CPUs und Max Series GPUs betrieben werden.

Der KI-Cloud-Service hat für Intel zwei Prioritäten: das Interesse an den Preis-Leistungs-Vorteilen der kürzlich eingeführten Gaudi 3-Beschleunigerchips zu wecken und neue wiederkehrende Software- und Service-Umsatzmöglichkeiten zu schaffen.

Die Intel Tiber AI Cloud wird von Markus Flierl geleitet. Der Deutsche war einem Oracle- und Sun Microsystems-Veteran, der 2018 zu Nvidia wechselte und Leiter der GPU-Cloud-Infrastruktur war. 2022 holte ihn Intel, um als Corporate Vice President die Leitung der Intel Tiber AI Cloud zu übernehmen.

Intel holte Markus Flierl von Nividia und machte den deutschen Manager zum Leiter seiner Tiber AI Cloud

Mit diesem Schritt konkurriert Intel in gewissem Maße mit Cloud-Service-Anbietern, die von großen Playern wie Amazon Web Services bis hin zu Start-ups wie CoreWeave reichen. Flierl sagte in einem Interview mit CRN, dass Intel sich dazu entschlossen habe, "ein kommerzielles Cloud-KI-Angebot als Reaktion auf die Nachfrage zu schaffen, die wir von unseren Kunden sehen". Er fügte hinzu, dass das Unternehmen keine Ambitionen auf dem Cloud-Markt habe, die über KI-Computing hinausgehen. "Der Wettbewerb mit AWS steht nicht im Mittelpunkt", sagte er.

Ferner betonte der Manager, dass der erweiterte Anwendungsbereich von Intel Tiber AI Cloud dem Unternehmen auch eine zusätzliche Einnahmequelle über die zahlenden Kunden hinaus verschaffe, die den Dienst für Entwicklungszwecke nutzen. Außerdem könne Intel auf diese Weise besser Beziehungen zu seinen Kunden aufbauen.

"Wenn ich einfach ein paar kostenlose Mittagessen an Leute verteile, ist das einfach, aber mögen die Leute das Mittagessen überhaupt? Die Einbeziehung des kommerziellen Aspekts hilft uns dabei, herauszufinden, was den Kunden wichtig ist. Das hebt diese Diskussion wirklich an", sagte er.

Intel Tiber AI Cloud ermögliche dem Chiphersteller eine direktere Zusammenarbeit mit den Kunden, als es normalerweise der Fall wäre, da das Unternehmen in der Regel auf Partner angewiesen wäre, um seine Chips auf verschiedene Arten auf den Markt zu bringen, von PCs und Servern bis hin zu Cloud-Diensten, so Flierl. "Das ist sehr wertvoll für uns".

Mit Rechenzentren in Oregon, Arizona und Ohio sieht Flierl in der Intel Tiber AI Cloud eine "riesige Chance" und sagt, dass es "eine große Nachfrage" nach solchen Lösungen gibt.

Auf die Frage, ob Intel plane, Intel Tiber AI Cloud über Channel-Partner zu verkaufen, sagte Flierl, Intel prüfe die Zusammenarbeit mit anderen unabhängigen Softwareanbietern und Kunden, um Lösungen wie das neue Produkt von Inflection AI anzubieten.

Intel arbeitet mit Inflection AI an einer KI-Lösung für Unternehmen

Gleichzeitig mit dem Start der Intel Tiber AI Cloud kündigte der Halbleiterriese eine Partnerschaft mit Inflection AI für eine neue KI-Lösung an, die über seinen Cloud-Service verfügbar ist und Anfang nächsten Jahres als Server-Appliance erhältlich sein wird.

Die "Inflection for Enterprise" genannte Lösung wird von Intels neuen Gaudi 3 Prozessoren angetrieben und soll "einfühlsame, konversationelle, mitarbeiterfreundliche KI-Funktionen liefern und die Kontrolle, Anpassung und Skalierbarkeit bieten, die für komplexe, groß angelegte Implementierungen erforderlich sind", so die beiden Unternehmen.

Flierl zurfolge prüft Intel die Möglichkeit, Inflection for Enterprise über die Channel-Partner des Chip-Herstellers zu verkaufen.

Inflection AI gehört zu einer ganzen Reihe von generativen KI-Startups, deren Gründer und Mitarbeiter in diesem Jahr von Tech-Giganten abgeworben wurden, um auf dem hart umkämpften KI-Markt die Oberhand zu gewinnen. Ein Grund dafür: Westliche Regulierungsbehörden nehmen die Verbindungen zwischen kleinen und großen Unternehmen genau unter die Lupe.

Im März stellte Microsoft den CEO von Inflection AI, Mustafa Suleyman, und seine Mitbegründer ein, um Copilot und andere KI-Pilotprojekte für Verbraucher zu verbessern, was das Startup dazu veranlasste, ein neues Führungsteam aufzustellen und sich auf kommerzielle KI-Lösungen zu konzentrieren.

Sensible Unternehmensdaten in die Private Cloud

Ted Shelton, COO des neuen Führungsteams von Inflection, erklärte gegenüber CRN, dass das Unternehmen plane, Inflection for Enterprise in drei Varianten anzubieten: Public Cloud, Private Cloud und On-Premises.

Die Entscheidung, Private-Cloud- und On-Premises-Versionen anzubieten, basiert auf dem Feedback von Unternehmen, darunter Intel, die laut Shelton aus Gründen der Vertraulichkeit nicht alle ihre KI-Anwendungen in der Cloud betreiben wollen. (Intel sagte, dass es voraussichtlich Inflection for Enterprise als Kunde nutzen wird).

"Unsere Ansicht ist, dass es tatsächlich eine Rolle spielt, nicht in der Cloud zu arbeiten, sondern in der Lage zu sein, Daten in eigenen privaten Rechenumgebung zu haben. Mit unserem Inflection for Enterprise AI-System liefern wir genau das", so Shelton.

In der Private-Cloud-Version wird Inflection for Enterprise auf Cloud-Instanzen laufen, die laut Flierl von der restlichen Cloud-Infrastruktur von Intel "vollständig abgekoppelt" sind.

Diese privaten Cloud-Instanzen werden über das Netzwerk des Kunden zugänglich sein, wodurch der Kunde die Kontrolle über die Maschine und die darauf laufende Software erhält, so Shelton weiter. Er verglich diesen Ansatz mit den Unternehmensangeboten von OpenAI oder Anthropic, bei denen es sich im Wesentlichen um verwaltete Dienste handelt.

"Der Vorteil für den Kunden liegt in diesem Fall wirklich in der Sicherheit und der Kontrolle über seine Rechenumgebung", betont Shelton.

Für die On-Premises-Version plant Inflection AI die Markteinführung seiner Server-Appliance im ersten Quartal 2025, aber das Unternehmen ist noch nicht bereit, bekannt zu geben, mit welchen OEMs es zusammenarbeitet.

Laut Shelton ist Inflection AI davon überzeugt, dass es der richtige Ansatz sei, den Kunden dieses Maß an Flexibilität auf der Infrastrukturebene zu bieten. Das Startup geht nämlich davon aus, dass die meisten Unternehmen ein bestimmtes Maß an Rechenleistung benötigen, das sie für Inferenzzwecke "auf dedizierter Basis kontrollieren wollen", das sie jedoch für die Feinabstimmung der KI-Modelle, die ihren Anwendungen zugrunde liegen, vorübergehend hochskalieren müssen.

"Dies ist einer der wichtigsten zusätzlichen Vorteile unseres Ansatzes: Wenn ein Kunde sein eigenes KI-System besitzt, kann er wesentliche Anpassungen und Änderungen vornehmen, die für sein Unternehmen geeignet sind", sagte er.

Preis-Leistung: Intel Gaudi 3 besser als H100 von Nvidia

Inflection AI entschied sich für Intels Gaudi 3-Chips für das Inflection 3.0-System, das der Unternehmenslösung zugrunde liegt, nachdem zuvor Nvidia-GPUs für den auf Verbraucher ausgerichteten KI-Assistenten Pi verwendet wurden. Shelton sagte, der Hauptgrund dafür sei der "Preis-Leistungs-Unterschied" der Gaudi 3-Chips, die laut Intel eine bis zu zweimal bessere Leistung als die H100-GPUs von Nvidia bieten.

"Wir haben erkannt, dass die Kosten eine wichtige Rolle spielen, wenn wir den Unternehmen ein Produkt anbieten wollen, das sie selbst kaufen und betreiben können. Aber wir wollten auch sicherstellen, dass wir uns für einen Partner entscheiden, der in den Unternehmen anerkannt und respektiert wird", sagte er.