CRN stellt vor: Intels neue Produkte und Pläne

Auf der Intel Vision präsentierte Chiphersteller Intel seine Vision des zukünftigen KI-Computing, in der Intel erfolgreich gegen Nvidia, AMD und andere Wettbewerber punkten will. Mit welchen CPUs, GPUs, Lösungen und Software Intel antritt, fasst CRN hier zusammen.

CEO Pat Gelsinger auf der Intel Vision 2024.

Image:
CEO Pat Gelsinger auf der Intel Vision 2024.

Auf der Veranstaltung in der vergangenen Woche skizzierte Intel-CEO Pat Gelsinger, wie er sich die Zukunft des KI-Computings vorstellt und warum sein Unternehmen eine tragende Rolle spielen wird. Dabei gab es natürlich auch reichlich Marketing-Tamtam.

"Jedes Unternehmen wird zu einem KI-Unternehmen werden. Gemeinsam werden wir die Macht Ihrer Daten entfesseln. Wir werden Ihre Produktivität beschleunigen. Wir werden Ihre Belegschaft befähigen. Wir werden den ROI Ihrer Technologieinvestitionen erheblich verbessern und sie gleichzeitig nachhaltiger und sicherer machen", so Gelsinger in seiner Keynote.

Mit dem steigenden Interesse an KI-Lösungen sieht der Intel-Chef große Veränderungen bei Intel. "KI macht alles so spannend, wie wir es noch nie erlebt haben. Gerade findet ein grundlegender Wandel der Computertechnik statt, der größte technologische Wandel seit dem Internet, und er wird jeden Aspekt unseres und Ihres Geschäfts umgestalten. Und mit KI als treibender Kraft wird der Halbleitermarkt von etwa 600 Milliarden Dollar bis zum Ende des Jahrzehnts auf mehr als eine Billion wachsen."

Gesingers Ansprache dauerte eineinhalb Stunden und schloss mit den Worten: "Gemeinsam mit Ihnen werden wir die Welt verändern - wieder einmal".

Im Folgenden stellt CRN Ihnen acht große Ankündigungen von der Intel Vision 2024 und ordnet sie ein:

Intel sagt, sein Gaudi 3 AI-Chip sei besser ist als der H100 von Nvidia und kündigt Markteinführung bei OEMs an

Der KI-Beschleunigerchip Gaudi 3 soll die die leistungsstarke H100-GPU von Nvidia beim Training großer Sprachmodelle übertreffen und beim Interferencing in einigen Fällen sogar bessere Leistung als die speicherreiche H200 des Konkurrenten bringen.

Auf der Intel Vision stellte Intel der konkrete Leistungsvergleiche an und präsentierte eine Referenzarchitektur, die sich auf Ethernet stützt, um Servercluster auf mehr als 8.000 Chips zu skalieren.

OEMs wie Dell, HPE, Lenovo und Supermicro werden Gaudi 3 und Unterstützung dafür schon bald kaufen können. Die luftgekühlte Version soll im dritten Quartal und die flüssigkeitsgekühlte vierten Quartal auf den Markt kommen.

Intel hofft darauf, dass Gaudi 3 (der Nachfolger von Gaudi 2 aus dem Jahr 2022) gegen Wettbewerber einen großen Schub geben wird. Der Konkurrent dominiert mit seinen Grafikprozessoren den Bereich der künstlichen Intelligenz (KI), hat vor kurzem Pläne für die Markteinführung von wesentlich leistungsfähigeren Nachfolgern der H100 und H200 im Laufe dieses Jahres auf der Grundlage seiner neuen Blackwell-Architektur angekündigt.

Auch IBM und Bosch sind (potenzielle) Abnehmer

Intel gab bekannt, dass eine wachsende Zahl von Kunden und Partnern, darunter IBM und Infosys, die Gaudi-KI-Chips für generative KI-Workloads erkunden oder bereits nutzen. Auf der Intel Vision nannte der Halbleiterriese 12 Unternehmen, die Gaudi -Beschleuniger zusammen mit anderen Produkten für generative AI-Workloads validieren, testen oder einsetzen.

IBM zum Beispiel verwende " Intel Xeon Prozessoren der 5. Generation für seine Watsonx.data-Datenspeicherlösung und arbeitet eng mit Intel zusammen, um die Watsonx-Plattform für Intel Gaudi Beschleuniger zu validieren", so Intel.

Bosch werde die Gaudi-KI-Chips voraussichtlich einsetzen, um "weitere Möglichkeiten für die intelligente Fertigung zu erforschen, einschließlich grundlegender Modelle, die synthetische Datensätze von Fertigungsanomalien erzeugen, um robuste, gleichmäßig verteilte Trainingssätze bereitzustellen", beispielsweise für die automatische optische Inspektion.

Zu den anderen großen Unternehmen, die Intels Gaudi-Bemühungen unterstützen, gehört der US-amerikanische Lebensmittel- und Getränkeriese IFF, der "GenAI und die Technologie des digitalen Zwillings nutzen wird, um einen integrierten digitalen Biologie-Workflow für fortschrittliches Enzymdesign und die Optimierung von Fermentationsprozessen einzurichten", so Intel.

Ebenfalls auf der der Liste steht, neben Infosys, auch Bharti Airtel Limited, ein in Indien beheimateter multinationaler Telekommunikationsdienstleister, der "die Leistung von Intels Spitzentechnologie mit reichhaltigen Telekommunikationsdaten kombinieren will, um seine KI-Fähigkeiten zu verbessern und die Erfahrungen seiner Kunden zu steigern".

Der südkoreanische Tech-Konzern Naver nutzt Gaudi, um "ein leistungsfähiges großes Sprachmodell für den weltweiten Einsatz fortschrittlicher KI-Dienste zu entwickeln - und das "von der Cloud bis zum Gerät". Laut Intel hat Naver "die grundlegenden Fähigkeiten von Intel Gaudi bei der Ausführung von Rechenoperationen für große Transformer-Modelle mit herausragender Leistung pro Watt bestätigt".

Die CtrlS Group, ein großer Anbieter von Rechenzentren und Manager-Services in Asien, arbeitet mit Intel zusammen, um einen KI-Supercomputer für Kunden in Indien zu bauen und die CtrlS-Cloud-Services für Indien mit zusätzlichen Gaudi-Clustern zu skalieren", so der Chiphersteller.

Die folgenden Unternehmen arbeiten laut Intel ebenfalls an Gaudi-basierten Lösungen:

Xeon 6 und die Überarbeitung der Server-CPUs

Wenn Intel in den kommenden Monaten seine nächste Welle von Xeon-Server-CPUs auf den Markt bringt, bedeutet dies nicht nur für die Marke eine große Veränderung, sondern auch für den Wettbewerb in den Märkten für Rechenzentren, Edge- und Cloud-Infrastrukturen. Auf der Intel Vision enthüllte der Halbleiterriese eine aktualisierten Markenamen für Xeon. Die neuen Server-CPUs heißen künftig nicht mehr Intel Xeon der 6. Generation, sondern einfach Intel Xeon 6. Die Generationsbezeichnung wird künftig entfallen. Und statt sich wie bisher auf einen einzigen Kerntyp für alle CPUs in der Produktreihe zu verlassen, wird die kommende Produktfamilie aus Prozessoren bestehen, die einen von zwei Kerntypen enthalten: einen Leistungskern (P-Kern) oder einen effizienten Kern (E-Kern).

Während die Xeon 6 Prozessoren mit P-Kernen auf Leistung für rechenintensive und KI-Arbeitslasten optimiert sind, sind die mit E-Kernen auf Effizienz für High-Density- und Scale-out-Arbeitslasten ausgerichtet. Die Entscheidung, die Xeon-CPUs in zwei Kerntypen aufzuteilen, zielt laut Intel darauf ab, "Flexibilität zu bieten, um die unterschiedlichen Effizienz- und Leistungsanforderungen von Unternehmen zu erfüllen".

Die Xeon 6-Prozessoren mit E-Kernen werden noch in diesem Quartal eingeführt, die Versionen mit P-Kernen sollen bald folgen. Diese Prozessoren, die früher den Codenamen Sierra Forest trugen, nutzen die Vorteile der E-Kerne, um eine "außergewöhnliche Effizienz" zu erzielen und "die Anzahl der Kerne sowohl für Intel als auch für die Branche auf ein neues Niveau zu heben".

Arbeit an offener KI-Plattform mit VMware, SAP und diversen ISVs

Die Entwicklung einer offenen KI-Plattform für Unternehmen ist Teil von Intels Bemühungen, Nvidia und seinen proprietären Software-Stack herauszufordern, der den GPU-Markt derzeit dominiert. "Die branchenweiten Bemühungen zielen darauf ab, offene, herstellerübergreifende GenAI-Systeme zu entwickeln, die durch Retrieval-Augmented Generation (RAG) klassenbeste Implementierungsfreundlichkeit, Leistung und Wert bieten", erklärte Intel.

Neben VMware, das zu Broadcom gehört, Red Hat, das zu IBM gehört, und SAP sind laut Intel auch mehrere unabhängige Softwareanbieter (ISVs) an der Initiative beteiligt. Dazu gehört auch Articul8, ein Startup, das Intel im Januar ausgegründet hatte und das eine "vollständige, vertikal optimierte und sichere generative Plattform für künstliche Intelligenz" anbietet. Weitere beteiligte ISVs sind Anyscale, DataStax, Domino, KX Systems, MariaDB, MinIO, Qdrant, Redis, Yellowbrick und Zilliz.

Zu Beginn will Intel "Referenzimplementierungen für GenKI-Pipelines auf sicheren Intel Xeon- und Gaudi-basierten Lösungen veröffentlichen, ein technisches konzeptionelles Rahmenwerk herausgeben und weiterhin Infrastrukturkapazitäten in der Intel Tiber Developer Cloud für die Entwicklung des Ökosystems und die Validierung von RAG und zukünftigen Pipelines bereitstellen".

Neue Dachmarke für Intels Software

Seine Softwarelösungen und Dienstleistungen für Cloud-, Edge-, KI- und Sicherheitsanwendungen will Intel unter einer Marke namens Tiber vereinten. Das Intel Tiber-Portfolio von Geschäftslösungen sei dazu gedacht, "die Bereitstellung von Unternehmenssoftware und -dienstleistungen zu rationalisieren", so Intel. .

Unter die Tiber-Marke fallen die kommerziellen Softwarelösungen und Dienstleistungen, die Intel in den letzten Jahren selbst eingeführt oder durch Startup-Akquisitionen erworben hat.

Folgende Softwarelösungen und Services werden neue Namen erhalten:

Lunar-Lake-CPU soll für KI-Leistungsschub sorgen

Intel gab bekannt, dass seine Lunar-Lake-CPUs der nächsten Generation für Laptops mehr als 100 Tera-Operationen pro Sekunde erreichen werden, wovon mehr als 45 von der neuronalen Verarbeitungseinheit (NPU) stammen.

Tera-Operationen pro Sekunde, abgekürzt TOPS, hat sich als primäre Methode zur Messung der allgemeinen Leistung eines Prozessors für KI-Arbeitslasten etabliert. Dies ist besonders wichtig für die NPU, die von Intel und seinen Konkurrenten als stromsparende Maschine entwickelt wurde, um CPU und GPU von einer Vielzahl von KI-Workloads zu entlasten und zu beschleunigen.

Die prognostizierten 100 oder mehr TOPS entsprechen der kombinierten Verarbeitungsleistung von CPU, GPU und NPU von Lunar Lake und würden eine deutliche Steigerung der KI-Leistung im Vergleich zur ersten Generation der Core Ultra Prozessoren mit dem Codenamen Meteor Lake bedeuten, von denen es hieß, dass sie insgesamt bis zu 34 TOPS liefern.

Intel geht davon aus, dass es in diesem Jahr 40 Millionen KI-PCs auszuliefern kann, dank der mehr als 230 Computerdesigns auf Grundlage der Core Ultra Prozessoren.

Lunar Lake soll noch in diesem Jahr mit einer "radikal neuen Low-Power-Architektur" auf den Markt kommen, die unter anderem die KI-Leistung der GPU und NPU mehr als verdreifacht, und laut Intel "KI-Leistung der nächsten Stufe" ermöglicht. Ebenfalls noch in diesem Jahr soll Arrow Lake, Intels ersten Reihe von Desktop-Prozessoren mit NPU, an den Start gehen.

CPUs und GPUs für Edge Computing

Intel kündigte neue Core- und Atom-CPUs sowie Arc-GPUs für Edge-Computing-Anwendungsfälle wie Einzelhandel, Fertigung und Gesundheitswesen an. Diese neuen Prozessoren sollen ab Ende Juni verfügbar sein und Intels Tiber Edge Platform unterstützen.

KI-fokussierte Ethernet-Lösungen wie AI NIC I

Intel wird eine Reihe von KI-optimierten Ethernet-Lösungen einzuführen, um den offenen Konnektivitätsstandard für verschiedene KI-Workloads zu unterstützen. Dazu gehören die Intel AI Network Interface Card (AI NIC) und Systeme, die Intels Gaudi Chips innerhalb der Produktdesigngruppen des Unternehmens verwenden. Dazu gehören auch KI-Konnektivitäts-Chips für die Integration in Chip-Designs sowie mehrere harte und weiche Referenz-KI-Interconnect-Designs für die Verwendung durch interne Design-Teams und externe Kunden mit Intel Foundry.

Intel berichtete, dass es die Produkte im Rahmen seiner Arbeit mit dem Ultra Ethernet Consortium einführen wird. Diese Gruppe hatte die Linux Foundation im vergangenen Jahr gegründet, um einen offenen "Ultra Ethernet"- Lösungsstack zu entwickeln, der den wachsenden Netzwerkanforderungen von KI und High-Performance-Computing-Workloads gerecht werden soll.