CEO Raghu Raghuram über VMwares KI-Strategie und wie sich Partner auf die Nach-Broadcom-Ära vorbereiten sollten
Der CEO von VMWare über die neu gegründete Private AI Foundation des Anbieters und ihre Bedeutung für den Channel. Weitere Innovationen und wie es nach der Broadcom-Übernahme mit dem VMware-Channel weitergeht. Alles im CRN-Interview
VMware-CEO Raghu Raghuram sagte, dass der Anbieter die Tür für Kunden öffnet, um die Macht der generativen KI mit einem bahnbrechenden neuen Angebot, VMware Private AI Foundation, in Partnerschaft mit dem KI-Powerhouse Nvidia nutzbar zu machen "Es wird natürlich die Nvidia-GPUs haben, aber wir werden darauf aufbauen und sagen: ‘Schauen Sie, was müssen wir noch bauen, damit Kunden diese Sprachmodelle auf einer VMware Cloud Foundation-Architektur ausführen können?'", so Raghuram.
"Und wie können wir mit Hilfe der KI-Software von Nvidia und unserer KI-Hardware eine Appliance entwickeln, die mit Dell, Lenovo, HPE und anderen zusammenarbeiten kann, damit die Kunden sie überall einsetzen können?"
Raghuram äußerte sich in einem Interview mit CRN USA auf der VMware Explore-Konferenz, die vergangene Woche in Las Vegas stattfand. Partner können VMware Private AI Foundation vor Ort, im Rechenzentrum, am Edge und sogar in der öffentlichen Cloud einsetzen. "Es könnte auch in der öffentlichen Cloud eingesetzt werden, da Ihre Daten überall verteilt sind, in ihren privaten und öffentlichen Cloud, usw.", sagte er.
Die VMware Private AI Foundation basiert auf dem Konzept der "privaten KI", das sich auf die Notwendigkeit für Kunden konzentriert, ihre Daten und ihr geistiges Eigentum zu schützen, sagte Raghuram. "Wenn man über Wissen nachdenkt, mit dem sich Unternehmen differenzieren, ist es ihr zentrales geistiges Eigentum", sagte er. "Wenn ich also mein geistiges Eigentum in ein beliebiges Allzweck-Sprachmodell einsetze, wie funktioniert das dann?"
VMware ist auch dabei, generative KI in jedes einzelne seiner Produkte mit einer Familie intelligenter Assistenzprodukte einzubringen. Zu seinen Plänen nach der Broadcom-Übernahme vertröstete Raghuram, ein 20-jähriger VMware-Veteran, CRN. "Die Keynote wäre nicht der richtige Ort gewesen, um darüber zu sprechen, wer das Sagen haben wird", sagte er.
Broadcom teilte vor kurzem mit, dass es die gesetzlich vorgeschriebene Zeit abgewartet hat, in der die Federal Trade Commission Einwände gegen die im Mai 2022 erstmals vorgeschlagene 61-Milliarden-Dollar-Transaktion erhoben hat. Die US-Regulierungsbehörde war seit Juli 2022 in eine zweite Untersuchung des Geschäfts involviert, gab aber zunächst keinen Kommentar ab, als sie von CRN kontaktiert wurde. Nun sagte Broadcom, falls keine Einwände erhoben werden, wird das Geschäft am 30. Oktober abgeschlossen.
Nachfolgend finden Sie eine bearbeitete Fassung des Gesprächs mit VMware-CEO Raghu Raghuram.
Lesen Sie weiter VMwares Haltung zu generativer KI, Ankündigungen zur Cloud-Infrastruktur und Entwicklungen im Edge Computing...
CEO Raghu Raghuram über VMwares KI-Strategie und wie sich Partner auf die Nach-Broadcom-Ära vorbereiten sollten
Der CEO von VMWare über die neu gegründete Private AI Foundation des Anbieters und ihre Bedeutung für den Channel. Weitere Innovationen und wie es nach der Broadcom-Übernahme mit dem VMware-Channel weitergeht. Alles im CRN-Interview
Wie steht VMware zu generativer KI?
"Das ist natürlich super spannend. Es ist das nächste große Ereignis und eine ganz neue Klasse von Anwendungen und Plattformen in der Branche. Und da diese Sprachmodelle und Basismodelle universell einsetzbar sind, kann man sich Anwendungen im Marketing vorstellen. Sie können an Anwendungen für die Erstellung von Inhalten denken. Man kann an Anwendungen für Softwareentwickler denken, um Code zu schreiben, an Anwendungen sogar für juristische Teams. Jeder Wissensarbeiter.
Bei VMware waren wir ganz aufgeregt. Und die große Herausforderung wurde: ‘OK, was ist mit meinem IP?' Wenn man an Wissen denkt, an Unternehmen und wie sie sich von anderen abheben, dann ist das ihr zentrales geistiges Eigentum. Wenn ich also mein geistiges Eigentum in ein beliebiges Allzweck-Sprachmodell einsetze, wie funktioniert das dann?
Wie stelle ich sicher, dass meine Daten nicht in irgendeiner Weise weitergegeben werden, um das Modell eines anderen zu trainieren? Und wenn das Modell einmal trainiert ist und ich es verwenden kann, wie stelle ich sicher, dass der Zugang zum Netzwerkpunkt kontrolliert wird?
Wir nennen diese Klasse von Problemen ‘private KI'. Dies ist ein Schlüsselkonzept, über das wir sprechen. Was Unternehmen brauchen, ist private KI. Wie kann man also private KI bereitstellen? Es könnte auch in der öffentlichen Cloud sein, denn Ihre Daten sind überall verteilt, in Ihrer privaten und öffentlichen Cloud. Wir haben uns mit Nvidia zusammengetan, um eine gemeinsame Lösung zu entwickeln, die wir VMware Private AI Foundation mit Nvidia nennen.
Es wird natürlich die Nvidia-GPUs haben, aber wir werden darauf aufbauen und sagen: ‘Schauen Sie, was müssen wir noch bauen, damit Kunden diese Sprachmodelle auf einer VMware Cloud Foundation-Architektur ausführen können?'
Und dann mit Nvidia AI-Software sowie Nvidia AI-Hardware, wie können wir es fast wie eine Appliance machen, mit der man mit Dell und Lenovo und HPE und anderen zusammenarbeiten kann, so dass Kunden es überall einsetzen können, wo sie es brauchen? Sie können es vor Ort einsetzen, im Rechenzentrum, am Rande des Rechenzentrums, in der Cloud usw. Das ist eine große, große Ankündigung.
Wir arbeiten auch sehr eng mit der Open-Source-Community zusammen. Und wir wissen, dass es Zeiten gibt, in denen die Leute keine Nvidia-Stacks verwenden werden. Deshalb erstellen wir eine Referenzarchitektur, mit der wir unseren Kunden helfen, diese Modelle zu betreiben. Es gibt noch eine weitere spannende Möglichkeit, generative KI in jedes einzelne unserer Produkte einzubauen. Wie kann man zum Beispiel generative KI in unsere Tanzu-Produktlinie einfließen lassen, so dass es für die Betreiber der Plattform sehr einfach ist, die Konfigurationen zu verstehen, Fragen zu stellen und Antworten zu erhalten und so weiter.
Wir werden dies als eine Familie von intelligenten Assistenzprodukten bezeichnen. Es wird also einen intelligenten Assistenten für Tanzu geben. Es wird einen intelligenten Assistenten für die Vernetzung und die Sicherheit geben. Es wird einen intelligenten Assistenten für das Endbenutzer-Computing geben. Und eines der Dinge, die wir als Partner häufig tun, ist die Erstellung von Skripten und Code, um den Kunden bei der Bereitstellung und dem Betrieb einer vSphere-Umgebung zu helfen.
Wir arbeiten also mit [der Open-Source-KI-Kollaborationsplattform] Hugging Face zusammen, um Betreibern oder Partnern bei der Generierung von Code zu helfen, der die Aufgabe des Betriebs eines Rechenzentrums automatisiert. Das ist also das, was wir eine intelligente Assistenzfamilie nennen.
Lassen Sie uns die Arbeit, die getan werden muss, automatisieren und ihnen die Arbeit erleichtern. Es geht um die Bereitstellung von Anwendungen, die Bereitstellung der Infrastruktur, die Verwaltung des Netzwerks und der Sicherheit, die Verwaltung der Benutzererfahrung, kurz gesagt."
Nächste Seite. Technologisches Rüstzeug für beschleunigte Transformation
Wo sollten sich Partner positionieren, um für KI bereit zu sein?
"Was wir unseren Kunden sagen, ist, dass eine der wichtigsten Möglichkeiten, um KI-fähig zu werden, darin besteht, dass sie ihre Daten in die Cloud stellen. Aber wie wir alle wissen, haben die Kunden tonnenweise Daten. Wenn man ihnen sagt: ‘Hey, bringt alle eure Daten in die Cloud', kann das fünf Jahre dauern. Aber man muss sie auch dort abholen, wo sie sind. Und die Private AI Foundation tut beides.
Sie sind also nicht nur ‘KI-ready' für Unternehmen und Betriebe, sondern auch ‘private KI'-ready? Denn seien wir mal ehrlich: Wenn ihnen der Datenschutz egal wäre, könnten sie heute zu Open AI gehen, ihr Anliegen eingeben und eine Antwort erhalten, genau wie wir es als Verbraucher tun können. Damit Unternehmen KI-fähig werden, muss es sich um private KI handeln, und zweitens muss man sie dort abholen, wo sie sind. Das sind zwei wichtige Dinge, und diese private KI-Stiftung tut beides."
Es gibt einige große Fortschritte bei der Anwendungsentwicklung, die die Bereitstellung von Anwendungen verkürzen, richtig?
"Wie wir alle wissen, beschleunigen die Kunden ihre digitale Transformation, was bedeutet, dass sie eine Reihe neuer Anwendungen hinzufügen oder neue Anwendungen modernisieren und neu schreiben. Typischerweise wird das auf Kubernetes gemacht. Und was wir mit Tanzu anbieten: das ist unsere Marke, die sich an die Zielgruppe der Plattformbetreiber wendet, die für die Unterstützung von Entwicklern und den Entwicklern selbst verantwortlich sind.
Typischerweise ist das Feedback, das wir hören, dass Kubernetes für Entwickler, die diese Anwendungen schnell erstellen und schreiben wollen, eine zu einfache Schnittstelle sei. Wir kündigen also eine neue Ergänzung der Tanzu-Produktfamilie an, die Tanzu App Engine. Sie wird eine Erweiterung unserer Tanzu App-Plattform sein, und die App Engine macht es Entwicklern wesentlich einfacher, den Code in die Produktion zu überführen, sobald sie ihn geschrieben haben.
Wir stellen nicht den Code für die Produktion zur Verfügung. Wir sorgen auch dafür, dass auf der Plattform automatisch der Code immer läuft, so dass die Anwendung nicht unterbrochen wird, wenn es an der Zeit ist, die zugrunde liegende Infrastruktur zu aktualisieren. Es handelt sich um einen grundlegenden Fortschritt, der sich aus einigen der Ideen ableitet, die wir in den ersten Tagen hatten.
Die Anwendung wird buchstäblich mit einem Befehl bereitgestellt, und der Plattformbetreiber kann sie dann skalieren, die Hochverfügbarkeit sicherstellen, dafür sorgen, dass sie gepatcht wird, und die Kosten für den Betrieb dieser Anwendungen erheblich senken. Und das Beste daran ist, dass dies in einer Multi-Cloud-Umgebung realisiert wurde."
Nächste Seite. Komplexität reduzieren - aber Flexibilität steigern - vor allem für Netzwerkadmins
CEO Raghu Raghuram über VMwares KI-Strategie und wie sich Partner auf die Nach-Broadcom-Ära vorbereiten sollten
Der CEO von VMWare über die neu gegründete Private AI Foundation des Anbieters und ihre Bedeutung für den Channel. Weitere Innovationen und wie es nach der Broadcom-Übernahme mit dem VMware-Channel weitergeht. Alles im CRN-Interview
Sie haben einige wirklich große Ankündigungen rund um Multi-Cloud und Cloud-Infrastruktur gemacht, die helfen sollen, dieses Cloud-Chaos zu bewältigen?
"Hier helfen unsere Partner den Kunden, die Modernisierung der Infrastruktur voranzutreiben. Wir tun hier drei Dinge. Erstens: Wenn Sie sich unsere Angebote auf dem Markt ansehen, gibt es viele verschiedene Angebote, und Partner und Kunden sagen: ‘Können Sie das für mich vereinfachen?
Geben Sie mir eine Reihe von Angeboten, nicht mehr als fünf, die vor Ort genauso aussehen wie in der Cloud, so dass ich einem Kunden sehr leicht sagen kann, was er braucht, oder dass er es selbst herausfinden kann, wenn er fragt: 'Hey, ich bin nur an einer verwalteten Virtualisierungsumgebung interessiert. Was brauche ich? Ich bin daran interessiert, eine private Cloud-Umgebung aufzubauen. Was brauche ich?'
Das erste, was wir tun, ist, diese sogenannten Cloud Packs zu verwenden. Es gibt fünf Cloud Packs. Darin sind 17 oder 20 der früher möglichen Kombinationen zusammengefasst, so dass es für den Partner sehr einfach ist, dem Kunden zu sagen: ‘Das ist es, was Sie brauchen.' Der Kunde kann sagen: ‘Ich will es vor Ort in unserem Rechenzentrum und ich will es auf meinem AWS oder ich will es auf Equinix.'
Die zweite Sache, an der wir im HCI-Bereich seit einiger Zeit arbeiten, ist vSAN und vSphere zusammenzubringen, und das hat sich als großer Erfolg erwiesen. Die Kunden lieben die Benutzerfreundlichkeit und Einfachheit von HCI. Die Herausforderung bei HCI besteht zunächst darin, dass man den Speicher nicht unabhängig von der Rechenleistung skalieren kann. Mit anderen Worten: Die maximale Speicherkapazität ist durch den Speicherplatz auf dem Server begrenzt.
Die Kunden haben also schon lange danach gefragt, aber es ist architektonisch schwer zu realisieren, den Kunden die Möglichkeit zu geben, den Speicher unabhängig von der Rechenleistung zu skalieren. Dies hat mehrere große Vorteile. Erstens wird die Einfachheit des vSAN-Modells beibehalten. Für einen vSphere-Administrator sieht es also genauso aus wie vSAN, aber es erlaubt ihm, sich von den Beschränkungen eines einzelnen Servers zu befreien. Petabytes und Petabytes.
Und zweitens ist es elastisch, d.h. ich kann es hoch- und runterskalieren, ohne weitere Server kaufen zu müssen. Das ist sehr nützlich für Partner, die sagen: ‘Mein Kunde möchte die Einfachheit des vSAN-Modells, aber er hat eine große Datenmenge. Er muss seine Datenbank, seinen Objektspeicher oder was auch immer skalieren.'"
Ein Partner, mit dem wir gesprochen habe, war sehr begeistert von den Möglichkeiten von NSX+. Was können Sie dazu sagen?
"Es bietet den kompletten Networking-Stack, von Layer 2 bis Layer 7, wie man sagt. Aber hier gibt es eine interessante Herausforderung, mit der Kunden konfrontiert werden. Sie haben Anwendungen auf AWS. Sie haben Anwendungen auf Azure. Sie haben Anwendungen vor Ort. Google, Oracle, usw. Wie sollen Sie als Administrator nun Firewall-Regeln, Lastausgleichsrichtlinien und Netzwerksicherheitsrichtlinien an all diesen verschiedenen Orten einheitlich festlegen?
Das ist ein großer Aufwand für Netzwerksicherheitsadministratoren. NSX+ baut diese Richtlinienebene in der Cloud auf und kann dynamisch das NSX-Netzwerk und die Sicherheit, das VMware Cloud on AWS-Netzwerk und die Sicherheit programmieren. Das Equinix-Netzwerk und die Sicherheit.
In Zukunft wird es sogar die native AWS und das native Azure programmieren. Dies kann buchstäblich eine Richtlinienebene sein, die sie programmieren können und die die Richtlinien für alle ihre Anwendungen dynamisch anpassen kann. Das wird fantastisch für Partner und fantastisch für Kunden sein. Jetzt können Partner diesen Kunden helfen und sagen: "Hören Sie, ich kann Ihnen bei Multi-Cloud-Netzwerken helfen. Das ist etwas, was sie schon immer wollten.'"
Nächste Seite. VMware-CEO: "Dramatische Vereinfachung der hybriden Arbeitserfahrung"
CEO Raghu Raghuram über VMwares KI-Strategie und wie sich Partner auf die Nach-Broadcom-Ära vorbereiten sollten
Der CEO von VMWare über die neu gegründete Private AI Foundation des Anbieters und ihre Bedeutung für den Channel. Weitere Innovationen und wie es nach der Broadcom-Übernahme mit dem VMware-Channel weitergeht. Alles im CRN-Interview
VMware war einer der Vorreiter bei der Umstellung auf hybrides Arbeiten. Können Sie über diesen neuen Weg sprechen, um einige der Herausforderungen für Lösungsanbieter zu bewältigen?
"Die Administratoren müssen sich weiterhin mit dem hybriden Arbeitsplatz auseinandersetzen. Die hybriden Arbeitskräfte werden nicht so bald zur Arbeit zurückkehren. Sie sind über das ganze Land verteilt. Wie kann man also ihr Leben vereinfachen? Wir haben diese Vision, die wir den Autonomen Arbeitsbereich nennen. Die Innovation, die wir hinzufügen, ermöglicht es diesen Endbenutzer-Computing-Administratoren, eine bessere digitale Erfahrung zu bieten. Wir haben hier eine Menge KI eingebaut.
Angenommen, Sie haben ein sehr schlechtes Erlebnis mit Ihrem Laptop bei der Arbeit von zu Hause aus. Anstatt ein Ticket einzureichen oder das EDV-Team des Endnutzers anzurufen, gibt es eine Software, die automatisch beobachtet und erkennt, dass Sie ein schlechtes Erlebnis haben, und dann den EDV-Administrator des Endnutzers benachrichtigt und sagt: ‘Sie haben ein sehr schlechtes Erlebnis und wir denken, dass es am Netzwerk oder am Betriebssystem liegt, und hier ist ein Runbook, aus dem Sie auswählen können, um es zu beheben.' Dann kann es losgehen. Es ist also eine dramatische Vereinfachung der hybriden Arbeitserfahrung."
SEs sieht so aus, als ob es auch für VMware-Partner einige neue Funktionen für den Edge gibt?
"Kunden stellen das Edge von Hardware auf Software um. Eines der häufigsten Probleme im Edge-Bereich ist, dass Sie all diese Maschinen und möglicherweise mehrere Produktionsstätten haben. Nehmen wir an, Sie müssen einen Patch aktualisieren oder eine neue Software bereitstellen.
Was wir geschaffen haben, ist eine Zero-Touch-Update-Funktion. Die Maschine selbst wacht auf und fragt eine zentrale Steuerungsebene: ‘Hey, hast du etwas Neues für mich?' Es ist Pull-basiert. Die zentrale Verwaltungsebene behält den Überblick darüber, was jeder hat und was jeder braucht. Das vereinfacht die Verwaltung all dieser Kanten dramatisch."
Nächste Seite. Die Gelegenheit für den VMware-CEO, Partner-Sorgen wegen der Broadcom-Übernahmen zu zerstreuen. Nutzt er sie?
CEO Raghu Raghuram über VMwares KI-Strategie und wie sich Partner auf die Nach-Broadcom-Ära vorbereiten sollten
Der CEO von VMWare über die neu gegründete Private AI Foundation des Anbieters und ihre Bedeutung für den Channel. Weitere Innovationen und wie es nach der Broadcom-Übernahme mit dem VMware-Channel weitergeht. Alles im CRN-Interview
Wo sollten die Partner ihre Anstrengungen erhöhen, um sicherzustellen, dass sie für die Broadcom-Übernahme bereit sind? Lassen Sie uns vom VMware-CEO hören, was der wichtigste Teil ist, auf den sie sich konzentrieren sollten, um sicherzustellen, dass sie für Broadcom bereit sind?
"Sehen Sie, wir haben über fünf Bereiche gesprochen. Das sind alles große Chancen für Partner. Broadcom-CEO Hock Tan hat über die Multi-Cloud-Strategie gesprochen, die er zu verfolgen gedenkt. Und der Bereich der VMware-Cloud-Infrastruktur usw. Da sollten Partner also meiner Meinung nach ansetzen. All die Dinge, über die wir gerade gesprochen haben, die Multi-Cloud-Infrastruktur mit der VMware Cloud Foundation, die Cloud Packs, NSX, vSAN, die Private AI Foundation, das sind enorme Möglichkeiten für unsere Partner."
Sie sagten uns im vergangenen Oktober, dass VMware-Vertriebspartner unter Broadcom viel mehr Möglichkeiten erwarten können. Haben Sie im letzten Jahr irgendetwas gesehen, das Sie dazu gebracht hat, Ihre Meinung zu ändern?
"Ich habe nichts anderes gesehen. Hock Tan hat sich sehr öffentlich dazu geäußert, was er mit Partnern machen will. Und er hat sich auch öffentlich zu den Investitionen geäußert, die er tätigen will, damit Partner VMware-Technologien noch schneller bei VMware-Kunden einsetzen können. All das ist immer noch im Spiel."
Sind Sie bereit, den Partnern zu sagen: ‘Macht euch keine Sorgen. Ich werde auch nach der Übernahme hier sein."
Die Keynote war nicht der Ort, um darüber zu sprechen, wer das Sagen haben wird. Die Keynote war auch nicht der richtige Ort, um sich darauf zu konzentrieren. Worauf wir die Keynote und so ziemlich die ganze Konferenz konzentriert haben, sind all diese Innovationen, von denen sie unabhängig von den Eigentumsverhältnissen von VMware profitieren können."
Ich gebe Ihnen jetzt die Gelegenheit dazu. Sie können es mir sagen.
"Ja. Ich bin sicher, dass es eine Zeit und einen Ort geben wird, um über all diese Dinge zu sprechen."