Google Cloud: Updates für boomende KI-Nachfrage
Google Cloud hat zahlreiche Neuerungen vorgestellt. CEO Thomas Kurian blickt optimistisch auf den KI-Markt. Lösungsanbieter "sehen aufgrund der Nachfrage große Geschäftsmöglichkeiten und bauen Geschäfte auf", sagte der Google Cloud-Chef in einer Telefonkonferenz.
Google Cloud hat eine Reihe von Upgrades an seinem Gemini-Angebot für generative künstliche Intelligenz vorgenommen, darunter die allgemeine Verfügbarkeit von Gemini 1.5 Flash und Pro sowie die Einführung einer Vorschau von Imagen 3 und einer öffentlichen Vorschau für eine Kontext-Caching-Funktion.
Der Tech-Gigant enthüllte die Verbesserungen in einem Blog-Beitrag über seine Vertex AI-Plattform für maschinelles Lernen am Donnerstag, während sich der Kampf um die Vorherrschaft im Bereich der generativen künstlichen Intelligenz mit Konkurrenten wie Microsoft zuspitzt.
Während einer virtuellen Pressekonferenz sagte CEO Thomas Kurian auf die Frage von CRN nach den dienstleistungsorientierten Partnern von Google Cloud, dass Systemintegratoren und andere Lösungsanbieter "aufgrund der Nachfrage, die wir für diese Technologie von vielen Unternehmen in verschiedenen Teilen der Welt sehen, große Geschäftsmöglichkeiten sehen und Geschäfte aufbauen".
Google Cloud aktualisiert Vertex AI
"Wir haben immer gesagt, dass das, was wir mit Vertex und unseren Modellen anbieten, eine Plattform für Unternehmen ist, mit der sie Anwendungen erstellen können", sagte Kurian. "Viele Unternehmen wollen Lösungen. Und Lösungen nutzen unsere Modelle, um den Kundenservice zu verbessern . Sie nutzen unsere Modelle, um ihre internen Prozesse die Zusammenarbeit mit Lieferanten zu verbessern".
Zu den Upgrades, die Google vorstellte, gehört die allgemeine Verfügbarkeit von Gemini 1.5 Flash und Gemini 1.5 Pro. Laut Anbieter bietet dieses KI-Modell den Nutzern geringere Latenzzeiten, wettbewerbsfähigere Preise und ein Kontextfenster mit 1 Million Token. Token ist die Basiseinheit für den Content, den eine generative KI erstellt.
Der Tech-Gigant positioniert Gemini 1.5 Flash als nützlich für die Skalierung von KI für Chat-Agenten im Einzelhandel, Dokumentenverarbeitung, Forschungsagenten, die ganze Repositories synthetisieren können, und andere Anwendungsfälle.
Gemini 1.5 Pro ist jetzt mit einem Fenster von bis zu 2 Millionen Token verfügbar, so Google Cloud. Zum Vergleich: Für die Verarbeitung von sechs Minuten Video werden mehr als 100.000 Token benötigt. Große Code-Basen können mehr als 1 Million Token erfordern.
Das 1.5 Pro-Modell kann laut Google Cloud Fehler in vielen Codezeilen finden, Informationen in Bibliotheken recherchieren und stundenlanges Audio- und Videomaterial analysieren.
Zusammen mit dieser Neuigkeit sagte Google Cloud, dass es das Imagen 3 Bildgenerierungs-Grundmodell in die Vorschau für Vertex AI-Nutzer mit frühem Zugang verschoben hat.
Laut Google Cloud verspricht Imagen 3 eine 40 Prozent schnellere Generierung im Vergleich zu seinem Vorgänger und verbessertes Prompt-Verständnis, Befolgung von Anweisungen, fotorealistische Generierung von Personengruppen und Kontrolltest-Rendering innerhalb eines Bildes.
Das Modell bietet außerdem Unterstützung für mehrere Sprachen, mehrere Seitenverhältnisse und das digitale Wasserzeichen SynthID von Google DeepMind sowie weitere integrierte Sicherheitsfunktionen.
Google Cloud hat sein leichtgewichtiges, offenes Modell Gemma 2 weltweit für Forscher und Entwickler freigegeben, so der Anbieter. Im Juli können Nutzer von Vertex AI auf Gemma 2 zugreifen.
Das Modell ist in den Größen 9 Milliarden und 27 Milliarden Parameter verfügbar und ist laut Google Cloud leistungsfähiger und effizienter als die vorherige Generation. Google Cloud hat mit dem Rollout einer Kontext-Caching-Funktion in der öffentlichen Vorschau für Gemini 1.5 Pro und Gemini 1.5 Flash Nutzer begonnen.
Context Caching soll die Eingabekosten senken und zwischengespeicherte Daten von häufig genutztem Kontext nutzen, was die Produktionsbereitstellung für Anwendungen mit langem Kontext vereinfachen kann.
Google Cloud hat den bereitgestellten Durchsatz mit allowlist allgemein verfügbar gemacht und gibt Nutzern die Möglichkeit, die Nutzung des Google-Modells für Erstanbieter zu skalieren. Der bereitgestellte Durchsatz verspricht laut Google Cloud auch Vorhersagbarkeit und Zuverlässigkeit für Produktions-Workloads.
Im nächsten Quartal wird Vertex AI einen Service anbieten, mit dem KI-Agenten mit speziellen Daten von Drittanbietern geerdet werden können, was zu einer Verringerung falscher Ergebnisse führen könnte. Der Service soll im nächsten Quartal verfügbar sein, sagte Kurian in der Telefonkonferenz.
Damit können Anwender in datenintensiven Branchen wie Finanzdienstleistungen, Gesundheitswesen und Versicherungen Antworten generieren, die nur aus dem bereitgestellten Kontext stammen und nicht aus dem Weltwissen des Modells.
Diese Funktion soll laut Google Cloud dabei helfen, mehrere Dokumente zusammenzufassen, Daten aus einem bestimmten Korpus von Finanzdaten zu extrahieren oder einen vordefinierten Satz von Dokumenten zu verarbeiten. Der High-Fidelity-Modus wird von einer fein abgestimmten Version von Gemini 1.5 Flash unterstützt.
Kooperation mit Mistral
Google Cloud arbeitet an der Vertiefung seiner Partnerschaft mit dem KI-Unternehmen Mistral und verspricht, im Laufe des Sommers Mistral Small, Mistral Large und Mistral Codestral in den Vertex AI Model Garden aufzunehmen.
Außerdem gab der Anbieter bekannt, dass er sein Engagement für die Verarbeitung maschinellen Lernens auf acht weitere Länder ausdehnt, vier davon im Jahr 2024. Google Cloud hat nicht gesagt, um welche Länder es sich handelt. Heute hat Google Cloud Datenresidenzgarantien für im Ruhezustand gespeicherte Daten in 23 Ländern, darunter Katar, Australien, Spanien, Israel und Indien.