Gemini 2.0 Flash-Lite ist allgemein in der Gemini API verfügbar

Gemini 2.0 Flash-Lite ist ab sofort allgemein in der Gemini API für den Produktionseinsatz verfügbar, sowohl in Google AI Studio als auch für Unternehmenskunden auf Vertex AI. Google beschreibt die Gemini-2.0-Flash-Familie insgesamt als effizienter und leistungsfähiger als Gemini 1.5 Flash und 1.5 Pro und verweist zugleich auf ein vereinfachtes Preismodell, das das Kontextfenster von 1 Million Tokens günstiger machen soll.

Für Gemini 2.0 Flash-Lite nennt Google Verbesserungen gegenüber Gemini 1.5 Flash in Benchmarks zu Reasoning, Multimodalität, Mathematik und Faktentreue. Für Projekte mit langen Kontextfenstern soll 2.0 Flash-Lite zudem eine noch kosteneffizientere Option sein, einschließlich vereinfachter Preise für Prompts mit mehr als 128.000 Tokens.

Als Beispiel für den Einsatz in Conversational AI verweist Google auf Daily. Das Unternehmen nutzt Gemini 2.0 Flash-Lite im Open-Source-Framework Pipecat für Voice- und multimodale Conversational Agents. Genannt wird eine Demo mit System Instructions, die Voicemail-Systeme zuverlässig erkennen und Nachrichten entsprechend anpassen soll. Dabei hebt Google für solche Anwendungen insbesondere schnelles Time-to-First-Token, Genauigkeit, den Umgang mit komplexen Anweisungen und Function Calling hervor.

Dawn setzt Gemini 2.0 Flash für die Überwachung von KI-Produkten im Produktionseinsatz ein. Die als „semantic monitoring“ bezeichnete Pipeline soll große Mengen an Nutzerinteraktionen nach Mustern wie Frustration, Gesprächslänge oder Nutzerfeedback durchsuchbar machen und diese fortlaufend als Themen oder Probleme verfolgen. Laut Google konnte Dawn durch den Wechsel auf Gemini 2.0 Flash die Suchzeiten von Stunden auf knapp unter eine Minute senken, die Kosten um mehr als 90 Prozent reduzieren und die Zuverlässigkeit in Evals und im Produktionsmonitoring erhöhen.

Mosaic verwendet Gemini 2.0 Flash für agentische Video-Editing-Workflows. Dabei kommen multimodale Editing Agents zum Einsatz, die die Long-Context-Fähigkeiten des Modells nutzen, um zeitaufwendige Bearbeitungsschritte zu beschleunigen. Als Beispiel nennt Google das Erstellen von YouTube Shorts aus beliebigen Stellen eines längeren Videos per Prompt.

Für Gemini 2.0 Flash nennt Google in Google AI Studio einen Preis von 0,10 US-Dollar pro 1 Million Input-Tokens. Dadurch würden große Kontextfenster um 33 Prozent günstiger.

Quelle

Originalquelle: Google DeepMind News

Recent Articles

spot_img

Related Stories

Leave A Reply

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Stay on op - Ge the daily news in your inbox