Erweiterte Funktionen

Modelle

Über Cursor Chat, Strg/⌘ K und Terminal Strg/⌘ K können Sie einfach zwischen verschiedenen Modellen wechseln.

Modell-Auswahlmenü

Unterhalb des AI-Eingabefelds sehen Sie ein Dropdown-Menü, mit dem Sie das zu verwendende Modell auswählen können. Standardmäßig sind in Cursor folgende Modelle verfügbar:

  • GPT-4o
  • GPT-4
  • Claude 3.5 Sonnet
  • cursor-small
    • cursor-small ist Cursors eigenes Modell, das zwar nicht so intelligent wie GPT-4 ist, dafür aber schneller und ohne Nutzungsbeschränkung verfügbar ist.

Sie können weitere Modelle unter Cursor-Einstellungen > Modelle > Modellnamen hinzufügen.

https://mintlify.s3.us-west-1.amazonaws.com/cursor/images/advanced/model-toggle.png

Welchen Kontextumfang verwendet Modell X?

Im Chat begrenzen wir derzeit auf etwa 20.000 Tokens (oder weniger, wenn das Modell nicht so viel Kontext unterstützt). Für cmd-K begrenzen wir auf etwa 10.000 Tokens, um TTFT und Qualität auszugleichen. Langkontext-Chat verwendet das maximale Kontextfenster des Modells.

Benutzerdefinierte API-Schlüssel

Cursor ermöglicht es Ihnen, eigene API-Schlüssel verschiedener LLM-Anbieter einzugeben, um beliebig viele AI-Nachrichten auf eigene Kosten zu senden. Bei der Verwendung von benutzerdefinierten API-Schlüsseln nutzen wir diese beim Aufruf des LLM-Anbieters.

Um Ihren eigenen API-Schlüssel zu verwenden, gehen Sie zu Cursor-Einstellungen > Modelle > OpenAI API-Schlüssel und geben Sie Ihren API-Schlüssel ein. Klicken Sie dann auf die Schaltfläche "Überprüfen". Sobald Ihr Schlüssel verifiziert ist, wird Ihr OpenAI API-Schlüssel aktiviert.

Einige Cursor-Funktionen (wie Tab-Vervollständigung, Anwenden aus dem Chat und Composer) erfordern spezialisierte Modelle und können nicht mit benutzerdefinierten API-Schlüsseln verwendet werden. Benutzerdefinierte API-Schlüssel funktionieren nur mit Funktionen, die Standardmodelle von Anbietern wie OpenAI, Anthropic und Google verwenden.

OpenAI API-Schlüssel

Sie können Ihren eigenen API-Schlüssel auf der OpenAI-Plattform erhalten.

https://mintlify.s3.us-west-1.amazonaws.com/cursor/images/misc/openai-api.png

Anthropic API-Schlüssel

Ähnlich wie bei OpenAI können Sie auch Ihren eigenen Anthropic API-Schlüssel einrichten, um Claude-basierte Modelle auf eigene Kosten nutzen zu können.

https://mintlify.s3.us-west-1.amazonaws.com/cursor/images/misc/anthropic-api.png

Google API-Schlüssel

Für Google API-Schlüssel können Sie Ihren eigenen API-Schlüssel einrichten, um Google-Modelle wie gemini-1.5-flash-500k auf eigene Kosten nutzen zu können.

https://mintlify.s3.us-west-1.amazonaws.com/cursor/images/misc/google-api.png

Azure-Integration

Schließlich können Sie auch Ihren eigenen Azure API-Schlüssel einrichten, um Azure OpenAI-Modelle auf eigene Kosten nutzen zu können.

https://mintlify.s3.us-west-1.amazonaws.com/cursor/images/misc/azure-api.png

Werden meine API-Schlüssel gespeichert oder verlassen sie mein Gerät?

Ihre API-Schlüssel werden nicht gespeichert, sondern mit jeder Anfrage an unsere Server gesendet. Alle Anfragen werden über unser Backend geleitet, da dort die endgültige Prompt-Konstruktion erfolgt.

Shadow Workspace

Shadow Workspace ist eine optionale Einstellung, die Sie konfigurieren können, um die Qualität von KI-generiertem Code zu verbessern. Nur einige Funktionen nutzen dies.

https://mintlify.s3.us-west-1.amazonaws.com/cursor/images/advanced/shadow-workspace.png

Wenn Sie Shadow Workspace aktivieren, können Hintergrund-KIs Linting für von ihnen geschriebenen Code anfordern. Dadurch wird ein verstecktes Fenster auf Ihrem Computer erstellt, um sicherzustellen, dass Ihre Programmiererfahrung nicht beeinträchtigt wird. Der Shadow Workspace erhöht den Speicherverbrauch von Cursor, daher empfehlen wir, diese Funktion nur zu aktivieren, wenn Sie über ausreichend RAM verfügen.

Weitere Informationen zum Shadow Workspace finden Sie in unserem Blogbeitrag.