Sdílet prostřednictvím


Integrace s agenty kódování

Důležité

Tato funkce je v beta verzi. Správci účtu můžou řídit přístup k této funkci ze stránky Previews .

Díky integraci agenta kódování Azure Databricks můžete spravovat přístup a využití pro kódovací agenty, jako jsou Cursor, Gemini CLI, Codex CLI a Claude Code. Postaveno na AI Gateway, poskytuje limity rychlosti, sledování využití a inferenční tabulky pro vaše nástroje pro kódování.

Features

  • Přístup: Přímý přístup k různým nástrojům a modelům kódování, a to vše na jedné faktuře.
  • Pozorovatelnost: Jeden jednotný řídicí panel pro sledování využití, výdajů a metrik napříč všemi nástroji pro psaní kódu.
  • Jednotné zásady správného řízení: Správci můžou spravovat oprávnění modelu a omezení rychlosti přímo prostřednictvím služby AI Gateway.

Požadavky

  • Pro váš účet je povolená verze Preview služby AI Gateway (beta verze).
  • Pracovní prostor Azure Databricks v regionu podporovaném funkcí AI Gateway (Beta).
  • Služba Unity Catalog je pro váš pracovní prostor povolená. Podívejte se na Povolení pracovního prostoru pro Unity Catalog.

Podporovaní agenti

Podporují se následující agenti kódování:

Nastavení

Cursor

Konfigurace kurzoru pro použití koncových bodů brány AI:

Krok 1: Konfigurace základní adresy URL a klíče rozhraní API

  1. Otevřete Cursor a přejděte do Nastavení>Nastavení kurzoru>Modely>Klíče rozhraní API.

  2. Povolte přepsat základní adresu URL OpenAI a zadejte adresu URL:

    https://<ai-gateway-url>/cursor/v1
    

    Nahraďte <ai-gateway-url> adresou URL koncového bodu brány AI.

  3. Vložte osobní přístupový token Azure Databricks do pole Klíč rozhraní API OpenAI .

Krok 2: Přidání vlastních modelů

  1. V nastavení kurzoru klikněte na + Přidat vlastní model .
  2. Přidejte název koncového bodu služby AI Gateway a povolte přepínač.

Poznámka:

V současné době se podporují pouze koncové body základního modelu vytvořené službou Azure Databricks.

Krok 3: Testování integrace

  1. Otevřete režim Ptejte se v Cmd+L systému (macOS) nebo Ctrl+L (Windows/Linux) a vyberte svůj model.
  2. Odeslat zprávu. Všechny požadavky se teď směrují přes Azure Databricks.

Codex CLI

Krok 1: Nastavení proměnné prostředí DATABRICKS_TOKEN

export DATABRICKS_TOKEN=<databricks_pat_token>

Krok 2: Konfigurace klienta Codex

Vytvořte nebo upravte konfigurační soubor Codex na adrese ~/.codex/config.toml:

profile = "default"

[profiles.default]
model_provider = "proxy"
model = "databricks-gpt-5-2"

[model_providers.proxy]
name = "Databricks Proxy"
base_url = "https://<ai-gateway-url>/openai/v1"
env_key = "DATABRICKS_TOKEN"
wire_api = "responses"

Nahraďte <ai-gateway-url> adresou URL koncového bodu brány AI.

Rozhraní příkazového řádku Gemini

Krok 1: Instalace nejnovější verze Rozhraní příkazového řádku Gemini

npm install -g @google/gemini-cli@nightly

Krok 2: Konfigurace proměnných prostředí

Vytvořte soubor ~/.gemini/.env a přidejte následující konfiguraci. Další podrobnosti najdete v dokumentaci k ověřování rozhraní příkazového řádku Gemini .

GEMINI_MODEL=databricks-gemini-2-5-flash
GOOGLE_GEMINI_BASE_URL=https://<ai-gateway-url>/gemini
GEMINI_API_KEY_AUTH_MECHANISM="bearer"
GEMINI_API_KEY=<databricks_pat_token>

Nahraďte <ai-gateway-url> adresou URL koncového bodu brány AI a <databricks_pat_token> osobním přístupovým tokenem.

Claude Code

Krok 1: Konfigurace klienta Clauda Code

Přidejte následující konfiguraci do ~/.claude/settings.json. Další podrobnosti najdete v dokumentaci k nastavení Clauda Code .

{
  "env": {
    "ANTHROPIC_MODEL": "databricks-claude-opus-4-6",
    "ANTHROPIC_BASE_URL": "https://<ai-gateway-url>/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "<databricks_pat_token>",
    "ANTHROPIC_CUSTOM_HEADERS": "x-databricks-use-coding-agent-mode: true",
    "CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETAS": "1"
  }
}

Nahraďte <ai-gateway-url> adresou URL koncového bodu brány AI a <databricks_pat_token> osobním přístupovým tokenem.

Krok 2 (volitelné): Nastavení shromažďování metrik OpenTelemetry

Podrobnosti najdete v tématu Nastavení shromažďování dat OpenTelemetry ohledně exportu metrik a protokolů z Claude Code do tabulek Delta spravovaných katalogem Unity.

Dashboard

Jakmile je využití agenta kódování sledováno prostřednictvím AI Gateway, můžete své metriky zobrazit a monitorovat na předpřipraveném řídicím panelu.

Pokud chcete získat přístup k řídicímu panelu, na stránce Brány AI vyberte Zobrazit řídicí panel . Tím se vytvoří předem nakonfigurovaný dashboard s grafy pro využití nástrojů při kódování.

Tlačítko Zobrazit řídicí panel

Řídicí panel pro programovací agenty

Nastavení shromažďování dat OpenTelemetry

Azure Databricks podporuje export metrik OpenTelemetry a protokolů z platformy Claude Code do tabulek Delta spravovaných v katalogu Unity. Všechny metriky jsou data časových řad exportovaná pomocí standardního protokolu metrik OpenTelemetry a protokoly jsou exportovány pomocí protokolu protokolů OpenTelemetry. Dostupné metriky a události najdete v tématu Monitorování využití Kódu Claudu.

Požadavky

Krok 1: Vytvoření tabulek OpenTelemetry v katalogu Unity

Vytvořte tabulky spravované službou Unity Catalog předem nakonfigurované pomocí metrik OpenTelemetry a schémat protokolů.

Tabulka metrik

CREATE TABLE <catalog>.<schema>.<table_prefix>_otel_metrics (
  name STRING,
  description STRING,
  unit STRING,
  metric_type STRING,
  gauge STRUCT<
    start_time_unix_nano: LONG,
    time_unix_nano: LONG,
    value: DOUBLE,
    exemplars: ARRAY<STRUCT<
      time_unix_nano: LONG,
      value: DOUBLE,
      span_id: STRING,
      trace_id: STRING,
      filtered_attributes: MAP<STRING, STRING>
    >>,
    attributes: MAP<STRING, STRING>,
    flags: INT
  >,
  sum STRUCT<
    start_time_unix_nano: LONG,
    time_unix_nano: LONG,
    value: DOUBLE,
    exemplars: ARRAY<STRUCT<
      time_unix_nano: LONG,
      value: DOUBLE,
      span_id: STRING,
      trace_id: STRING,
      filtered_attributes: MAP<STRING, STRING>
    >>,
    attributes: MAP<STRING, STRING>,
    flags: INT,
    aggregation_temporality: STRING,
    is_monotonic: BOOLEAN
  >,
  histogram STRUCT<
    start_time_unix_nano: LONG,
    time_unix_nano: LONG,
    count: LONG,
    sum: DOUBLE,
    bucket_counts: ARRAY<LONG>,
    explicit_bounds: ARRAY<DOUBLE>,
    exemplars: ARRAY<STRUCT<
      time_unix_nano: LONG,
      value: DOUBLE,
      span_id: STRING,
      trace_id: STRING,
      filtered_attributes: MAP<STRING, STRING>
    >>,
    attributes: MAP<STRING, STRING>,
    flags: INT,
    min: DOUBLE,
    max: DOUBLE,
    aggregation_temporality: STRING
  >,
  exponential_histogram STRUCT<
    attributes: MAP<STRING, STRING>,
    start_time_unix_nano: LONG,
    time_unix_nano: LONG,
    count: LONG,
    sum: DOUBLE,
    scale: INT,
    zero_count: LONG,
    positive_bucket: STRUCT<
      offset: INT,
      bucket_counts: ARRAY<LONG>
    >,
    negative_bucket: STRUCT<
      offset: INT,
      bucket_counts: ARRAY<LONG>
    >,
    flags: INT,
    exemplars: ARRAY<STRUCT<
      time_unix_nano: LONG,
      value: DOUBLE,
      span_id: STRING,
      trace_id: STRING,
      filtered_attributes: MAP<STRING, STRING>
    >>,
    min: DOUBLE,
    max: DOUBLE,
    zero_threshold: DOUBLE,
    aggregation_temporality: STRING
  >,
  summary STRUCT<
    start_time_unix_nano: LONG,
    time_unix_nano: LONG,
    count: LONG,
    sum: DOUBLE,
    quantile_values: ARRAY<STRUCT<
      quantile: DOUBLE,
      value: DOUBLE
    >>,
    attributes: MAP<STRING, STRING>,
    flags: INT
  >,
  metadata MAP<STRING, STRING>,
  resource STRUCT<
    attributes: MAP<STRING, STRING>,
    dropped_attributes_count: INT
  >,
  resource_schema_url STRING,
  instrumentation_scope STRUCT<
    name: STRING,
    version: STRING,
    attributes: MAP<STRING, STRING>,
    dropped_attributes_count: INT
  >,
  metric_schema_url STRING
) USING DELTA
TBLPROPERTIES (
  'otel.schemaVersion' = 'v1'
)

Tabulka protokolů

CREATE TABLE <catalog>.<schema>.<table_prefix>_otel_logs (
  event_name STRING,
  trace_id STRING,
  span_id STRING,
  time_unix_nano LONG,
  observed_time_unix_nano LONG,
  severity_number STRING,
  severity_text STRING,
  body STRING,
  attributes MAP<STRING, STRING>,
  dropped_attributes_count INT,
  flags INT,
  resource STRUCT<
    attributes: MAP<STRING, STRING>,
    dropped_attributes_count: INT
  >,
  resource_schema_url STRING,
  instrumentation_scope STRUCT<
    name: STRING,
    version: STRING,
    attributes: MAP<STRING, STRING>,
    dropped_attributes_count: INT
  >,
  log_schema_url STRING
) USING DELTA
TBLPROPERTIES (
  'otel.schemaVersion' = 'v1'
)

Krok 2: Aktualizace souboru nastavení Claude Code

Přidejte následující proměnné prostředí do bloku env ve svém souboru ~/.claude/settings.json pro povolení exportu metrik a protokolů:

{
  "env": {
    "CLAUDE_CODE_ENABLE_TELEMETRY": "1",
    "OTEL_METRICS_EXPORTER": "otlp",
    "OTEL_EXPORTER_OTLP_METRICS_PROTOCOL": "http/protobuf",
    "OTEL_EXPORTER_OTLP_METRICS_ENDPOINT": "https://<workspace-url>/api/2.0/otel/v1/metrics",
    "OTEL_EXPORTER_OTLP_METRICS_HEADERS": "content-type=application/x-protobuf,Authorization=Bearer <databricks_pat_token>,X-Databricks-UC-Table-Name=<catalog>.<schema>.<table_prefix>_otel_metrics",
    "OTEL_METRIC_EXPORT_INTERVAL": "10000",
    "OTEL_LOGS_EXPORTER": "otlp",
    "OTEL_EXPORTER_OTLP_LOGS_PROTOCOL": "http/protobuf",
    "OTEL_EXPORTER_OTLP_LOGS_ENDPOINT": "https://<workspace-url>/api/2.0/otel/v1/logs",
    "OTEL_EXPORTER_OTLP_LOGS_HEADERS": "content-type=application/x-protobuf,Authorization=Bearer <databricks_pat_token>,X-Databricks-UC-Table-Name=<catalog>.<schema>.<table_prefix>_otel_logs",
    "OTEL_LOGS_EXPORT_INTERVAL": "5000"
  }
}

Nahraďte následující položky:

  • <workspace-url> s URL adresou pracovního prostoru Azure Databricks.
  • <databricks_pat_token> s vaším osobním přístupovým tokenem.
  • <catalog>.<schema>.<table_prefix> s předponou katalogu, schématu a tabulky použitou při vytváření tabulek OpenTelemetry.

Poznámka:

Výchozí OTEL_METRIC_EXPORT_INTERVAL hodnota je 6 0000 ms (60 sekund). Výše uvedený příklad ho nastaví na 1 0000 ms (10 sekund). Výchozí OTEL_LOGS_EXPORT_INTERVAL hodnota je 5000 ms (5 sekund).

Krok 3: Spuštění Kódu Clauda

claude

Vaše data by se měla rozšířit do tabulek katalogu Unity do 5 minut.

Další kroky