Questa pagina fornisce una panoramica concettuale dell'esportazione dei dati di traccia utilizzando Cloud Trace. Potresti voler esportare i dati delle tracce per i seguenti motivi:
- Per archiviare i dati delle tracce per un periodo più lungo del periodo di conservazione predefinito di 30 giorni.
Per consentirti di utilizzare gli strumenti BigQuery per analizzare i dati dei tracciati. Ad esempio, con BigQuery puoi identificare conteggi e quantili degli intervalli. Per informazioni sulla query utilizzata per generare la tabella seguente, consulta Query di HipsterShop.
Come funzionano le esportazioni
L'esportazione prevede la creazione di un sink per un Google Cloud progetto. Un sink definisce un set di dati BigQuery come destinazione.
Puoi creare un sink utilizzando l'API Cloud Trace o Google Cloud CLI.
Terminologia e proprietà di destinazione
I canali di destinazione sono definiti per un Google Cloud progetto e hanno le seguenti proprietà:
Nome: un nome per il sink. Ad esempio, un nome potrebbe essere:
"projects/PROJECT_NUMBER/traceSinks/my-sink"
dove
PROJECT_NUMBER
è il Google Cloud numero di progettomy-sink
del sink emy-sink
è l'identificatore del sink.Padre: la risorsa in cui crei il sink. L'elemento principale deve essere un Google Cloud progetto:
"projects/PROJECT_ID"
PROJECT_ID
può essere un identificatore o un numero Google Cloud del progetto.Destinazione: un unico punto in cui inviare gli intervalli di traccia. Trace supporta l'esportazione delle tracce in BigQuery. La destinazione può essere il Google Cloud progetto Google Cloud del sink o qualsiasi altro progetto della stessa organizzazione.
Ad esempio, una destinazione valida è:
bigquery.googleapis.com/projects/DESTINATION_PROJECT_NUMBER/datasets/DATASET_ID
dove
DESTINATION_PROJECT_NUMBER
è il Google Cloud numero del progetto di destinazione eDATASET_ID
è l'identificatore del set di dati BigQuery.Identità autore: un nome dell'account di servizio. Il proprietario della destinazione dell'esportazione deve concedere a questo account di servizio le autorizzazioni per scrivere nella destinazione dell'esportazione. Durante l'esportazione delle tracce, Trace adotta questa identità per l'autorizzazione. Per maggiore sicurezza, i nuovi sink ricevono un account di servizio unico:
export-PROJECT_NUMBER-GENERATED_VALUE@gcp-sa-cloud-trace.iam.gserviceaccount.com
dove
PROJECT_NUMBER
è il numero del Google Cloud progetto in esadecimale eGENERATED_VALUE
è un valore generato in modo casuale.Non crei, possiedi o gestisci l'account di servizio identificato dall'identità autore di un sink. Quando crei un sink, Trace crea l'account di servizio richiesto dal sink. Questo account di servizio non è incluso nell'elenco degli account di servizio per il tuo progetto finché non ha almeno un'associazione di Identity and Access Management. Aggiungi questa associazione quando configuri una destinazione di destinazione.
Per informazioni sull'utilizzo dell'identità dell'autore, consulta le autorizzazioni di destinazione.
Come funzionano i sink
Ogni volta che uno span di traccia arriva in un progetto, Trace esporta una copia dello span.
Le tracce che Trace ha ricevuto prima della creazione dell'accumulo non possono essere esportate.
Controllo degli accessi
Per creare o modificare un'area di destinazione, devi disporre di uno dei seguenti ruoli Identity and Access Management:
- Trace Admin
- Utente Trace
- Proprietario progetto
- Editor progetto
Per ulteriori informazioni, consulta Controllo dell'accesso.
Per esportare le tracce in una destinazione, all'account di servizio di scrittura del sink deve essere consentito scrivere nella destinazione. Per ulteriori informazioni sulle identità degli autori, consulta Proprietà di destinazione in questa pagina.
Quote e limiti
Cloud Trace utilizza l'API di streaming BigQuery per inviare gli intervalli di traccia alla destinazione. Cloud Trace raggruppa le chiamate API. Cloud Trace non implementa un meccanismo di ripetizione o throttling. Gli intervalli di traccia potrebbero non essere esportati correttamente se la quantità di dati supera le quote di destinazione.
Per informazioni dettagliate su quote e limiti di BigQuery, consulta Quote e limiti.
Prezzi
L'esportazione delle tracce non comporta costi di Cloud Trace. Tuttavia, potresti dover pagare gli addebiti di BigQuery. Per ulteriori informazioni, consulta la pagina Prezzi di BigQuery.
Stima dei costi
BigQuery addebita un costo per l'importazione e l'archiviazione dei dati. Per stimare i costi mensili di BigQuery:
Stimare il numero totale di intervalli di traccia importati in un mese.
Per informazioni su come visualizzare l'utilizzo, consulta Visualizzare l'utilizzo per account di fatturazione.
Stima i requisiti di streaming in base al numero di intervalli di traccia importati.
Ogni intervallo viene scritto in una riga della tabella. Ogni riga in BigQuery richiede almeno 1024 byte. Pertanto, un limite inferiore per i requisiti di streaming di BigQuery è assegnare 1024 byte a ogni intervallo. Ad esempio, se il tuo Google Cloud progetto ha importato 200 span, questi richiedono almeno 20.400 byte per l'inserimento in streaming.
Utilizza il Calcolatore prezzi per stimare i costi di BigQuery dovuti a archiviazione, inserimenti di streaming e query.
Visualizzare e gestire l'utilizzo di BigQuery
Puoi utilizzare Esplora metriche per visualizzare l'utilizzo di BigQuery. Puoi anche creare un criterio di avviso che ti invii una notifica se l'utilizzo di BigQuery supera i limiti predefiniti. La tabella seguente contiene le impostazioni per creare un criterio di avviso. Puoi utilizzare le impostazioni nella tabella del riquadro del target quando crei un grafico o quando utilizzi Esplora metriche.
Per creare un criterio di avviso che si attivi quando le metriche di BigQuery importate superano un livello definito dall'utente, utilizza le impostazioni riportate di seguito.
Campo Nuova condizione |
Valore |
---|---|
Risorsa e metrica | Nel menu Risorse, seleziona Set di dati BigQuery. Nel menu Categorie di metriche, seleziona Archiviazione. Seleziona una metrica dal menu Metriche. Le metriche specifiche per l'utilizzo includono Stored bytes , Uploaded bytes
e Uploaded bytes billed . Per un elenco completo delle metriche disponibili, consulta
Metriche di BigQuery.
|
Filtro | project_id: il tuo Google Cloud ID progetto. dataset_id: l'ID del tuo set di dati. |
Tra serie temporali Raggruppa serie temporali per |
dataset_id: l'ID del tuo set di dati. |
Tra serie temporali Aggregazione di serie temporali |
sum |
Finestra temporale continua | 1 m |
Funzione finestra temporale continua | mean |
Campo Configura trigger di avviso |
Valore |
---|---|
Tipo di condizione | Threshold |
Trigger di avviso | Any time series violates |
Posizione soglia | Above threshold |
Valore soglia | Sei tu a determinare il valore accettabile. |
Finestra di ripetizione test | 1 minute |
Passaggi successivi
Per configurare un'area di destinazione, consulta Esportazione delle tracce.