Questa pagina descrive i problemi noti che potresti riscontrare durante l'utilizzo di Compute Engine. Per i problemi che interessano specificamente le Confidential VM, consulta le limitazioni delle VM riservate.
Problemi generici
I problemi riportati di seguito forniscono indicazioni per la risoluzione dei problemi o informazioni generali.
Non puoi utilizzare la Google Cloud console per creare VM spot per A4 e A3 Ultra
Non puoi creare una VM Spot che utilizza la serie di macchine A4 o A3 Ultra utilizzando la Google Cloud console. Nello specifico, nella pagina Crea un'istanza, dopo aver selezionato un tipo di GPU per queste serie di macchine nel riquadro Configurazione macchina, il riquadro Avanzate indica che è necessaria una prenotazione e non ti consente di selezionare Spot nell'elenco Modello di provisioning delle VM.
Per risolvere il problema, utilizza gcloud CLI o REST per creare VM Spot per A4 e A3 Ultra. In alternativa, puoi utilizzare la Google Cloud console per creare VM A4 e A3 Ultra che utilizzano il modello di provisioning vincolato alla prenotazione.
La modifica delle IOPS o del throughput su un disco principale della replica asincrona utilizzando il comando gcloud compute disks update
causa un falso errore
Quando utilizzi il comando gcloud compute disks update
per modificare le IOPS e il throughput su un disco principale con la replica asincrona, Google Cloud CLI mostra un messaggio di errore anche se l'aggiornamento è andato a buon fine.
Per verificare con precisione che un aggiornamento sia andato a buon fine, utilizza l'interfaccia a Google Cloud CLI o la Google Cloud console per verificare se le proprietà del disco mostrano i nuovi valori di IOPS e throughput. Per ulteriori informazioni, consulta Visualizzare le impostazioni di prestazioni di cui è stato eseguito il provisioning per HyperDisk.
Il server di metadati potrebbe mostrare i vecchi metadati della VM physicalHost
Dopo aver riscontrato un
errore dell'host che
sposta un'istanza in un nuovo host, quando
esegui una query sul server dei metadati,
potrebbero essere visualizzati i
physicalHost
metadati dell'host precedente dell'istanza.
Per risolvere il problema, esegui una delle seguenti operazioni:
- Utilizza il metodo
instances.get
o il comandogcloud compute instances describe
per recuperare le informazioniphysicalHost
corrette. - Interrompi e poi avvia l'istanza. Questa procedura aggiorna le informazioni
physicalHost
nel server dei metadati. - Attendi 24 ore affinché le informazioni
physicalHost
dell'istanza interessata vengano aggiornate.
VM C3 solo IPv6 non raggiungibile durante la migrazione live
Una VM solo IPv6 che utilizza un tipo di macchina C3 potrebbe non essere raggiungibile durante migrazione live.
Soluzione:
Per ridurre le probabilità di riscontrare questo problema, puoi aggiornare il criterio di manutenzione per l'istanza e impostare il comportamento di manutenzione su TERMINATE
e il riavvio automatico su TRUE
.
Se la VM viene sottoposta a migrazione live e riscontri questo problema, riavviala per riottenere l'accesso all'istanza.
Valori baseInstanceName
lunghi nei gruppi di istanze gestite (MIG) possono causare conflitti di nomi dei dischi
In un gruppo di istanze gestite, possono verificarsi conflitti di nomi dei dischi se il modello di istanza specifica i dischi da creare al momento della creazione della VM e il valore baseInstanceName
supera i 54 caratteri. Questo accade perché Compute Engine genera i nomi dei dischi utilizzando il nome dell'istanza come prefisso.
Quando generi i nomi dei dischi, se il nome risultante supera il limite di 63 caratteri per i nomi delle risorse, Compute Engine tronca i caratteri in eccesso dalla fine del nome dell'istanza. Questo troncamento può portare alla creazione di nomi di dischi identici per istanze con pattern di denominazione simili. In questo caso, la nuova istanza tenterà di collegare il disco esistente. Se il disco è già collegato a un'altra istanza, la creazione della nuova istanza non va a buon fine. Se il disco non è collegato o è in modalità multi-autore, la nuova istanza lo collegherà, con un potenziale rischio di danneggiamento dei dati.
Per evitare conflitti di nomi dei dischi, mantieni il valore baseInstanceName
con una lunghezza massima di 54 caratteri.
La creazione di prenotazioni o richieste di prenotazione futura utilizzando un modello di istanza che specifica un tipo di macchina A2, C3 o G2 causa problemi
Se utilizzi un modello di istanza che specifica un tipo di macchina A2, C3 o G2 per creare una prenotazione o per creare e inviare una richiesta di prenotazione futura per la revisione, riscontri problemi. In particolare:
La creazione della prenotazione potrebbe non riuscire. Se l'operazione va a buon fine, si applica una delle seguenti condizioni:
Se hai creato una prenotazione utilizzata automaticamente (valore predefinito), la creazione di VM con proprietà corrispondenti non consumerà la prenotazione.
Se hai creato una prenotazione specifica, la creazione di VM con come target specifico la prenotazione non va a buon fine.
La creazione della richiesta di prenotazione futura va a buon fine. Tuttavia, se la invii per la revisione, Google Cloud rifiuta la tua richiesta.
Non puoi sostituire il modello di istanza utilizzato per creare una prenotazione o una richiesta di prenotazione futura né eseguire l'override delle proprietà VM del modello. Se vuoi prenotare risorse per tipi di macchine A2, C3 o G2, procedi in uno dei seguenti modi:
Crea una nuova prenotazione per un singolo progetto o prenotazione condivisa specificando direttamente le proprietà.
Per creare una nuova richiesta di prenotazione futura:
Se vuoi impedire a una richiesta di prenotazione futura esistente di limitare le proprietà delle richieste di prenotazione futura che puoi creare nel tuo progetto corrente o nei progetti con cui è condivisa la richiesta di prenotazione futura, elimina la richiesta di prenotazione futura.
Crea una richiesta di prenotazione futura per un singolo progetto o condivisa specificando direttamente le proprietà e inviala per la revisione.
Limitazioni relative all'utilizzo dei tipi di macchine c3-standard-*-lssd
e c3d-standard-*-lssd
con Google Kubernetes Engine
Quando utilizzi l'API Google Kubernetes Engine, il pool di nodi con SSD locale collegato che esegui il provisioning deve avere lo stesso numero di dischi SSD del tipo di macchina C3 e C3D selezionato. Ad esempio, se prevedi di creare una VM che utilizza c3-standard-8-lssd
, devono essere presenti 2 dischi SSD, mentre per c3d-standard-8-lssd
è richiesto un solo disco SSD. Se il numero del disco non corrisponde, verrà visualizzato un errore di configurazione errata dell'SSD locale dal piano di controllo di Compute Engine. Consulta il documento Famiglia di macchine per uso generico per selezionare il numero corretto di dischi SSD locali in base al tipo di macchina C3 o C3Dlssd
.
L'utilizzo della Google Cloud console Google Kubernetes Engine per creare un cluster o un pool di nodi con VM c3-standard-*-lssd
e c3d-standard-*-lssd
comporta un errore di creazione dei nodi o un errore di rilevamento delle unità SSD locali come archiviazione temporanea.
Variabilità della velocità effettiva TCP di un singolo flusso sulle VM C3D
Le VM C3D con più di 30 vCPU potrebbero presentare una variabilità della throughput TCP per singolo flusso e occasionalmente essere limitate a 20-25 Gbps. Per ottenere tassi più elevati, utilizza più flussi TCP.
La metrica di osservabilità dell'utilizzo della CPU non è corretta per le VM che utilizzano un thread per core
Se la CPU della VM utilizza un thread per core, la metrica di osservabilità dell'utilizzo della CPU di Cloud Monitoring nella scheda Compute Engine > Istanze VM > Osservabilità viene scalata solo al 50%. Due thread per core è il valore predefinito per tutti i tipi di macchina, ad eccezione di Tau T2D. Per saperne di più, consulta Impostare il numero di thread per core.
Per visualizzare l'utilizzo della CPU della VM normalizzato al 100%, visualizza l'utilizzo della CPU in Metrics Explorer. Per saperne di più, consulta Creare grafici con Metrics Explorer.
Le connessioni SSH-in-browser dellaGoogle Cloud console potrebbero non riuscire se utilizzi regole firewall personalizzate
Se utilizzi regole firewall personalizzate per controllare l'accesso SSH alle istanze VM, potresti non essere in grado di utilizzare la funzionalità SSH nel browser.
Per risolvere il problema, esegui una delle seguenti operazioni:
Abilita Identity-Aware Proxy per TCP per continuare a connetterti alle VM utilizzando la funzionalità della consoleGoogle Cloud SSH nel browser.
Rigenera la
default-allow-ssh
regola firewall per continuare a connetterti alle VM utilizzando SSH nel browser.Connettiti alle VM utilizzando Google Cloud CLI instead of SSH nel browser.
Nomi temporanei per i dischi
Durante gli aggiornamenti delle istanze di macchine virtuali (VM) avviati utilizzando il
comando gcloud compute instances update
o il
metodo dell'API instances.update
,
Compute Engine potrebbe modificare temporaneamente il nome dei dischi della VM, aggiungendo uno dei seguenti suffissi al nome originale:
-temp
-old
-new
Compute Engine rimuove il suffisso e ripristina i nomi originali dei dischi al termine dell'aggiornamento.
Aumento della latenza per alcuni dischi permanenti causato dal ridimensionamento del disco
In alcuni casi, il ridimensionamento di dischi permanenti di grandi dimensioni (~3 TB o più) potrebbe influire negativamente sulle prestazioni I/O del disco. Se il problema ti riguarda, i tuoi dischi permanenti potrebbero registrare una maggiore latenza durante l'operazione di ridimensionamento. Questo problema può interessare i dischi permanenti di qualsiasi tipo.
I processi automatici potrebbero non riuscire se utilizzano i dati della risposta dell'API relativi alle quote di impegno basate sulle risorse
Le procedure automatiche che consumano e utilizzano i dati di risposta dell'API relativi alle quote dell'impegno basato sulle risorse di Compute Engine potrebbero non riuscire se si verificano una delle seguenti condizioni. Le tue procedure automatiche possono includere snippet di codice, logica di business o campi di database che utilizzano o memorizzano le risposte dell'API.
I dati di risposta provengono da uno dei seguenti metodi dell'API Compute Engine:
Utilizza un
int
anziché unnumber
per definire il campo per il limite di quota della risorsa nei campi di risposta dell'API. Puoi trovare il campo nei seguenti modi per ciascun metodo:items[].quotas[].limit
per il metodocompute.regions.list
.quotas[].limit
per il metodocompute.regions.get
.quotas[].limit
per il metodocompute.projects.get
.
Hai a disposizione una quota predefinita illimitata per qualsiasi SKU impegnato di Compute Engine.
Per ulteriori informazioni sulle quote per gli impegni e gli SKU vincolati, consulta Quote per gli impegni e le risorse vincolate.
Causa principale
Quando hai una quota limitata, se definisci il campo items[].quotas[].limit
o
quotas[].limit
come tipo int
, i dati di risposta dell'API per i limiti di quota
potrebbero comunque rientrare nell'intervallo per il tipo int
e la procedura automatica
potrebbe non essere interrotta. Tuttavia, quando il limite di quota predefinito è illimitato,
l'API Compute Engine restituisce un valore per il campo limit
che rientra
al di fuori dell'intervallo definito dal tipo int
. La procedura automatica non può utilizzare il valore restituito dal metodo dell'API e di conseguenza non va a buon fine.
Come risolvere il problema
Per risolvere il problema e continuare a generare i report automatici, puoi procedere nel seguente modo:
Azione consigliata: consulta la documentazione di riferimento dell'API Compute Engine e utilizza i tipi di dati corretti per le definizioni dei metodi dell'API. Nello specifico, utilizza il tipo
number
per definire i campiitems[].quotas[].limit
equotas[].limit
per i metodi dell'API.Riduci il limite di quota a un valore inferiore a 9.223.372.036.854.775.807. Devi impostare limiti di quota per tutti i progetti con impegni basati su risorse in tutte le regioni. Puoi farlo in uno dei seguenti modi:
- Segui la stessa procedura per richiedere un aggiustamento della quota e richiedi un limite di quota inferiore.
- Crea una sostituzione della quota.
Problemi noti per le istanze Bare Metal
Le istanze bare metal C4D non possono eseguire il sistema operativo SUSE Linux Enterprise Server (SLES) nella versione 15 SP6.
Soluzione
Utilizza SLES 15 SP5.
Problemi relativi all'utilizzo delle interfacce di rete dinamiche
Questa sezione descrive i problemi noti relativi all'utilizzo di più interfacce di rete e interfacce di rete dinamiche.
Perdita di pacchetti con dimensioni MTU personalizzate
Una NIC dinamica con una vNIC principale potrebbe riscontrare una perdita di pacchetti con dimensioni MTU personalizzate.
Soluzione alternativa
Per evitare la perdita di pacchetti, utilizza una delle seguenti dimensioni MTU:
- 1460 byte (il valore predefinito per le reti VPC)
- 1500 byte (Ethernet standard)
- 8896 byte (il valore massimo possibile)
Interazioni del firewall quando si riutilizza un ID VLAN con NIC dinamiche
In un'istanza, il riutilizzo di un ID VLAN per una nuova NIC dinamica ha implicazioni per il monitoraggio delle connessioni del firewall. Se elimini una NIC dinamica e ne crei una di riserva che utilizza lo stesso ID VLAN, le voci della tabella di monitoraggio delle connessioni del firewall non vengono cancellate automaticamente. L'esempio seguente mostra le considerazioni di sicurezza pertinenti:
- Un'istanza di calcolo ha una NIC dinamica di esempio con ID VLAN
4
collegata a una subnet nella rete VPCnetwork-1
. - L'istanza invia pacchetti all'indirizzo IP di destinazione 192.0.2.7:443 e alla porta di destinazione. Le regole firewall in uscita applicabili consentano la connessione in uscita.
- Poiché le regole del NGFW Cloud sono stateful, la connessione in uscita consentita crea una voce della tabella di monitoraggio delle connessioni del firewall che consente i pacchetti in entrata dall'indirizzo IP di origine e dalla porta di origine 192.0.2.7:443.
- Elimina la NIC dinamica di esempio e crea una NIC dinamica di sostituzione. La NIC dinamica sostitutiva utilizza anche l'ID VLAN
4
, ma si connette a una subnet in un'altra rete VPC,network-2
. - Tutte le voci della tabella di monitoraggio delle connessioni del firewall non scadute applicabili alla NIC dinamica originale sono applicabili alla NIC dinamica sostitutiva. Ciò significa che una risorsa nella rete VPC
network-2
può inviare pacchetti le cui origini corrispondono a 192.0.2.7:443 e l'istanza di calcolo li accetta senza dover valutare le regole del firewall in entrata.
Per ulteriori informazioni sul monitoraggio delle connessioni e sulle regole del firewall, consulta le Specifiche nella documentazione di Cloud Next Generation Firewall.
Soluzione
Su base per istanza, se devi creare una NIC dinamica che utilizzi lo stesso ID VLAN di una NIC dinamica rimossa dall'istanza:
- Attendi almeno 10 minuti tra l'eliminazione della NIC dinamica originale e la creazione della NIC dinamica sostitutiva.
- Arresta l'istanza, elimina la NIC dinamica originale e crea la NIC dinamica sostitutiva, quindi avvia l'istanza.
L'intercettazione dei pacchetti può comportare la perdita di pacchetti a causa della mancanza di tag VLAN nelle intestazioni Ethernet
L'intercettazione dei pacchetti quando si utilizza la NIC dinamica può comportare la perdita di pacchetti. I pacchetti persi possono verificarsi quando la pipeline viene interrotta prematuramente. Il problema riguarda sia le modalità basate sulla sessione sia quelle non basate sulla sessione.
Causa principale
I pacchetti persi si verificano durante l'intercettazione dei pacchetti quando la pipeline viene interrotta prematuramente (intercettazione in ingresso e reiniezione in uscita). L'interruzione anticipata fa sì che l'ID VLAN non sia presente nell'intestazione Ethernet del pacchetto di ingresso. Poiché il pacchetto di uscita è derivato dal pacchetto di ingresso modificato, anche il pacchetto di uscita manca dell'ID VLAN. Ciò comporta la selezione errata dell'indice dell'endpoint e la caduta successiva dei pacchetti.
Soluzione alternativa
Non utilizzare Google Cloud funzionalità che si basano sull'intercettazione dei pacchetti, come gli endpoint firewall.
Problemi noti per le istanze VM Linux
Questi sono i problemi noti per le VM Linux.
Le VM Ubuntu che utilizzano la versione dell'immagine del sistema operativo v20250530 mostrano un FQDN errato
Potresti visualizzare un nome di dominio completo (FQDN) errato con l'aggiunta del suffisso .local
se esegui una delle seguenti operazioni:
- Esegui l'aggiornamento alla versione
20250328.00
del pacchettogoogle-compute-engine
. - Avvia istanze da qualsiasi immagine Ubuntu offerta da Canonical con il suffisso della versione
v20250530
. Ad esempio,projects/ubuntu-os-cloud/global/images/ubuntu-2204-jammy-v20250530
.
Se riscontri questo problema, potresti visualizzare un FQDN simile al seguente:
[root@ubuntu2204 ~]# apt list --installed | grep google
...
google-compute-engine/noble-updates,now 20250328.00-0ubuntu2~24.04.0 all [installed]
...
[root@ubuntu2204 ~]# curl "http://metadata.google.internal/computeMetadata/v1/instance/image" -H "Metadata-Flavor: Google"
projects/ubuntu-os-cloud/global/images/ubuntu-2204-jammy-v20250530
[root@ubuntu2204 ~]# hostname -f
ubuntu2204.local
Causa principale
In tutte le immagini Ubuntu con la versione v20250530
, la versione del pacchetto guest-config
20250328.00
aggiunge local
al percorso di ricerca a causa dell'introduzione di un nuovo file di configurazione: https://github.com/GoogleCloudPlatform/guest-configs/blob/20250328.00/src/etc/systemd/resolved.conf.d/gce-resolved.conf
[root@ubuntu2204 ~]# cat /etc/resolv.conf
# This is /run/systemd/resolve/stub-resolv.conf managed by man:systemd-resolved(8).
# Do not edit.
...
nameserver 127.0.0.53
options edns0 trust-ad
search local ... google.internal
La presenza di questa voce local
all'interno del percorso di ricerca nel file /etc/resolv.conf
comporta l'aggiunta di un elemento .local
al nome host quando viene richiesto un FQDN.
Tieni presente che la versione 20250501 di guest-configs
già risolve il problema, ma Canonical non ha ancora incorporato la correzione nelle proprie immagini.
Soluzione alternativa
- Modifica il file di configurazione della risoluzione dei nomi di rete
/etc/systemd/resolved.conf.d/gce-resolved.conf
sostituendoDomains=local
conDomains=~local
- Esegui il seguente comando per riavviare il servizio systemd-resolved:
systemctl restart systemd-resolved
- Verifica che
local
sia stato rimosso dal percorso di ricerca in/etc/resolv.conf
Conferma il FQDN utilizzando il comando
hostname -f
[root@ubuntu2204 ~]# hostname -f ubuntu2204.us-central1-a.c.my-project.internal
La VM SUSE Enterprise non riesce ad avviarsi dopo la modifica dei tipi di istanze
Dopo aver modificato il tipo di istanza di una VM SUSE Linux Enterprise, l'avvio può non riuscire con il seguente errore che si ripete nella console seriale:
Starting [0;1;39mdracut initqueue hook[0m...
[ 136.146065] dracut-initqueue[377]: Warning: dracut-initqueue: timeout, still waiting for following initqueue hooks:
[ 136.164820] dracut-initqueue[377]: Warning: /lib/dracut/hooks/initqueue/finished/devexists-\x2fdev\x2fdisk\x2fby-uuid\x2fD3E2-0CEB.sh: "[ -e "/dev/disk/by-uuid/D3E2-0CEB" ]"
[ 136.188732] dracut-initqueue[377]: Warning: /lib/dracut/hooks/initqueue/finished/devexists-\x2fdev\x2fdisk\x2fby-uuid\x2fe7b218a9-449d-4477-8200-a7bb61a9ff4d.sh: "if ! grep -q After=remote-fs-pre.target /run/systemd/generator/systemd-cryptsetup@*.service 2>/dev/null; then
[ 136.220738] dracut-initqueue[377]: [ -e "/dev/disk/by-uuid/e7b218a9-449d-4477-8200-a7bb61a9ff4d" ]
[ 136.240713] dracut-initqueue[377]: fi"
Causa principale
SUSE crea le sue immagini cloud con un versatile initramfs
(filesystem RAM iniziale) che supporta vari tipi di istanze. Questo viene ottenuto utilizzando i flag --no-hostonly --no-hostonly-cmdline -o multipath
durante la creazione iniziale dell'immagine. Tuttavia, quando viene installato un nuovo kernel o viene rigenerato initramfs
, come accade durante gli aggiornamenti di sistema, questi flag vengono omessi per impostazione predefinita.
Il risultato è un initramfs
più piccolo, personalizzato specificamente per l'hardware del sistema corrente, potenzialmente escludendo i driver necessari per altri tipi di istanze.
Ad esempio, le istanze C3 utilizzano unità NVMe, che richiedono moduli specifici
da includere nel initramfs
. Se viene eseguita la migrazione di un sistema con un initramfs
privo di questi moduli NVMe a un'istanza C3, il processo di avvio non va a buon fine. Questo problema può interessare anche altri tipi di istanze con requisiti hardware specifici.
Soluzione alternativa
Prima di cambiare il tipo di macchina, rigenera initramfs
con tutti i driver:
dracut --force --no-hostonly
Se il sistema è già interessato dal problema, crea una
VM di recupero temporanea. Utilizza il comando chroot
per accedere al disco di avvio della VM interessata, quindi rigenera initramfs
utilizzando il seguente comando:
dracut -f --no-hostonly
Prestazioni IOPS inferiori per l'SSD locale su Z3 con immagini SUSE 12
Le VM Z3 sulle immagini SUSE Linux Enterprise Server (SLES) 12 hanno prestazioni inferiori alle aspettative per le IOPS sui dischi SSD locali.
Causa principale
Si tratta di un problema all'interno della base di codice di SLES 12.
Soluzione alternativa
Non è disponibile o pianificata una patch di SUSE per risolvere il problema. Dovresti invece utilizzare il sistema operativo SLES 15.
Le VM RHEL 7 e CentOS perdono l'accesso alla rete dopo il riavvio
Se le VM CentOS o RHEL 7 hanno più schede di interfaccia di rete (NIC) e una di queste NIC non utilizza l'interfaccia VirtIO, l'accesso alla rete potrebbe andare perso al riavvio. Questo accade perché RHEL non supporta la disattivazione dei nomi di interfaccia di rete prevedibili se almeno una NIC non utilizza l'interfaccia VirtIO.
Risoluzione
La connettività di rete può essere ripristinata fermando e avviando la VM finché il problema non viene risolto. Per evitare che la perdita di connettività di rete si ripeta, segui questi passaggi:
1. Modifica il file /etc/default/grub
e rimuovi i parametri del kernel
net.ifnames=0
e biosdevname=0
.
2. Rigenera la configurazione di grub.
3. Riavvia la VM.
Risolto: link simbolici mancanti per i dispositivi SSD locali sulle VM C3 e C3D che eseguono SUSE Linux
Il seguente problema è stato risolto il 13 gennaio 2025.
Le immagini SUSE Google Cloud pubbliche non includono la configurazione udev richiesta per creare i link simbolici per i dispositivi SSD locale C3 e C3D.
Risoluzione
Per aggiungere regole udev per SUSE e immagini personalizzate, consulta Symlinks not created C3 and C3D with Local SSD.
Impossibile verificare la firma di repomd.xml
Sui sistemi basati su Red Hat Enterprise Linux (RHEL) o CentOS 7, potresti visualizzare il seguente errore quando provi a installare o aggiornare il software utilizzando yum. Questo errore indica che hai una chiave GPG del repository scaduta o errata.
Log di esempio:
[root@centos7 ~]# yum update
...
google-cloud-sdk/signature | 1.4 kB 00:00:01 !!!
https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for google-cloud-sdk
Trying other mirror.
...
failure: repodata/repomd.xml from google-cloud-sdk: [Errno 256] No more mirrors to try.
https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for google-cloud-sdk
Risoluzione
Per risolvere il problema, disattiva il controllo della chiave GPG del repository nella configurazione del repository yum impostando repo_gpgcheck=0
. Nelle immagini di base di Compute Engine supportate, questa
impostazione potrebbe trovarsi nel file /etc/yum.repos.d/google-cloud.repo
. Tuttavia,
la tua VM può avere questo valore impostato in diversi file di configurazione del repository
o strumenti di automazione.
I repository Yum in genere non utilizzano le chiavi GPG per la convalida del repository. Al contrario,
l'endpoint https
è attendibile.
Per individuare e aggiornare questa impostazione, segui questi passaggi:
Cerca l'impostazione nel file
/etc/yum.repos.d/google-cloud.repo
.cat /etc/yum.repos.d/google-cloud.repo [google-compute-engine] name=Google Compute Engine baseurl=https://packages.cloud.google.com/yum/repos/google-compute-engine-el7-x86_64-stable enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg [google-cloud-sdk] name=Google Cloud SDK baseurl=https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64 enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
Cambia tutte le righe che contengono
repo_gpgcheck=1
inrepo_gpgcheck=0
.sudo sed -i 's/repo_gpgcheck=1/repo_gpgcheck=0/g' /etc/yum.repos.d/google-cloud.repo
Verifica che l'impostazione sia aggiornata.
cat /etc/yum.repos.d/google-cloud.repo [google-compute-engine] name=Google Compute Engine baseurl=https://packages.cloud.google.com/yum/repos/google-compute-engine-el7-x86_64-stable enabled=1 gpgcheck=1 repo_gpgcheck=0 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg [google-cloud-sdk] name=Google Cloud SDK baseurl=https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64 enabled=1 gpgcheck=1 repo_gpgcheck=0 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
Le istanze che utilizzano OS Login restituiscono un messaggio di accesso dopo la connessione
In alcune istanze che utilizzano l'accesso all'OS, potresti ricevere il seguente messaggio di errore dopo che la connessione è stata stabilita:
/usr/bin/id: cannot find name for group ID 123456789
Risoluzione
Ignora il messaggio di errore.
Problemi noti per le istanze VM Windows
- Il supporto di NVMe su Windows che utilizza il driver NVMe della community è in versione beta, pertanto le prestazioni potrebbero non corrispondere a quelle delle istanze Linux. Il driver NVMe della community è stato sostituito dal driver Microsoft StorNVMe nelle Google Cloud immagini pubbliche. Ti consigliamo di sostituire il driver NVME nelle VM create prima di maggio 2022 e di utilizzare il driver Microsoft StorNVMe.
- Dopo aver creato un'istanza, non puoi connetterti immediatamente. Tutte le nuove istanze Windows utilizzano lo strumento di preparazione del sistema (sysprep) per configurare l'istanza, il che può richiedere 5-10 minuti.
- Le immagini di Windows Server non possono essere attivate senza una connessione di rete a
kms.windows.googlecloud.com
e smettono di funzionare se non si autenticano inizialmente entro 30 giorni. Il software attivato da KMS deve essere riattivato ogni 180 giorni, ma KMS tenta di riattivarlo ogni 7 giorni. Assicurati di configurare le istanze Windows in modo che rimangano attive. - Il software del kernel che accede a registri specifici del modello non emulati genererà errori di protezione generali, che possono causare un arresto anomalo del sistema a seconda del sistema operativo guest.
Windows Server 2025 e Windows 11 24h2 - Supporto di sospensione e ripresa
Windows Server 2025 e Windows 11 24h2 non riescono a riprendere quando sono in sospensione. Finché il problema non viene risolto, la funzionalità di sospensione e ripresa non sarà supportata per Windows Server 2025 e Windows 11 24h2.
Errori durante la misurazione dello scostamento di tempo NTP utilizzando w32tm sulle VM Windows
Per le VM Windows su Compute Engine che eseguono NIC VirtIO, è noto un bug in cui la misurazione dello scostamento NTP genera errori quando si utilizza il seguente comando:
w32tm /stripchart /computer:metadata.google.internal
Gli errori sono simili ai seguenti:
Tracking metadata.google.internal [169.254.169.254:123].
The current time is 11/6/2023 6:52:20 PM.
18:52:20, d:+00.0007693s o:+00.0000285s [ * ]
18:52:22, error: 0x80072733
18:52:24, d:+00.0003550s o:-00.0000754s [ * ]
18:52:26, error: 0x80072733
18:52:28, d:+00.0003728s o:-00.0000696s [ * ]
18:52:30, error: 0x80072733
18:52:32, error: 0x80072733
Questo bug interessa solo le VM Compute Engine con NIC VirtIO. Le VM che utilizzano gVNIC non riscontrano questo problema.
Per evitare questo problema, Google consiglia di utilizzare altri strumenti di misurazione della deriva NTP, come Meinberg Time Server Monitor.
Dispositivo di avvio inaccessibile dopo l'aggiornamento di una VM di 1ª o 2ª generazione a una VM di 3ª generazione o successive
Windows Server associa la unità di avvio al tipo di interfaccia disco iniziale al primo avvio. Per cambiare una VM esistente da una serie di macchine meno recenti che utilizza un'interfaccia di disco SCSI a una serie di macchine più recenti che utilizza un'interfaccia di disco NVMe, esegui un sysprep del driver PnP di Windows prima di arrestare la VM. Questo sysprep prepara solo i driver di dispositivo e verifica che tutti i tipi di interfaccia del disco vengano sottoposti a scansione per la unità di avvio al successivo avvio.
Per aggiornare la serie di macchine di una VM:
Da un prompt di PowerShell come Administrator
, esegui:
PS C:\> start rundll32.exe sppnp.dll,Sysprep_Generalize_Pnp -wait
- Arresta la VM.
- Modifica la VM in base al nuovo tipo di macchina VM.
- Avvia la VM.
Se la nuova VM non si avvia correttamente, ripristina il tipo di macchina originale per farla funzionare di nuovo. Dovrebbe avviarsi correttamente. Esamina i requisiti per la migrazione per verificare di soddisfarli. Quindi, riprova a seguire le istruzioni.
Larghezza di banda limitata con gVNIC sulle VM Windows
Il driver gVNIC pacchettizzato nelle immagini Windows offerte da Compute Engine può raggiungere fino a 50 Gbps di larghezza di banda di rete sulle istanze Windows, sia per le prestazioni di rete standard sia per le prestazioni di rete Tier_1 per VM. Una versione aggiornata del driver gVNIC può offrire prestazioni in linea con la velocità della linea (fino a 200 Gbps) e il supporto dei frame jumbo.
Il driver aggiornato è disponibile solo per le serie di macchine di terza generazione e successive (escluso N4). Per ulteriori informazioni, consulta Aggiornare la versione di gVNIC sul sistema operativo Windows.
Collegamento con numero limitato di dischi per le serie di macchine VM più recenti
Le VM in esecuzione su Microsoft Windows con l'interfaccia del disco NVMe (che include T2A, tutte le VM di terza generazione e versioni successive) hanno un limite di 16 dischi collegati. Per evitare errori, consolida lo spazio di archiviazione di Persistent Disk e Hyperdisk fino a un massimo di 16 dischi per VM. Lo spazio di archiviazione su SSD locale è escluso da questo problema.
Sostituire il driver NVME nelle VM create prima di maggio 2022
Se vuoi utilizzare NVMe su una VM che utilizza Microsoft Windows e la VM è stata creata prima del 1° maggio 2022, devi aggiornare il driver NVMe esistente nel sistema operativo guest per utilizzare il driver Microsoft StorNVMe.
Devi aggiornare il driver NVMe sulla VM prima di cambiare il tipo di macchina in una serie di macchine di terza generazione o prima di creare uno snapshot del disco di avvio che verrà utilizzato per creare nuove VM che utilizzano una serie di macchine di terza generazione.
Utilizza i seguenti comandi per installare il pacchetto del driver StorNVME e rimuovere il driver della community, se presente nel sistema operativo guest.
googet update
googet install google-compute-engine-driver-nvme
Prestazioni inferiori per l'SSD locale su Microsoft Windows con VM C3 e C3D
Le prestazioni degli SSD locali sono limitate per le VM C3 e C3D che eseguono Microsoft Windows.
Stiamo apportando dei miglioramenti alle prestazioni.
Basso throughput della rete quando si utilizza gVNIC
Le VM Windows Server 2022 e Windows 11 che utilizzano il pacchetto GooGet del driver gVNIC
nella versione 1.0.0@44
o precedente potrebbero riscontrare un basso throughput della rete quando
utilizzano Google Virtual NIC (gVNIC).
Per risolvere il problema, aggiorna il pacchetto GooGet del driver gVNIC alla versione1.0.0@45
o successiva nel seguente modo:
Controlla la versione del driver installata sulla VM eseguendo il seguente comando da una sessione di Powershell o Prompt dei comandi di amministratore:
googet installed
L'output è simile al seguente:
Installed packages: ... google-compute-engine-driver-gvnic.x86_64 VERSION_NUMBER ...
Se la versione del driver
google-compute-engine-driver-gvnic.x86_64
è1.0.0@44
o precedente, aggiorna il repository dei pacchetti GooGet eseguendo il seguente comando da un prompt dei comandi o da una sessione PowerShell di amministratore:googet update
I tipi di macchine con vCPU C4D e C3D di grandi dimensioni non supportano le immagini del sistema operativo Windows
I tipi di macchine C4D e C3D con più di 180 vCPU non supportano le immagini del sistema operativo Windows Server 2012 e 2016. I tipi di macchine C4D e C3D più grandi che utilizzano immagini del sistema operativo Windows Server 2012 e 2016 non riusciranno ad avviarsi. Per risolvere il problema, seleziona un tipo di macchina più piccolo o usa un'altra immagine del sistema operativo.
Le VM C3D create con 360 vCPU e immagini del sistema operativo Windows non riusciranno ad avviarsi. Per risolvere il problema, seleziona un tipo di macchina più piccolo o utilizza un'altra immagine del sistema operativo.
Le VM C4D create con più di 255 vCPU e Windows 2025 non riusciranno ad avviarsi. Per risolvere il problema, seleziona un tipo di macchina più piccolo o utilizza un'altra immagine del sistema operativo.
Errore generico del disco su Windows Server 2016 e 2012 R2 per le VM M3, C3, C3D e C4D
Al momento, la possibilità di aggiungere o ridimensionare un Hyperdisk o un Persistent Disk per una VM M3, C3, C3D o C4D in esecuzione non funziona come previsto su guest Windows specifici. Windows Server 2012 R2 e Windows Server 2016 e le relative varianti Windows non server non rispondono correttamente ai comandi di aggancio e ridimensionamento del disco.
Ad esempio, la rimozione di un disco da una VM M3 in esecuzione lo scollega da un'istanza Windows Server senza che il sistema operativo Windows riconosca che il disco non è più presente. Le scritture successive sul disco restituiscono un errore generico.
Risoluzione
Devi riavviare la VM M3, C3, C3D o C4D in esecuzione su Windows dopo aver modificato un Hyperdisk o Persistent Disk affinché le modifiche al disco vengano riconosciute da questi guest.