Cerca
Blog

Il lato oscuro del cloud

I rischi del cloud che non dobbiamo dimenticare

Didascalia

Negli ultimi mesi del 2025 il “lato oscuro” del cloud è uscito prepotentemente dai "circoli dei tecnici" per finire sulle prime pagine. Nel giro di poche settimane abbiamo visto:

  • il grande blackout di AWS del 20 ottobre 2025

  • l’outage (interruzione) globale di Azure del 29 ottobre 2025

  • il collasso della rete Cloudflare il 18 novembre

  • e, sul fronte connettività, il down nazionale Fastweb (22 ottobre, con nuovi disservizi a fine novembre).

Il cloud, che da anni prometteva continuità, scalabilità e affidabilità, ha mostrato il suo tallone d'Achille. Questi episodi, tutti causati da errori interni e non da attacchi, sono un ottimo caso di studio per capire i rischi operativi che sono intrinsechi nella scelta di migrare al cloud.

 

Che cosa è successo?

Presentiamo una breve descrizione degli incidenti occorsi

AWS si ferma per un problema DNS

Il 20 ottobre 2025, un errore di DNS legato ad un servizio su un database, occorso nella regione US-EAST-1 (Stati Uniti costa orientale) ha innescato una cascata di malfunzionamenti all’interno di AWS. Il risultato? Snapchat, Canva, servizi bancari come PayPall, siti governativi come l'Agenzia delle Entrate sono risultati offline per ore in buona parte del mondo. Il guasto è stato identificato e risolto in circa 3 ore, ma ci sono volute ulteriori 4 per tornare alla normalità. 

Il punto da tenere presente: un singolo problema su un componente “di base” (DNS verso un database gestito) ha propagato errori a decine di altri servizi AWS e a migliaia di applicazioni che ci girano sopra.

Azure giù per una configurazione sbagliata

Il 29 ottobre è stata la volta di Microsoft Azure. Un’“inadvertent configuration change” su Azure FrontDoor – il servizio che fa da front-end globale per tante applicazioni – ha causato errori di autenticazione e time-out a livello mondiale per oltre otto ore. Sono andati in crisi Microsoft 365, Outlook, Teams, Xbox, ma ha impattato anche su aziende di trasporto e operatori telefonici. Il blocco è durato circa nove ore ed è stato superato eseguendo un'operazione di rollback per annullare la configurazione errata.

Il punto da tenere presente: un'operazione costituita da una "modifica involontaria della configurazione", svolta tuttavia da personale interno a Microsoft, ha causato il blocco dei servizi della piattaforma microsoft 365 negli Stati Uniti e in vari altri paesi (l'Europa non risulta impattata se non in casi particolari).

Cloudflare bloccato per un file troppo grande 

Il 18 novembre 2025, Cloudflare, che protegge e accelera circa il 20% dei siti web globali, ha avuto un guasto interno: un bug in Bot Management ha generato un “feature file” anomalo che ha raddoppiato le dimensioni previste, mandando in crash parti della rete e restituendo errori a milioni di utenti per circa sei ore. Piattaforme come X, ChatGPT, Canva, siti di autorità finanziarie e perfino sistemi di trasporto pubblico sono risultate irraggiungibili.

In questo caso, a differenza dei precedenti, il problema nasce da un bug noto ma sottovalutato per impatto.

Fastweb – quando è la connettività il problema 

In Italia, il 22 ottobre 2025, l'operatore Fastweb per un problema di DNS ha subito un down della rete fissa (e in parte di quella mobile) su scala nazionale per diverse ore, con oltre 30.000 segnalazioni di guasto. L’azienda ha confermato, anche in questo caso, che non si tratta di un attacco ma di errore di configurazione del DNS che ha impedito l’accesso a siti e servizi web fino al ripristino. 

 

Quando incidenti piccoli diventano devastanti: effetto domino

Di solito siamo portati a considerare come impattanti solo gravi incidenti, a tendiamo a sottovalutare quelli piccoli. Il problema nasce quando questi piccoli incidenti si inseriscono in grandi ingranaggi e li possono bloccare. Le principali motivazioni di questo effetto domino sono le seguenti.

Concentrazione del mercato e rischio sistemico

La maggior parte dei servizi cloud dipende da tre grandi hyperscaler (AWS, Azure, Google Cloud) e da pochi operatori edge (Cloudflare, Akamai). Questa concentrazione fa sì che un singolo errore, per quanto piccolo, possa propagarsi a centinaia di servizi, anche terzi, in pochi minuti.

Infatti, i disservizi di AWS e Azure hanno dimostrato che un’anomalia locale può diventare globale, mentre il caso Cloudflare ha mostrato che anche chi ha un’architettura multi-cloud può comunque essere messo in ginocchio da un guasto nel livello “medio-basso” della rete.

Quando il guasto sbagliato occorre nel posto sbagliato

In tutti i casi sopra riportati, vediamo una correlazione comune:

  • AWS: un bug di automazione e DNS interno DB determinano un massive downtime. 

  • Azure: un singolo change di configurazione su Azure Frontdoor determinano il blocco dei sistemi di autenticazioni di portali, siti e API sia di microsoft 365 che di terze parti.

  • Cloudflare: un bug di un sistema di bot management determina crash su buona parte dei nodi edge.

  • Fastweb: un guasto al DNS dell’operatore determina la perdita di connettività di migliaia di utenti business e consumer, impedendo l'accesso ad applicazione perfettamente funzionanti.

Sono tutti problemi banali sulla carta (DNS, configurazioni, file di regole), ma posti nel punto sbagliato della catena.

Continuità operativa ed effetto domino

Quando si parla di cloud e continuità operativa è fondamentale che siano analizzati gli scenari relativi al down della piattaforma e al down della connettività. 

La lezione che dobbiamo apprendere? Non basta che il tuo data center cloud sia su più Availability Zone se poi materialmente la piattaforma che utilizzi dipende da un unico “collo di bottiglia” (una region, una CDN, un ISP singolo). In questo caso la tua resilienza digitale è un’illusione.

 

Come ridurre il rischio di outage cloud e garantire continuità operativa

Per ridurre il rischio ovviamente sarebbe necessario avere a disposizione un budget non certo indifferente.

1. Dal punto di vista dell'architettura

Adottare soluzioni multi-cloud

  • Introdurre almeno un sito di emergenza su un secondo provider

  • Sincronizzare dati essenziali con RPO brevi

  • Considerare l’uso di container e orchestratori (Kubernetes, OpenShift) per la portabilità

Abbattere le dipendenze dal livello edge

  • Prevedere piani di bypass per CDN/WAF (Cloudflare, Akamai)

  • Implementare fallback DNS indipendenti

Connettività ridondata

  • Due ISP distinti, uno principale e uno di backup

  • optare per backup mobile 4G/5G su operatori diversi dal ISP principale

2. Dal punto di vista dei processi organizzativi

 

Governance e Business Continuity

  • Aggiornare BC/DR includendo scenari multi-provider

  • Definire RTO/RPO realistici, verificati con test periodici

  • Effettuare simulazioni di cloud-down day

  • Definire SLA per evento e non considerare solo uptime

 

Conclusioni 

Gli incidenti occorsi nell'ultimo periodo non dimostrano che “il cloud non funziona”, ma che il cloud va considerato come un’infrastruttura critica non perfetta.

Il cloud in sé garantisce un'infrastruttura robusta, ridondata, verificata e continuamente migliorata. Ma ciò non toglie che non è a rischio nullo. È necessario valutare gli scenari di "cloud failure" e "cloud outage" nei piani di continuità operativa e gestire i rischi associati.

 

 

 

 

 

Blog