C’è un serio problema con il cloud, e con l’intelligenza artificiale (AI). Le piattaforme cloud (soprattutto le pubbliche) rappresentano attualmente l’ambiente più pericoloso e il trend si confermerà man mano che sarà introdotta l’AI a supporto dei servizi e dei processi. Secondo la recente CISO’s Guide to the Cloud Threat Landscape di CrowdStrike, si è registrato un “aumento del 136% delle intrusioni nel cloud nella prima metà del 2025 rispetto al 2024”. E il 35% degli incidenti ha sfruttato account validi sottratti dai cybercriminali secondo le classiche tecniche di social engineering. Così, sostiene ABI Research, in questo 2026 la sovranità dell’AI nel cloud diventerà una priorità. Cosa significa, più precisamente “cloud AI sovereignty”? Significa che si dovrebbero avere garanzie dai fornitori AI per un pieno controllo dell’intera architettura – dati, modelli, infrastrutture e processi – a livello nazionale, o al massimo europeo. È esattamente il concetto di sovranità del dato esteso all’AI. Dal controllo del dato e la definizione dell’infrastruttura fisica all’interno dei confini europei, si passa in un attimo alla sovranità su servizi e applicazioni. E, sempre secondo Abi Research, sembra che siano le stesse aziende clienti a richiedere uno stack software basato sull’AI per un cloud completamente sovrano. Una necessità anche imposta dalla compliance: il Regolamento Generale sulla Protezione dei Dati (Gdpr) europeo è ancora una volta la direzione principale da seguire a cui si aggiungono altre normative come il Cyber Resilience Act (Cra), il NIS 2, il sistema di certificazione della sicurezza informatica dell’Unione per i servizi cloud (Eucs) e l’imminente “framework per la sovranità del cloud”, sempre dell’Unione Europea. Il problema di base è che i modelli di apprendimento automatico, e l’intelligenza artificiale in generale, non sono stati progettati tenendo conto dei più elementari requisiti di protezione del dato. E solo con l’introduzione dell’Intelligenza Artificiale Generativa sono iniziate le prime preoccupazioni. L’AI in tutte le sue declinazioni non è nativamente sicura – anche e soprattutto...
C’è un serio problema con il cloud, e con l’intelligenza artificiale (AI). Le piattaforme cloud (soprattutto le pubbliche) rappresentano attualmente l’ambiente più pericoloso e il trend si confermerà man mano che sarà introdotta l’AI a supporto dei servizi e dei processi. Secondo la recente CISO’s Guide to the Cloud Threat Landscape di CrowdStrike, si è registrato un “aumento del 136% delle intrusioni nel cloud nella prima metà del 2025 rispetto al 2024”. E il 35% degli incidenti ha sfruttato account validi sottratti dai cybercriminali secondo le classiche tecniche di social engineering. Così, sostiene ABI Research, in questo 2026 la sovranità dell’AI nel cloud diventerà una priorità. Cosa significa, più precisamente “cloud AI sovereignty”? Significa che si dovrebbero avere garanzie dai fornitori AI per un pieno controllo dell’intera architettura – dati, modelli, infrastrutture e processi – a livello nazionale, o al massimo europeo. È esattamente il concetto di sovranità del dato esteso all’AI. Dal controllo del dato e la definizione dell’infrastruttura fisica all’interno dei confini europei, si passa in un attimo alla sovranità su servizi e applicazioni. E, sempre secondo Abi Research, sembra che siano le stesse aziende clienti a richiedere uno stack software basato sull’AI per un cloud completamente sovrano. Una necessità anche imposta dalla compliance: il Regolamento Generale sulla Protezione dei Dati (Gdpr) europeo è ancora una volta la direzione principale da seguire a cui si aggiungono altre normative come il Cyber Resilience Act (Cra), il NIS 2, il sistema di certificazione della sicurezza informatica dell’Unione per i servizi cloud (Eucs) e l’imminente “framework per la sovranità del cloud”, sempre dell’Unione Europea. Il problema di base è che i modelli di apprendimento automatico, e l’intelligenza artificiale in generale, non sono stati progettati tenendo conto dei più elementari requisiti di protezione del dato. E solo con l’introduzione dell’Intelligenza Artificiale Generativa sono iniziate le prime preoccupazioni. L’AI in tutte le sue declinazioni non è nativamente sicura – anche e soprattutto...
C’è un serio problema con il cloud, e con l’intelligenza artificiale (AI). Le piattaforme cloud (soprattutto le pubbliche) rappresentano attualmente l’ambiente più pericoloso e il trend si confermerà man mano che sarà introdotta l’AI a supporto dei servizi e dei processi. Secondo la recente CISO’s Guide to the Cloud Threat Landscape di CrowdStrike, si è registrato un “aumento del 136% delle intrusioni nel cloud nella prima metà del 2025 rispetto al 2024”. E il 35% degli incidenti ha sfruttato account validi sottratti dai cybercriminali secondo le classiche tecniche di social engineering. Così, sostiene ABI Research, in questo 2026 la sovranità dell’AI nel cloud diventerà una priorità. Cosa significa, più precisamente “cloud AI sovereignt