

Giuseppe Barile
9 set 2025
Dal palco di Orzinuovi alla vetrina di Big Tech: le parole del sottosegretario Alessio Butti trovano eco nelle ultime mosse di Microsoft, Google e AWS.
ORZINUOVI (BRESCIA). «L'innovazione non è solo Intelligenza Artificiale ma anche sensoristica e quantum computing»: su questa frase pronunciata dal sottosegretario alla Presidenza del Consiglio con delega all'innovazione tecnologica, Alessio Butti, è facile costruire slogan da congresso ma vale la pena ascoltarla con attenzione, perché trova conferme nel laboratorio più grande che oggi abbiamo: il mercato della ricerca applicata.
Innanzitutto, unità quantistiche, conosciute come “qubit”, rappresentano l’elemento fondamentale dell’informazione nel calcolo quantistico e costituiscono l’equivalente quantistico del bit classico. A differenza del bit tradizionale, che può trovarsi solo nello stato “0” o “1”, un qubit può sopravvivere in una sovrapposizione di entrambi gli stati contemporaneamente, finché non viene sottoposto a una misura. In quel momento “collassa” realizzando uno solo dei due esiti possibili. Questo comportamento è ciò che conferisce ai sistemi quantistici una forza inedita: grazie alla sovrapposizione, più qubit possono simultaneamente esplorare un ampio ventaglio di possibili soluzioni, creando un tipo di parallelismo che aumenta in modo esponenziale l’efficienza rispetto ai sistemi classici.
Negli ultimi mesi non è cambiata soltanto la retorica; sono emersi dati e prototipi che mettono un po' di carne sul fuoco delle promesse. Microsoft ha tolto il velo da Majorana 1, un chip a otto qubit basato su topoconductors, materiali misti di arsenide d’indio e alluminio che potrebbero garantire una resilienza agli errori grazie a proprietà topologiche, una pietra miliare verso sistemi con fino a un milione di unità quantistiche. Il merito è notevole, benché la comunità scientifica attenda ancora una prova definitiva della presenza dei cosiddetti Majorana zero modes.
Google ha mostrato Willow, un chip che per la prima volta ha dimostrato una dinamica controintuitiva ma cruciale: all’aumentare della scala, gli errori sui qubit logici sono diminuiti, segnalando un possibile cambio di paradigma nella correzione d’errore quantistica. Nel frattempo AWS ha svelato Ocelot, un’architettura che punta a tagliare il costo in qubit fisici necessario per la correzione, avvicinando la tecnologia a scenari di applicazione industriale.
Quello che lega le dichiarazioni politiche di Butti e i lanci tecnologici è un punto tecnico semplice ma decisivo: la correzione d’errore. È il tallone d’Achille che per decenni ha tenuto il quantum tra i laboratori e lontano dalle linee di produzione. Oggi, più che di singole “scoperte”, possiamo parlare di una convergenza di approcci sperimentali (topologia, cat qubit, codici di superficie più efficienti) che riducono l’overhead e rendono plausibile una roadmap industriale. Non è ancora la macchina fault-tolerant di cui si sognava anni fa, ma è il tipo di progresso che, accumulandosi, produce un mercato.
Per il mondo automotive, proprio quello citato da Butti, la combinazione ha un valore pratico immediato. Sensoristica avanzata e intelligenza artificiale possono rispondere alle sfide più vicine (sicurezza, manutenzione predittiva, ottimizzazione delle supply chain), mentre il quantum entra come acceleratore su problemi specifici: progettazione di materiali per batterie, simulazioni molecolari per nuovi lubrificanti, ottimizzazione di reti logistiche complesse. Detto in altri termini, il quantum non sostituirà domani l’EDA (Electronic Design Automation) o il cloud aziendale, ma fornirà strumenti per risolvere problemi che oggi richiedono risorse insostenibili. La strategia politica deve pertanto raccordare incentivi, formazione tecnica e sperimentazioni industriali locali, proprio quanto suggerisce il sottosegretario per territori con un tessuto manifatturiero denso come la provincia di Brescia.
Restano aperti i nodi più ostinati. La strada verso un computer quantistico fault-tolerant resta complessa, con molte incognite sull’ingegneria di scala, sui materiali e sulla supply chain di componenti critici. Le date che circolano — attorno al 2030 per una macchina pienamente fault-tolerant — sono stimoli strategici più che scadenze tecniche certe. Ma questo non deve essere letto come un alibi all’immobilismo: la transizione richiede piani operativi, investimenti in capitale umano e corpi intermedi (università, centri ricerca, PMI) che traducano i progressi di laboratorio in inglese operativo.
Il punto politico è semplice. Se lo Stato e le imprese intendono trarre vantaggio reale dal quantum, devono smettere di pensare in termini esclusivamente simbolici e crescere nella concretezza dei progetti: finanziamenti con milestone, programmi formativi che creino competenze ibride tra fisica e ingegneria gestionale e infrastrutture cloud-accessibili per testare casi d’uso. Senza questa infrastrutturazione, i chip più promettenti rischiano di restare testimonianze di avanzamento scientifico, non motori di cambiamento economico.
Il giudizio, quindi, è ottimista ma disciplinato. Le mosse di Microsoft, Google e AWS non cancellano i problemi, ma li rendono finalmente misurabili; la sperimentazione aziendale non è più mera velleità, ma fonte di guadagni reali e di preparazione industriale. Se alle brillanti pagine di tecnologia seguiranno investimenti pubblici-privati orientati allora il quantum potrà davvero contribuire a tenere il passo all’automotive e ad altri settori strategici, trasformandosi da promessa futura in strumento competitivo del presente.