Il CES 2026 (Consumer Electronics Show) si è tenuto a Las Vegas dal 6 al 9 gennaio 2026. Questa 59ª edizione si è confermata un evento di rilevanza fondamentale per l’analisi delle tendenze emergenti nel settore tecnologico, comprendente hardware, sistemi operativi, driver, stack AI, strumenti di simulazione e componenti automotive.
Secondo le informazioni fornite da fonti ufficiali e media, l’evento ha visto la partecipazione di oltre 148.000 visitatori, più di 4.100 espositori e circa 6.900 giornalisti accreditati, distribuiti su diverse sedi, con un’ampia area espositiva. Il tema centrale emerso dalle dichiarazioni ufficiali e dalle analisi di settore è l’AI per il mondo reale. Questo ha segnato uno spostamento dell’attenzione verso sistemi progettati per operare in contesti fisici e operativi (fabbriche, cantieri, veicoli), con requisiti specifici riguardanti latenza, affidabilità, sicurezza e aggiornabilità.
Cos’è il CES 2026
Il CES è un’importante fiera internazionale che si svolge annualmente a Las Vegas, storicamente riconosciuta come la principale vetrina per l’elettronica di consumo, comprendente computer, TV, dispositivi, automotive e smart home. Tuttavia, oggi ha assunto un ruolo più significativo come indicatore delle tendenze tecnologiche emergenti, riunendo in un unico spazio aziende di diverse dimensioni, fornitori di componenti, piattaforme software e operatori dell’ecosistema. Ciò consente un’analisi approfondita delle tecnologie in transizione dalla fase di prototipazione a quella commerciale, delle piattaforme emergenti e dei compromessi (costi, prestazioni, sicurezza, aggiornabilità) da valutare nei prossimi mesi.
Il CES rappresenta un’istantanea del mercato, evidenziando quali componenti dello stack tecnologico stanno evolvendo simultaneamente e quali, di conseguenza, potrebbero stabilirsi come standard con cui il software dovrà interfacciarsi.
Il tema dominante del CES 2026: “physical AI”
Durante il CES 2026, il termine “physical AI” si riferisce a un’intelligenza artificiale capace di percepire attraverso sensori, immagini e mappe, di elaborare informazioni, pianificare strategie e intraprendere azioni.
È un salto rispetto alla generative AI da desktop perché impone un cambio di metodo: più simulazione, più dati strutturati, più attenzione a safety e cybersecurity. Questo spostamento ha un impatto diretto sullo sviluppo software: l’AI non è più un modulo da aggiungere a posteriori, ma un componente che condiziona pipeline, test, cicli di rilascio e governance.
Le novità AI del CES 2026
AI sul client
Al CES 2026, è emersa con decisione l’idea di implementare l’AI direttamente sul client (PC o dispositivi edge), anziché esclusivamente nel cloud. L’obiettivo è avere la flessibilità di scegliere dove eseguire i modelli in base a fattori quali latenza, costi, vincoli sui dati e continuità operativa.
In questo contesto, le NPU (Neural Processing Units) si presentano frequentemente come acceleratori specializzati in carichi di lavoro AI e puntano più sull’efficienza che sulla pura potenza. Le comunicazioni dei fornitori hanno sottolineato l’importanza di piattaforme e toolchain che semplificano lo sviluppo e l’esecuzione locale di carichi di lavoro AI. Se quest’ultima si dimostrerà valida in scenari d’uso reali, si assisterà a un cambiamento nei processi e nelle responsabilità: confezionamento dei modelli, gestione della memoria, aggiornamenti e politiche interne sui dati.
Driver e SDK
Durante il CES 2026, un chiaro indicatore di innovazione è emerso dal settore grafico, il quale spesso riflette dinamiche significative per la visualizzazione industriale, la simulazione e i digital twin. NVIDIA ha introdotto DLSS 4.5, che rappresenta un avanzamento nel rendering supportato da intelligenza artificiale, con un’attenzione particolare su qualità e stabilità. La compatibilità è stata descritta come un aggiornamento a basso impatto per i software già integrati con DLSS, evidenziando l’impegno dell’azienda verso l’ottimizzazione delle prestazioni senza compromettere l’integrità dei sistemi esistenti.
Data center e co-design
Nel contesto delle infrastrutture, gli interventi su Rubin hanno enfatizzato l’importanza della co-progettazione tra hardware e stack software. In altre parole, l’efficienza non sarà determinata unicamente dai modelli, ma anche dalla capacità di minimizzare i contrasti lungo l’intera catena, dal calcolo alla movimentazione dei dati, dall’orchestrazione alle librerie ottimizzate.
Rubin rappresenta la prima piattaforma AI co-progettata da sei chip, ora in full production, con l’obiettivo dichiarato di ridurre il costo dei token generati a circa 1/10 rispetto alla piattaforma precedente. Questa architettura integra:
- ConnectX-9 SuperNICs e BlueField-4 DPUs
- Rubin GPUs con 50 petaflops di inferenza in formato NVFP4
- Vera CPUs per gestione dei dati e agentic processing
- NVLink 6 per networking scale-up
- Spectrum-X Ethernet Photonics per networking scale-out
Per i responsabili di prodotti e sistemi, questo implica un cambiamento nella domanda, spostando l’attenzione dal singolo componente verso la piattaforma complessiva e i vincoli operativi a essa associati.
Simulazione per la physical AI
La simulazione si è affermata come un elemento cruciale nel workflow, integrandosi in modo sinergico e non come un’attività isolata. NVIDIA ha lanciato Cosmos, una piattaforma dedicata ai modelli fondamentali del mondo, e ha citato Alpamayo nel contesto della visione-linguaggio-azione per applicazioni veicolari, utilizzando approcci di “teacher model” per sviluppare modelli più compatti e facilmente implementabili.
Cosmos è una piattaforma con modelli fondamentali open:
- Cosmos Predict: genera fino a 30 secondi di video ad alta fedeltà da prompt multimodali.
- Cosmos Transfer: generazione video condizionata con controllo spaziale avanzato.
- Cosmos Reason: modello vision-language-action per robot umanoidi e agenti fisici.
- Cosmos Curator: strumenti per filtrare, annotare e deduplicare dataset multi-sensore.
Alpamayo è una famiglia di modelli di ragionamento vision-language-action specifici per veicoli autonomi, con dataset open, blueprint di simulazione e codice per il training di modelli più piccoli. La prima auto con Alpamayo sarà la Mercedes-Benz CLA, disponibile negli USA entro l’anno.
AI industriale, robotica e digital twin
Nel contesto industriale, il CES 2026 ha messo in evidenza un’iniziativa ambiziosa: integrare in un’unica piattaforma digitale i gemelli virtuali, l’automazione e gli strumenti di progettazione, con l’intelligenza artificiale come elemento centrale. La collaborazione tra Siemens e NVIDIA è stata presentata come un “sistema operativo per il settore industriale”, in cui il digital twin assume un ruolo dinamico, costantemente aggiornato e in grado di facilitare simulazioni e verifiche costanti. Inoltre, è stato citato l’EDA (Electronic Design Automation), ovvero il software necessario per progettare e validare componenti elettronici e sistemi complessi, un settore in cui i tempi di simulazione e controllo hanno un impatto significativo sulle roadmap di sviluppo.
Sul piano tecnico, l’architettura si fonda su componenti di stack altamente specializzati: Omniverse come piattaforma per simulazione e collaborazione, CUDA-X come fondamento per l’accelerazione software nel calcolo su GPU, e PhysicsNeMo per la modellazione fisica. Dall’altro lato, Siemens contribuisce con EDA, simulazione, automazione e gestione degli asset industriali. L’obiettivo dichiarato è un’accelerazione compresa tra 2× e 10× in specifiche pipeline di simulazione e verifica. Al di là delle affermazioni promozionali, la direzione è di ottimizzare il numero di interazioni nel medesimo intervallo di tempo, riducendo i tempi di attesa tra le verifiche e integrando il gemello digitale come parte integrante delle operazioni quotidiane.
CES 2026: cosa implicano le novità
Il CES 2026 ha evidenziato una tendenza già percepita in vari settori: l’AI sta evolvendo verso un’integrazione più profonda. L’intelligenza artificiale si inserisce nel cuore delle architetture tecnologiche, portando con sé piattaforme, driver, toolchain, simulazione e distribuzione. Questo è il motivo per cui il concetto di “physical AI” è emerso come un tema centrale: robot, fabbriche, veicoli e cantieri sono ambienti in cui l’AI deve affrontare sfide reali, garantendo non solo risultati plausibili, ma anche prestazioni affidabili e sicure.
Un aspetto significativo emerso riguarda l’esecuzione locale. Con l’avanzamento dell’AI su PC e soluzioni edge, l’inferenza direttamente sui dispositivi sta diventando una prassi progettuale consolidata. Questo approccio influisce sulle decisioni quotidiane: formati, gestione della memoria, distribuzione dei modelli, profili di prestazione e politiche sui dati. Parallelamente, si sta affermando il concetto di famiglie di modelli: modelli più piccoli per i client, medi per le aziende e più complessi nel cloud. Una necessità dettata da costi, latenza e controllo, che raramente possono coesistere in un unico contesto.
Nell’ambito dello sviluppo, l’attenzione si concentra sulla progettazione del contesto e delle infrastrutture: strumenti a disposizione del modello, limiti operativi, dati consentiti e tracciabilità. Sebbene questo lavoro possa sembrare meno evidente, è cruciale quando l’intelligenza artificiale viene integrata in processi che devono mantenere stabilità nel tempo. Il CES 2026 ha segnato un’evoluzione: dall’AI “sperimentale” all’AI “gestita”.



