In questi giorni (si concluderà il 12 gennaio) è in corso il CES di Las Vegas, la più grande fiera tecnologica internazionale. Visto come si è presa la scena nel giro di un anno, l’intelligenza artificiale non può non essere l’attrazione intorno a cui tutto gira. E infatti, come al solito le novità non mancano, spaziando dall’uso e dal reimpiego di nuovi materiali, all’impatto dell’Intelligenza Artificiale nella creazione di nuovi servizi, fino ad arrivare alla presentazione di nuove interfacce destinate al cliente finale.

La riflessione di Riccardo Quagliotti, portfolio manager di Kairos Partners SGR, verte proprio sul “confine” dell’innovazione, la cosiddetta Edge AI.

Se il 2023 è servito per fare apprezzare ai mercati finanziari il tema dell’Intelligenza Artificiale nella sua costruzione fatta di modelli complessi e di semiconduttori ultraperformanti necessari al suo funzionamento, il 2024 parte invece con una promessa altrettanto ambiziosa: avvicinare l’AI non solo al mondo corporate, incuriosito dalle sue potenziali innumerevoli applicazioni, ma anche e soprattutto ai consumatori.

In che modo l’AI potrà arrivare alla portata di tutti? Si potrebbe per esempio pensare alla possibilità che i nostri smartphone o tablet siano in grado di risolvere problemi pratici o rispondere a quesiti con la stessa fluidità che ci aspetteremmo stando comodamente seduti sul divano di casa o alla nostra postazione di lavoro.

L’avvicinarsi dal centro dell’infrastruttura, dove risiedono i data center e i modelli linguistici, verso la periferia e verso gli utenti finali è un processo recentemente battezzato come Edge AI, ovvero Intelligenza Artificiale periferica.

Questo processo innovativo consente di rendere la rete più “intelligente” anche ai suoi confini, tramite forme di rielaborazione e analisi di dati direttamente alla fonte, in prossimità del punto di acquisizione. In altre parole, significa portare l’inferenza, ovvero la rielaborazione dei dati, più vicino all’utilizzatore finale anche in un device mobile capace di seguirci ovunque.

Tra i vantaggi della rielaborazione in locale dei dati, senza quindi la necessaria condivisione con un cloud centrale, ci sono:

•             un ridotto tempo di latenza;

•             migliori performance delle app;

•             maggiore privacy.

Per assecondare i livelli prestazionali richiesti dai nuovi sviluppi del settore dell’Intelligenza Artificiale, PC e Server necessitano di continui aggiornamenti per riuscire a mantenere tempi di risposta veloci a fronte di processi di rielaborazione anche molto complessi. Infatti, questo allargamento dell’AI verso l’esterno porta inevitabilmente con sé la necessità di un upgrade delle configurazioni, che spaziano dalle memorie dei server fino alla componentistica ottica per la trasmissione dei dati.