Come Microsoft intende trasformare Azure in un "cloud AI"

  • Sep 05, 2023

Microsoft sta andando avanti per rendere disponibile la potenza di elaborazione FPGA agli sviluppatori esterni di Azure per attività ad alta intensità di dati come le attività di rete neurale profonda.

Negli ultimi anni Microsoft ha utilizzato array di gate programmabili sul campo (FPGA) per migliorare le prestazioni e l'efficienza di Bing e Azure.

Ma il prossimo anno, Microsoft prevede di rendere disponibile questo tipo di potenza di elaborazione FPGA agli sviluppatori che ne saranno in grado di usarlo per eseguire i propri compiti, compresi quelli intensivi di intelligenza artificiale, come il deep-neural-networking (DNN).

Alla conferenza degli sviluppatori Build di questa primavera, il CTO di Azure Mark Russinovich ha delineato i piani generali di Microsoft per la fornitura "Microservizi hardware" tramite il cloud di Azure. Russinovich ha detto ai partecipanti che una volta che Microsoft risolverà alcuni problemi persistenti di sicurezza e altri, "avremo quello che consideriamo un cloud completamente configurabile".

"Questo è il nucleo di un cloud AI", ha affermato Russinovich, e "un passo importante verso la democratizzazione dell'AI con la potenza dell'FPGA". (Un buon riassunto delle osservazioni di Russinovich può essere trovato in questo Articolo TheNewStack.)

Gli FPGA sono chip che possono essere configurati in modo personalizzato dopo la produzione. I ricercatori Microsoft hanno lavorato nello spazio FPGA per più di un decennio.

Più recentemente, Microsoft ha aggiunto FPGA a tutti i suoi server Azure nei propri data center, oltre a implementare FPGA in alcune delle macchine che alimentano i server di indicizzazione di Bing come parte della sua Progetto Catapulta sforzi. Servizio di rete accelerata di Microsoft Azure, che è generalmente disponibile per Windows e in anteprima per Linux, fa anch'esso uso di FPGA dietro le quinte.

A maggio, Russinovich aveva affermato che Microsoft non aveva una tempistica precisa su quando l'azienda sarebbe stata pronta a portare i microservizi hardware e la potenza di elaborazione cloud FPGA ai clienti esterni all'azienda. Ma questa settimana, I funzionari di Microsoft hanno affermato che l'obiettivo per raggiungere questo obiettivo è entro il calendario 2018.

I microservizi hardware di Microsoft sono basati su FPGA Intel. (Intel ha acquistato Altera, il produttore di FPGA, nel 2015.) Questi chip, insieme a Il framework di Microsoft fornirà progressi in termini di velocità, efficienza e latenza particolarmente adatti ai carichi di lavoro di big data.

Credito: Microsoft

Microsoft sta anche lavorando specificamente sul pezzo DNN tramite un progetto dal nome in codice "Brainwave". Microsoft ha presentato BrainWave pubblicamente alla conferenza Ignite 2016 dell'azienda, quando Microsoft lo ha utilizzato per eseguire una massiccia dimostrazione di traduzione linguistica sugli FPGA.

Guarda anche

Nessuna esagerazione, solo fatti: l'intelligenza artificiale in semplici termini commerciali

L’intelligenza artificiale è diventata una delle grandi e insignificanti parole d’ordine del nostro tempo. In questo video, il Chief Data Scientist di Dun e Bradstreet spiega l'intelligenza artificiale in termini aziendali chiari.

Leggi ora

I funzionari di Microsoft stavano progettando di discutere di Brainwave al recente evento aziendale Faculty Research Summit a Redmond, interamente dedicato all'intelligenza artificiale, ma guardando l'agenda aggiornata, sembra che i riferimenti a Brainwave siano stati rimossi.

BrainWave è una piattaforma di deep learning in esecuzione su microservizi hardware basati su FPGA, secondo una presentazione di Microsoft sui suoi piani cloud configurabili del 2016. Quella presentazione menziona "Accelerazione hardware come servizio" nei data center o in Internet. BrainWave distribuisce modelli di rete neurale su tutti gli FPGA necessari.

Microsoft non è l'unica azienda che cerca gli FPGA nei suoi data center cloud; sia Amazon che Google utilizzano silicio personalizzato per attività di intelligenza artificiale.

Amazon offre già un'istanza FPGA EC2 F1 per la programmazione degli FPGA Xilinx e fornisce un kit di sviluppo hardware per FPGA. Google ha lavorato per addestrare modelli di deep learning TensorFlow, la sua libreria di software di apprendimento automatico e ha costruito il proprio sottostante Unità di elaborazione tensoriale silicio.