
La piattaforma di Compute Management di Run: AI è ora disponibile per i nostri clienti
Sposta i modelli di AI in produzione 2 volte più velocemente
Run: AI ha creato una piattaforma di gestione del calcolo per l’elaborazione, basata su Kubernetes, per aiutare i ricercatori a orchestrare i jobs su GPU in modo più efficiente. Una maggiore efficienza produce una modellazione più rapida; un cliente di Run:AI ha recentemente eseguito 6.700 processi di ottimizzazione degli iperparametri paralleli e completato la modellazione a tempo di record.
Come funziona Run:AI?
Run: AI automatizza l’orchestrazione dei carichi di lavoro AI e la gestione delle risorse hardware tra team e cluster. I pool di Run:AI calcolano e applicano meccanismi di allocazione dinamica per aumentare la disponibilità di risorse in qualsiasi momento. Con policies di programmazione e prioritizzazione preimpostate, i ricercatori hanno accesso a tutte le GPU di cui hanno bisogno e ottengono una precisione del modello più veloce.
La Compute Management Platform di Run:AI per computer basati su GPU fornisce l’esecuzione di carichi di lavoro per l’Artificial Intelligence e il Machine Learning:
- Pianificazione equa per consentire agli utenti di condividere facilmente e automaticamente i cluster di GPU
- Training distribuiti semplificati attraverso i cluster basati su GPU
- GPU frazionata per eseguire senza problemi più carichi di lavoro su una singola GPU
- Visibilità nei carichi di lavoro e utilizzo delle risorse per migliorare la produttività degli utenti
Vuoi saperne di più su Run:AI?
Approfondisci con questi due interessanti articoli su Run:AI:
Ridurre i costi del 75% con le GPU frazionarie per l’Inferenza Deep Learning