ultralytics
Trasferisci i tuoi modelli addestrati dal browser agli endpoint di produzione in pochi clic, con scalabilità automatica, monitoraggio in tempo reale e oltre 17 formati di esportazione.

43+
Aree di implementazione
17+
Formati di esportazione
oltre 2,7 miliardi
Usi quotidiani





Gli endpoint dedicati aumentano la propria capacità in caso di picchi di traffico e si riducono a zero quando sono inattivi.
Per impostazione predefinita, il consumo è pari a zero. Non ci sono costi quando il tuo endpoint non riceve richieste.
Nessun limite di velocità. Gli endpoint dedicati non hanno limiti di larghezza di banda.
Risorse configurabili. Scegli CPU da 1 a 8 core) e la memoria (da 1 a 32 GB) in base al tuo carico di lavoro.
Ultralytics supporta l'implementazione sia su cloud che su dispositivi edge per garantire prestazioni elevate. TuttiYOLO Ultralytics sono ottimizzati in modo nativo per funzionare in modo efficiente in diversi ambienti, garantendo un'elevata precisione, prestazioni affidabili e compatibilità anche su dispositivi edge con risorse di calcolo limitate.


Visibilità completa in tempo reale sulle prestazioni dei tuoi modelli. Una volta che i modelli sono attivi, la dashboard delle distribuzioni ti offre una panoramica centralizzata di ogni endpoint in esecuzione, con le metriche e gli strumenti necessari per ottimizzare i tuoi framework e garantirne un funzionamento affidabile.
Volume delle richieste. Totale delle richieste su tutti gli endpoint nelle ultime 24 ore.
Latenza P95. Tempo di risposta al 95° percentile per track le prestazioni in scenari d'uso track .
Tassi di errore. Ricevi avvisi chiari quando i tassi di errore superano il 5%, con registri filtrati in base alla gravità per diagnosticare rapidamente i problemi.
Controlli di integrità. Monitoraggio in tempo reale degli endpoint con riprova automatica. Visualizzazione della latenza per ogni controllo.
Ogni endpoint implementato include esempi di codice generati automaticamente in Python, JavaScript e cURL, già precompilati con l'URL effettivo dell'endpoint e la chiave API. Basta copiare, incollare e iniziare a inviare richieste di inferenza da qualsiasi applicazione.

1
Aggiungi una nota
2
Addestra
3
Implementa
Sì. Ogni modello può essere distribuito contemporaneamente in più regioni . Il numero totale di endpoint disponibili dipende dal piano scelto: 3 per il piano Free, 10 per il piano Pro e illimitato per il piano Enterprise. Ciò consente di servire gli utenti a livello globale con endpoint a bassa latenza in ogni regione.
Gli endpoint dedicati vengono fatturati in base CPU, alla memoria e al volume delle richieste. Poiché l'opzione "scale-to-zero" è abilitata per impostazione predefinita, paghi solo per il tempo di inferenza attivo; non ci sono costi quando l'endpoint non riceve richieste. L'inferenza condivisa è inclusa nel tuo piano della piattaforma.
L'inferenza condivisa viene eseguita su un servizio multi-tenant distribuito su 3 regioni ed è soggetta a un limite di 20 richieste al minuto. È ideale per lo sviluppo e i test rapidi. Gli endpoint dedicati sono servizi single-tenant distribuiti in una qualsiasi delle 43 regioni, senza limiti di velocità, con latenza costante e risorse configurabili, progettati per carichi di lavoro di produzione scalabili.
L'implementazione di un endpoint dedicato richiede in genere da uno a due minuti. Ciò comprende il provisioning del container, l'avvio e un controllo iniziale dello stato di salute per verificare che il servizio sia pronto. Una volta che l'endpoint è pronto, inizia immediatamente ad accettare richieste di inferenza .
La distribuzione dei modelli è il processo che rende disponibile un modello di visione artificiale addestrato per ricevere ed elaborare dati reali. Una volta distribuiti, le applicazioni di visione artificiale possono inviare immagini e fotogrammi video al modello tramite API e ricevere previsioni, consentendo operazioni che vanno dal controllo automatico della qualità al rilevamento di oggetti in tempo reale nei sistemi di produzione. Sulla Ultralytics , l'implementazione è integrata direttamente nel flusso di lavoro di addestramento end-to-end. Una volta addestrato il modello, è possibile testarlo nel browser, implementarlo su un endpoint dedicato in una qualsiasi delle 43 regioni globali e monitorarne le prestazioni, il tutto dallo stesso spazio di lavoro.
Porta i tuoi modelli addestrati in produzione in 43 regioni in tutto il mondo grazie al ridimensionamento automatico e al monitoraggio in tempo reale.