Yolo Vision Shenzhen
Shenzhen
Iscriviti ora

ultralytics

Implementare modelli di visione artificiale in 43 regioni del mondo

Trasferisci i tuoi modelli addestrati dal browser agli endpoint di produzione in pochi clic, con scalabilità automatica, monitoraggio in tempo reale e oltre 17 formati di esportazione.

Interfaccia utente che mostra le opzioni di esportazione per PyTorch , tra cui ONNX, TorchScript, OpenVINO, TensorRT, CoreML, TF , TF SavedModel e TF GraphDef, con una mappa del mondo che evidenzia 3 distribuzioni in verde e diversi segnaposti rossi.

43+

Aree di implementazione

17+

Formati di esportazione

oltre 2,7 miliardi

Usi quotidiani

Distribuzione in 43 regioni in tutto il mondo

Distribuisci i tuoi modelli su endpoint dedicati in America, Europa, Asia-Pacifico e Medio Oriente. Ogni endpoint dispone di un proprio URL, di scalabilità automatica e di monitoraggio.
Mappa del mondo che mostra le aree di implementazione con indicatori in America, Europa, Asia-Pacifico e Medio Oriente, a indicare la copertura globale dell'infrastruttura.
Dashboard che mostra i parametri di prestazione del modello con mAP50 96,2%, mAP50 al 90,1% e precisione all'87,2%, insieme a un pannello dei log relativo al modello di segmentazione YOLO26s implementato a Parigi.

Scalabilità automatica che si adatta al tuo traffico

Gli endpoint dedicati aumentano la propria capacità in caso di picchi di traffico e si riducono a zero quando sono inattivi.

Per impostazione predefinita, il consumo è pari a zero. Non ci sono costi quando il tuo endpoint non riceve richieste.

Nessun limite di velocità. Gli endpoint dedicati non hanno limiti di larghezza di banda.

Risorse configurabili. Scegli CPU da 1 a 8 core) e la memoria (da 1 a 32 GB) in base al tuo carico di lavoro.

Oltre 17 formati di esportazione. Il tuo modello. Qualsiasi ambiente.

Ultralytics supporta l'implementazione sia su cloud che su dispositivi edge per garantire prestazioni elevate. TuttiYOLO Ultralytics sono ottimizzati in modo nativo per funzionare in modo efficiente in diversi ambienti, garantendo un'elevata precisione, prestazioni affidabili e compatibilità anche su dispositivi edge con risorse di calcolo limitate.

Elenco dei formati di esportazione per PyTorch , tra cui ONNX, TorchScript, OpenVINO, TensorRT GPU, CoreML e TF , con le rispettive icone e i codici di formato.
Dashboard che mostra 13.959 richieste totali, 3 distribuzioni attive, un tasso di errore dello 0% e una latenza P95 di 14 ms nelle ultime 24 ore.

Monitorare tutto ciò che è in produzione

Visibilità completa in tempo reale sulle prestazioni dei tuoi modelli. Una volta che i modelli sono attivi, la dashboard delle distribuzioni ti offre una panoramica centralizzata di ogni endpoint in esecuzione, con le metriche e gli strumenti necessari per ottimizzare i tuoi framework e garantirne un funzionamento affidabile.

Volume delle richieste. Totale delle richieste su tutti gli endpoint nelle ultime 24 ore.

Latenza P95. Tempo di risposta al 95° percentile per track le prestazioni in scenari d'uso track .

Tassi di errore. Ricevi avvisi chiari quando i tassi di errore superano il 5%, con registri filtrati in base alla gravità per diagnosticare rapidamente i problemi.

Controlli di integrità. Monitoraggio in tempo reale degli endpoint con riprova automatica. Visualizzazione della latenza per ogni controllo.

Integrazione in pochi minuti

Ogni endpoint implementato include esempi di codice generati automaticamente in Python, JavaScript e cURL, già precompilati con l'URL effettivo dell'endpoint e la chiave API. Basta copiare, incollare e iniziare a inviare richieste di inferenza da qualsiasi applicazione.

Frammento Python per l'invio di un'immagine a un endpoint di distribuzione utilizzando la libreria requests con parametri di autorizzazione e di inferenza.

Devi prima addestrare un modello?

Ultralytics integra annotazione, addestramento e implementazione in un'unica piattaforma.

1

Aggiungi una nota

2

Addestra

3

Implementa

Domande frequenti

Posso distribuire lo stesso modello in più regioni?

Sì. Ogni modello può essere distribuito contemporaneamente in più regioni . Il numero totale di endpoint disponibili dipende dal piano scelto: 3 per il piano Free, 10 per il piano Pro e illimitato per il piano Enterprise. Ciò consente di servire gli utenti a livello globale con endpoint a bassa latenza in ogni regione.

Quanto costa l'implementazione?

Gli endpoint dedicati vengono fatturati in base CPU, alla memoria e al volume delle richieste. Poiché l'opzione "scale-to-zero" è abilitata per impostazione predefinita, paghi solo per il tempo di inferenza attivo; non ci sono costi quando l'endpoint non riceve richieste. L'inferenza condivisa è inclusa nel tuo piano della piattaforma.

Qual è la differenza tra inferenza condivisa e inferenza dedicata?

L'inferenza condivisa viene eseguita su un servizio multi-tenant distribuito su 3 regioni ed è soggetta a un limite di 20 richieste al minuto. È ideale per lo sviluppo e i test rapidi. Gli endpoint dedicati sono servizi single-tenant distribuiti in una qualsiasi delle 43 regioni, senza limiti di velocità, con latenza costante e risorse configurabili, progettati per carichi di lavoro di produzione scalabili.

Quanto tempo richiede l'implementazione?

L'implementazione di un endpoint dedicato richiede in genere da uno a due minuti. Ciò comprende il provisioning del container, l'avvio e un controllo iniziale dello stato di salute per verificare che il servizio sia pronto. Una volta che l'endpoint è pronto, inizia immediatamente ad accettare richieste di inferenza .

Cos'è il deployment di un modello?

La distribuzione dei modelli è il processo che rende disponibile un modello di visione artificiale addestrato per ricevere ed elaborare dati reali. Una volta distribuiti, le applicazioni di visione artificiale possono inviare immagini e fotogrammi video al modello tramite API e ricevere previsioni, consentendo operazioni che vanno dal controllo automatico della qualità al rilevamento di oggetti in tempo reale nei sistemi di produzione. Sulla Ultralytics , l'implementazione è integrata direttamente nel flusso di lavoro di addestramento end-to-end. Una volta addestrato il modello, è possibile testarlo nel browser, implementarlo su un endpoint dedicato in una qualsiasi delle 43 regioni globali e monitorarne le prestazioni, il tutto dallo stesso spazio di lavoro.

Inizia subito l'implementazione!

Porta i tuoi modelli addestrati in produzione in 43 regioni in tutto il mondo grazie al ridimensionamento automatico e al monitoraggio in tempo reale.