Yolo Vision Shenzhen
Shenzhen
Únete ahora

Explore la nueva frontera de la visión artificial

Acompáñanos el 27 de septiembre en nuestro evento híbrido gratuito, retransmitido en directo desde Google for Startups en Madrid.

Ver en vivo
Avance de la aplicación Ultralytics HUBAvance de la aplicación Ultralytics HUBAvance de la aplicación Ultralytics HUB

YV23, posible gracias a

Logotipo Intel
Logotipo de Seeed Studio
Logotipo de Sony
Logotipo de Axelera
Logotipo de Dags Hub
Logotipo de DeGirum
Logotipo de Intuitivo
Logotipo del equipo Humble
Logotipo de Prodis

Impulsada por Ultralytics, #YV23 es la única conferencia del mundo centrada en el desarrollo y el progreso de la IA de visión de código abierto. Tanto en persona como en línea, investigadores, ingenieros y profesionales se reunirán por segundo año consecutivo para compartir conocimientos, innovación y progreso. Únete a expertos y líderes el 27 de septiembre en Google for Startups en Madrid, España, para ampliar los límites de la nueva frontera de la IA de visión.

Alojado en
Logotipo de Google para Startups

1

día

18

charlas

2,000+

asistentes en línea

150

asistentes en persona

Ponentes

10:00

Apertura

10:00

PANEL: Facilitando la IA de visión de código abierto

Bo Zhang, Meituan
Glenn Jocher, Ultralytics
Yonatan Geifman, Deci

Glenn Jocher de Ultralytics YOLOv5 y YOLOv8), Yonatan Geifman de DeciYOLO), y Bo Zhang de MeituanYOLOv6) se reúnen en este panel para explorar el estado de la IA de visión de código abierto. Este panel profundizará en los retos y prioridades encontrados durante la implementación del modelo, proporcionando información valiosa para la adopción sin problemas de la IA. Además, los panelistas abordarán el despliegue en dispositivos periféricos, examinarán el potencial de los módulos de reidentificación de objetos, proporcionarán información sobre el despliegue de modelos y mucho más. 

11:00

Mejora cualquier cámara con YOLOv8 sin necesidad de código

Elaine Wu, Seeed

Hay unos mil millones de cámaras de red instaladas en todo el mundo. Las cámaras inteligentes impulsadas por IA avanzada pueden centrarse en lo que más importa y aportar seguridad en los espacios para todos, desde conductores y peatones hasta minoristas y compradores. Le guiaremos a través del rendimiento global para aplicaciones de análisis de vídeo inferencing en NVIDIA Jetson y puede actualizar cualquier cámara heredada con el modelo YOLOv8 sin ninguna línea de código.

11:15

YOLO sobrealimentado: Aprovechar el poder nativo de la IA

Dr. Bram Verhoef, Axelera AI

Únase a nosotros para ver cómo la plataforma Metis de Axelera AI ofrece un rendimiento y una usabilidad líderes en el sector, solo que a una fracción del coste y el consumo de energía de las soluciones disponibles en la actualidad. Descubra los impresionantes resultados de nuestra solución de hardware y software, que optimiza los modelos YOLO para la inferencia en dispositivos periféricos.

11:30

Cerrando la brecha entre la investigación de la IA y el Edge en tiempo real

Amir Servi, Sony

La IA está transformando varios sectores, productos básicos y funcionalidades fundamentales. No obstante, las redes neuronales profundas consumen recursos excesivos en términos de memoria, potencia computacional y energía. Para garantizar la adopción generalizada de la IA, esta debe operar de manera eficiente en los dispositivos del usuario final, cumpliendo con estrictas restricciones de energía y térmicas. Técnicas como la cuantificación y la compresión desempeñan un papel fundamental en la mitigación de estos desafíos.

En este seminario web, el gerente de producto de Sony, Amir Servi, lo guiará a través del kit de herramientas de compresión de modelos de Sony para cuantificar y acelerar los modelos de aprendizaje profundo para una implementación eficiente en el edge. ¡Aprenderá a hacer lo mismo con su propio modelo! Lo que aprenderá:

- Nuestra investigación más reciente en técnicas de cuantificación y su implementación en un producto práctico

- Importancia de la compresión con reconocimiento de hardware para la inferencia en el edge

- Cómo los ingenieros e investigadores pueden implementar estas técnicas a través de Sony MCT

11:45

IA para todos: Ultralytics HUB allana el terreno de juego

Kalen Michael, Ultralytics

Ultralytics HUB reduce las barreras para entrar en el mundo del ML, haciéndolo accesible tanto a particulares como a empresas, independientemente de sus conocimientos de codificación. Descubra cómo esta plataforma va a revolucionar la forma de abordar el aprendizaje automático, permitiendo a una nueva generación de entusiastas de los datos convertir sus ideas en realidad con una facilidad sin precedentes.

Y no se pierda nuestro gran anuncio...

12:15

Show and Tell: Cómo implementar YOLO en (casi) cualquier cosa: ¡más sencillo y rápido!

Lakshantha Dissayanake, Seeed

La implantación de modelos de última generación en dispositivos embebidos, desde GPU Edge de NVIDIA Jetson hasta las diminutas MCU, presenta retos y limitaciones. Explicaremos cómo implantar estos modelos, incluido YOLOv8 , con un enfoque simplificado y un rendimiento global para aplicaciones de análisis de vídeo inferenciales en NVIDIA Jetson.

12:40

KENYOTE: Exploración de Ultralytics YOLO: Avances en el estado del arte de la IA de visión

Glenn Jocher, Ultralytics

Glenn no ceja en su empeño de desarrollar la mejor Vision AI del mundo. Para él, no se trata sólo de un logro tecnológico, sino de un paso fundamental hacia la realización del potencial de la inteligencia artificial. Las puntas de lanza de esta búsqueda incesante no son otras que YOLOv5, YOLOv8 y el HUB de Ultralytics .

Entonces, ¿qué hace que Ultralytics YOLO sea la mejor del mundo?

13:20

Almuerzo

14:45

Visión de Código Abierto con Transformers

Merve Noyan, Hugging Face

Los recientes avances en visión artificial han sido impulsados significativamente por la introducción de la arquitectura Transformer y las abstracciones fáciles de usar para pre-entrenar, ajustar e inferir en la biblioteca 🤗 transformers. Esta charla proporciona una visión general de los últimos modelos de visión basados en Transformer, explora las utilidades disponibles dentro de la biblioteca 🤗 transformers y ofrece información práctica sobre la filosofía detrás de ella.

15:00

PONENCIA CLAVE: ¡Sáltese la cola! Aprenda a crear un sistema inteligente de gestión de colas con YOLOv8

Adrian Boguszewski, Intel OpenVINO

¿Cansado de las largas colas en las cajas? Nuestro sistema de gestión inteligente de colas es la solución. Acompáñenos en un tutorial paso a paso sobre cómo crear un sistema de este tipo utilizando OpenVINO y YOLOv8. Le guiaremos a través del proceso de integración de estas potentes herramientas de código abierto para desarrollar una solución integral que pueda implantarse en entornos de caja minorista. Aprenderá a optimizar la aplicación para conseguir un rendimiento excepcional. Tanto si eres un desarrollador experimentado como si eres nuevo en el mundo de la IA, esta sesión te proporcionará consejos prácticos y las mejores prácticas para crear sistemas inteligentes utilizando OpenVINO. Al final de la presentación, dispondrá de los conocimientos y recursos necesarios para crear su propia solución.

15:40

Desafíos éticos de la IA

Mónica Villas

En una era definida por los rápidos avances en la inteligencia artificial (IA), es primordial navegar por el panorama ético de esta tecnología. En esta sesión, Mónica desentrañará la intrincada red de dilemas éticos que acompañan al poder transformador de la IA. Desde abordar el sesgo y la equidad hasta explorar la transparencia, la rendición de cuentas y el profundo impacto de la IA en la sociedad, Mónica proporcionará información que arrojará luz sobre las consideraciones éticas que rodean a la IA.

Esta charla es su oportunidad para obtener una comprensión fundamental de los desafíos y responsabilidades éticas asociadas con la IA. Mónica le proporcionará conocimientos esenciales para cualquier persona involucrada en el desarrollo, la toma de decisiones o la formulación de políticas de IA.

16:00

Acelerando la transformación del retail con el poder de los modelos base

José Benítez Genes, Intuitivo

Los modelos de base pueden ser exigentes en términos de computación de GPU y pueden no ser adecuados para aplicaciones en tiempo real, especialmente si desea escalar millones de puntos de compra autónomos. Pero nosotros aprovechamos el método llamado destilación de conocimientos, en el que ponemos nuestros modelos de base para tareas complejas como las anotaciones y transferimos estos conocimientos a modelos más pequeños y rentables. Esto nos permite acelerar nuestro proceso de anotación hasta 90 veces más rápido que el etiquetado tradicional humano.

16:30

Construyendo un Pipeline de Aprendizaje Activo, de la manera fácil

Yono Mittlefehldt, DagsHub

Pssst. ¿Quieres oír un secreto? ¿Y si te dijera que el aprendizaje activo no tiene por qué ser difícil? ¿Y si hubiera... una forma fácil? Estás de suerte. Esta charla le mostrará exactamente cómo implementar una tubería de aprendizaje activo utilizando el motor de datos de DagsHub. ¡Y el 90% de la tubería se puede ejecutar directamente en un cuaderno Jupyter o en Google Colab! Al final de la charla, tendrás la información necesaria para convertir tu proyecto existente en uno que utilice el aprendizaje activo para mejorar de forma eficiente y rápida las métricas de tus modelos.

17:00

Construir con código abierto y YOLOv8

Joseph Nelson, Roboflow

El uso de herramientas de código abierto con YOLOv8 puede ayudarle a poner en marcha rápidamente su próximo proyecto de IA de visión. Existen repositorios de imágenes de código abierto, bibliotecas para ayudar a automatizar el etiquetado de datos, herramientas para el seguimiento o el recuento, y servidores para desplegar sus modelos. Aprenda a utilizarlos con YOLOv8 para crear su próxima aplicación.

17:20

Inteligencia Humana y Artificial para la Acción Climática Planetaria

Dr. Ramit Debnath y Seán Boyle, Unitmode

Se espera que la actual carrera mundial por sistemas de inteligencia artificial (IA) más grandes y mejores tenga un profundo impacto social y ambiental al alterar los mercados laborales, trastocar los modelos de negocio y permitir nuevas estructuras de gobernanza y bienestar social que puedan afectar el consenso mundial para las vías de acción climática. Sin embargo, los sistemas actuales de IA se entrenan con conjuntos de datos sesgados que podrían desestabilizar las agencias políticas que impactan en las decisiones de mitigación y adaptación al cambio climático y comprometer la estabilidad social, lo que podría conducir a eventos de inflexión social. Por lo tanto, el diseño apropiado de un sistema de IA menos sesgado que refleje tanto los efectos directos como indirectos en las sociedades y los desafíos planetarios es una cuestión de suma importancia.

17:35

Implantación de modelos cuantificados YOLOv8 en dispositivos periféricos

Shashi Chilappagari, DeGirum

La cuantificación de los modelos de aprendizaje automático (ML) puede suponer una reducción significativa del tamaño del modelo, así como una reducción de la latencia de la inferencia gracias a la reducción de los requisitos de ancho de banda. Cuando se implementa en opciones de hardware que admiten cálculos enteros de forma eficiente, las ganancias de rendimiento pueden ser aún más espectaculares. Sin embargo, la cuantización puede provocar a veces una degradación inaceptable de la precisión. En esta charla, presentamos una visión general de los métodos para cuantificar eficientemente los modelos YOLOv8 , convirtiéndolos en una excelente opción para diversas aplicaciones de IA de borde en tiempo real. También presentamos una clase de modelos YOLOv8 con función de activación ReLU6 que muestran excelentes resultados de cuantificación postentrenamiento en una variedad de arquitecturas de modelos y conjuntos de datos. Por último, ilustramos cómo los modelos cuantificados pueden desplegarse en múltiples opciones de hardware, como CPUs, TPUs Edge y Orca (el acelerador HW de IA de DeGirum) utilizando APIs sencillas.

18:00

Potenciación de Ultralytics con Weights & Biases

Soumik Rakshit, Weights & Biases

Ultralytics es el hogar de los modelos de visión por ordenador más avanzados para tareas como la clasificación de imágenes, la detección de objetos, la segmentación de imágenes y la estimación de poses. Weights & Biases es una plataforma MLOps para desarrolladores que, cuando se integra con un flujo de trabajo Ultralytics , nos permite gestionar fácilmente nuestros experimentos, los puntos de control del modelo y visualizar los resultados de nuestros experimentos de una manera intuitiva y perspicaz. En esta sesión, exploraremos cómo podemos sobrecargar eficazmente nuestros flujos de trabajo de visión por ordenador utilizando Ultralytics y Weights & Biases.

18:15

PatentPT: Creación de una solución impulsada por LLM con agentes de memoria de nivel empresarial

Davit Buniatyan, Activeloop

Aprenda cómo creamos PatentPT, una solución avanzada de modelo de lenguaje que mejora enormemente la búsqueda de patentes y las capacidades de interacción. La presentación ofrece información práctica sobre el ajuste fino y la implementación de modelos de lenguaje grandes y el aprovechamiento de agentes de memoria de nivel empresarial para autocompletar patentes, generar resúmenes y reclamaciones, y realizar funciones avanzadas de búsqueda de patentes utilizando el rico corpus de patentes. Le guiaremos a través de cómo desarrollar una solución similar utilizando Deep Lake de Activeloop, la base de datos para IA, modelos LLM de código abierto, hardware Habana Gaudi HPU y las API de inferencia LLM de Amazon Sagemaker.

Le guiaremos a través de los planos arquitectónicos y todos los pasos que dimos para construir la solución, desde el entrenamiento de nuestro modelo LLM y su ajuste fino, la creación de características personalizadas y la implementación de API de búsqueda.

Tanto si es un profesional de la IA que busca guías prácticas sobre el ajuste fino de LLM, como si es un profesional del derecho interesado en aprovechar la IA para la búsqueda de patentes, o simplemente tiene curiosidad por el futuro de las soluciones mejoradas por la IA, nuestra charla ofrece una visión del proceso y el potencial del uso de LLM en un campo especializado. Únase a nosotros mientras compartimos nuestro viaje de construcción de aplicaciones personalizadas impulsadas por LLM impulsadas por Deep Lake, la base de datos para IA para empresas grandes y pequeñas.

18:30

Series A para Open Source: Qué buscan los inversores

Erica Brescia, Redpoint

Las empresas de código abierto se construyen de manera diferente. En esta charla, cubriremos lo que los inversores buscarán al considerar invertir en la Serie A. Spoiler: es posible que no necesites ingresos, ¡pero definitivamente necesitas impulso! Compartiremos las mejores métricas de su clase de otras empresas de OSS para ayudarte a determinar cuándo recaudar.

18:45

Cerrando

Asistentes anteriores de

Asistentes de Alibaba
Asistentes de Ancestry
Asistentes de AWS
Asistentes de Baidu
Logotipo de BCG
Asistentes de Chubb
Asistentes de Databricks
Asistentes de Deloitte
Asistentes de Ford
Logotipo de Fujitsu
Asistentes de General Electric
Asistentes de Huawei
Asistentes de KPMG
Asistentes de Lowe's
Logotipo de Nielsen
Asistentes de Nvidia
Asistentes de Oracle
Asistentes de Samsung
Asistentes de Walmart
Logotipo de Tata

Preguntas frecuentes sobre YV23

¿Cómo es el itinerario presencial?

Comenzaremos el día en Google for Startups en Madrid con un café. Por la mañana habrá una serie de charlas, seguidas de un almuerzo organizado por Ultralytics en Google for Startups. Después de comer, volveremos a las sesiones. Para terminar el YV23, únete a nosotros en la happy hour oficial de networking, también en Google for Startups.

¿Cuáles son los beneficios de asistir en persona?

Asistir en persona te permite sumergirte en el ambiente del evento, interactuar con los ponentes y otros asistentes, y participar en sesiones de networking. Es una oportunidad única para interactuar directamente con la comunidad de IA de visión.

¿Cuánto cuesta una entrada?

Las entradas para YV23 son totalmente gratuitas, tanto si eliges unirte a nosotros virtualmente como en persona.

¿Dónde se encuentra Google for Startups en Madrid?

Calle de Moreno Nieto, 2, 28005 Madrid, España.

¿Cómo puedo asistir a YV23?

YV23 ofrece opciones de asistencia tanto virtual como presencial. Para asegurar su plaza, simplemente complete el formulario de inscripción que se encuentra en esta página.

¿Dónde puedo sintonizar virtualmente?

Si está en China, puede encontrar la transmisión virtual de Bilibili aquí. Si se une desde el resto del mundo, sintonice la transmisión virtual de Youtube aquí.