¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024

Explore la nueva frontera de la visión artificial

Únase a nosotros el 27 de septiembre para nuestro evento híbrido gratuito, transmitido en vivo desde Google for Startups en Madrid.

Ver en vivo
Vista previa de la app Ultralytics HUBVista previa de la app Ultralytics HUBVista previa de la app Ultralytics HUB

YV23, posible gracias a

Logotipo de Intel
Logotipo de Seeed Studio
Logotipo de Sony
Logotipo de Axelera
Logotipo de Dags Hub
Logotipo de DeGirum
Logotipo de Intuitivo
Logotipo del equipo Humble
Logotipo de Prodis

Impulsada por Ultralytics, #YV23 es la única conferencia en el mundo que se centra en el desarrollo y el progreso de la IA de visión de código abierto. Tanto presencial como online, investigadores, ingenieros y profesionales se reunirán por segundo año consecutivo para compartir conocimientos, innovación y progreso. Únase a expertos y líderes el 27 de septiembre en Google for Startups en Madrid, España para ampliar los límites de la nueva frontera de la IA de visión.

Alojado en
Logotipo de Google for Startups

1

día

18

charlas

2,000+

asistentes en línea

150

asistentes en persona

Ponentes

10:00

Apertura

10:00

PANEL: Facilitando la IA de visión de código abierto

Bo Zhang, Meituan
Glenn Jocher, Ultralytics
Yonatan Geifman, Deci

Glenn Jocher de Ultralytics (YOLOv5 y YOLOv8), Yonatan Geifman de Deci (YOLO-NAS) y Bo Zhang de Meituan (YOLOv6) se reúnen en este panel para explorar el estado de la IA de visión de código abierto. Este panel profundizará en los desafíos y prioridades encontrados durante la implementación del modelo, proporcionando información valiosa para una adopción perfecta de la IA. Además, los panelistas abordarán la implementación en dispositivos edge, examinarán el potencial de los módulos de reidentificación de objetos, proporcionarán información sobre la implementación de modelos y mucho más. 

11:00

Actualice cualquier cámara con YOLOv8 sin necesidad de código

Elaine Wu, Seeed

Hay alrededor de mil millones de cámaras de red implementadas en todo el mundo. Las cámaras inteligentes impulsadas por IA avanzada pueden centrarse en lo que más importa y brindar seguridad a los espacios para todos, desde conductores y peatones hasta minoristas y compradores. Le guiaremos a través del rendimiento general de edge para aplicaciones de análisis de video que realizan inferencias en NVIDIA Jetson y puede actualizar cualquier cámara heredada con el modelo YOLOv8 sin ninguna línea de código.

11:15

YOLO Supercargado: Aprovechando la Potencia Nativa de la IA

Dr. Bram Verhoef, Axelera AI

Únase a nosotros para ver cómo la plataforma Metis de Axelera AI ofrece un rendimiento y una usabilidad líderes en la industria, a solo una fracción del costo y el consumo de energía de las soluciones disponibles en la actualidad. Descubra los impresionantes resultados de nuestra solución de hardware y software, que optimiza los modelos YOLO para la inferencia en dispositivos edge.

11:30

Cerrando la brecha entre la investigación de la IA y el Edge en tiempo real

Amir Servi, Sony

La IA está transformando varios sectores, productos básicos y funcionalidades fundamentales. No obstante, las redes neuronales profundas consumen recursos excesivos en términos de memoria, potencia computacional y energía. Para garantizar la adopción generalizada de la IA, esta debe operar de manera eficiente en los dispositivos del usuario final, cumpliendo con estrictas restricciones de energía y térmicas. Técnicas como la cuantificación y la compresión desempeñan un papel fundamental en la mitigación de estos desafíos.

En este seminario web, el gerente de producto de Sony, Amir Servi, lo guiará a través del kit de herramientas de compresión de modelos de Sony para cuantificar y acelerar los modelos de aprendizaje profundo para una implementación eficiente en el edge. ¡Aprenderá a hacer lo mismo con su propio modelo! Lo que aprenderá:

- Nuestra investigación más reciente en técnicas de cuantificación y su implementación en un producto práctico

- Importancia de la compresión con reconocimiento de hardware para la inferencia en el edge

- Cómo los ingenieros e investigadores pueden implementar estas técnicas a través de Sony MCT

11:45

IA para todos: Ultralytics HUB nivela el campo de juego

Kalen Michael, Ultralytics

Ultralytics HUB reduce las barreras de entrada al mundo del ML, haciéndolo accesible tanto a particulares como a empresas, independientemente de sus conocimientos de programación. Descubre cómo esta plataforma está revolucionando la forma en que abordamos el aprendizaje automático, permitiendo a una nueva generación de entusiastas de los datos convertir sus ideas en realidad con una facilidad sin precedentes.

Y no te pierdas nuestro gran anuncio...

12:15

Show and Tell: Cómo implementar YOLO en (casi) cualquier cosa: ¡más simple y rápido!

Lakshantha Dissayanake, Seeed

Implementar modelos de última generación en dispositivos integrados, desde Edge GPU de NVIDIA Jetson hasta microcontroladores (MCU) diminutos, presenta desafíos y limitaciones. Explicaremos cómo implementar estos modelos, incluyendo YOLOv8, con un enfoque optimizado y el rendimiento general en el Edge para aplicaciones de analítica de video que realizan inferencias en NVIDIA Jetson.

12:40

KENYOTE: Explorando Ultralytics YOLO: Avances en la IA de visión de última generación

Glenn Jocher, Ultralytics

Glenn está en una búsqueda implacable para desarrollar la mejor IA de visión del mundo. Para él, esto no es solo un logro tecnológico, sino un paso vital hacia la realización del potencial de la IAG. Las puntas de lanza de esta implacable búsqueda no son otras que YOLOv5, YOLOv8 y el Ultralytics HUB.

Entonces, ¿qué hace que Ultralytics YOLO sea el mejor del mundo?

13:20

Almuerzo

14:45

Visión de Código Abierto con Transformers

Merve Noyan, Hugging Face

Los recientes avances en visión artificial han sido impulsados significativamente por la introducción de la arquitectura Transformer y las abstracciones fáciles de usar para pre-entrenar, ajustar e inferir en la biblioteca 🤗 transformers. Esta charla proporciona una visión general de los últimos modelos de visión basados en Transformer, explora las utilidades disponibles dentro de la biblioteca 🤗 transformers y ofrece información práctica sobre la filosofía detrás de ella.

15:00

KEYNOTE: ¡Sáltate la cola! Aprende a construir un sistema inteligente de gestión de colas con YOLOv8

Adrian Boguszewski, Intel OpenVINO

¿Cansado de las largas colas en la caja de la tienda? ¡Nuestro sistema inteligente de gestión de colas es la respuesta! Únase a nosotros para un tutorial paso a paso sobre cómo crear un sistema de este tipo utilizando OpenVINO y YOLOv8. Le guiaremos a través del proceso de integración de estas potentes herramientas de código abierto para desarrollar una solución integral que pueda implementarse en entornos de caja de tiendas. Aprenderá a optimizar la aplicación para lograr un rendimiento excepcional. Tanto si es un desarrollador experimentado como si es nuevo en la IA, esta sesión le proporcionará consejos prácticos y mejores prácticas para construir sistemas inteligentes utilizando OpenVINO. Al final de la presentación, tendrá el conocimiento y los recursos para construir su propia solución.

15:40

Desafíos éticos de la IA

Mónica Villas

En una era definida por los rápidos avances en la inteligencia artificial (IA), es primordial navegar por el panorama ético de esta tecnología. En esta sesión, Mónica desentrañará la intrincada red de dilemas éticos que acompañan al poder transformador de la IA. Desde abordar el sesgo y la equidad hasta explorar la transparencia, la rendición de cuentas y el profundo impacto de la IA en la sociedad, Mónica proporcionará información que arrojará luz sobre las consideraciones éticas que rodean a la IA.

Esta charla es su oportunidad para obtener una comprensión fundamental de los desafíos y responsabilidades éticas asociadas con la IA. Mónica le proporcionará conocimientos esenciales para cualquier persona involucrada en el desarrollo, la toma de decisiones o la formulación de políticas de IA.

16:00

Acelerando la transformación del retail con el poder de los modelos base

José Benítez Genes, Intuitivo

Los modelos fundacionales pueden ser exigentes en términos de computación de GPU y pueden no ser adecuados para aplicaciones en tiempo real, especialmente si desea escalar millones de puntos de venta autónomos. Pero aprovechamos el método llamado destilación del conocimiento, donde ponemos nuestros modelos fundacionales para tareas complejas como las anotaciones y transferimos este conocimiento a modelos más pequeños y rentables. Esto nos permite acelerar nuestro proceso de anotación hasta 90 veces más rápido que el etiquetado tradicional humano.

16:30

Construyendo un Pipeline de Aprendizaje Activo, de la manera fácil

Yono Mittlefehldt, DagsHub

Pssst. ¿Quieres saber un secreto? ¿Qué pasaría si te dijera que el aprendizaje activo no tiene por qué ser difícil? ¿Qué pasaría si hubiera... una manera fácil? Estás de suerte. Esta charla te mostrará exactamente cómo implementar un pipeline de aprendizaje activo utilizando el Data Engine de DagsHub. ¡Y el 90% del pipeline puede ejecutarse directamente en un Jupyter Notebook o en Google Colab! Al final de la charla, tendrás la información necesaria para convertir tu proyecto existente en uno que utilice el aprendizaje activo para mejorar de forma eficiente y rápida las métricas de tus modelos.

17:00

Construyendo con Open Source y YOLOv8

Joseph Nelson, Roboflow

El uso de herramientas de código abierto con YOLOv8 puede ayudarte a poner en marcha tu próximo proyecto de visión artificial rápidamente. Existen repositorios de imágenes de código abierto, bibliotecas para ayudar a automatizar el etiquetado de datos, herramientas para el seguimiento o el conteo, y servidores para implementar tus modelos. Aprende a usarlos con YOLOv8 para construir tu próxima aplicación.

17:20

Inteligencia Humana y Artificial para la Acción Climática Planetaria

Dr. Ramit Debnath y Seán Boyle, Unitmode

Se espera que la actual carrera mundial por sistemas de inteligencia artificial (IA) más grandes y mejores tenga un profundo impacto social y ambiental al alterar los mercados laborales, trastocar los modelos de negocio y permitir nuevas estructuras de gobernanza y bienestar social que puedan afectar el consenso mundial para las vías de acción climática. Sin embargo, los sistemas actuales de IA se entrenan con conjuntos de datos sesgados que podrían desestabilizar las agencias políticas que impactan en las decisiones de mitigación y adaptación al cambio climático y comprometer la estabilidad social, lo que podría conducir a eventos de inflexión social. Por lo tanto, el diseño apropiado de un sistema de IA menos sesgado que refleje tanto los efectos directos como indirectos en las sociedades y los desafíos planetarios es una cuestión de suma importancia.

17:35

Implementación de modelos YOLOv8 cuantizados en dispositivos Edge

Shashi Chilappagari, DeGirum

La cuantificación de modelos de machine learning (ML) puede conducir a una disminución significativa en el tamaño del modelo, así como a una reducción en la latencia de inferencia debido a los menores requisitos de ancho de banda. Cuando se implementa en opciones de hardware que admiten cálculos de enteros de manera eficiente, las ganancias de rendimiento pueden ser aún más dramáticas. Sin embargo, la cuantificación a veces puede conducir a una degradación inaceptable en la precisión. En esta charla, presentamos una descripción general de los métodos para cuantificar eficientemente los modelos YOLOv8, lo que los convierte en una excelente opción para diversas aplicaciones de IA en el borde en tiempo real. También presentamos una clase de modelos YOLOv8 con función de activación ReLU6 que muestran excelentes resultados de cuantificación posterior al entrenamiento en una variedad de arquitecturas de modelos y conjuntos de datos. Finalmente, ilustramos cómo los modelos cuantificados se pueden implementar en múltiples opciones de hardware, como CPU, Edge TPU y Orca (el acelerador AI HW de DeGirum) utilizando API simples.

18:00

Potenciando Ultralytics con Weights & Biases

Soumik Rakshit, Weights & Biases

Ultralytics es el hogar de modelos de visión artificial de vanguardia para tareas como la clasificación de imágenes, la detección de objetos, la segmentación de imágenes y la estimación de poses. Weights & Biases es una plataforma MLOps pensada para el desarrollador que, cuando se integra con un flujo de trabajo de Ultralytics, nos permite gestionar fácilmente nuestros experimentos, los puntos de control de los modelos y visualizar los resultados de nuestros experimentos de una manera intuitiva y reveladora. En esta sesión, exploraremos cómo podemos potenciar eficazmente nuestros flujos de trabajo de visión artificial utilizando Ultralytics y Weights & Biases.

18:15

PatentPT: Creación de una solución impulsada por LLM con agentes de memoria de nivel empresarial

Davit Buniatyan, Activeloop

Aprenda cómo creamos PatentPT, una solución avanzada de modelo de lenguaje que mejora enormemente la búsqueda de patentes y las capacidades de interacción. La presentación ofrece información práctica sobre el ajuste fino y la implementación de modelos de lenguaje grandes y el aprovechamiento de agentes de memoria de nivel empresarial para autocompletar patentes, generar resúmenes y reclamaciones, y realizar funciones avanzadas de búsqueda de patentes utilizando el rico corpus de patentes. Le guiaremos a través de cómo desarrollar una solución similar utilizando Deep Lake de Activeloop, la base de datos para IA, modelos LLM de código abierto, hardware Habana Gaudi HPU y las API de inferencia LLM de Amazon Sagemaker.

Le guiaremos a través de los planos arquitectónicos y todos los pasos que dimos para construir la solución, desde el entrenamiento de nuestro modelo LLM y su ajuste fino, la creación de características personalizadas y la implementación de API de búsqueda.

Tanto si es un profesional de la IA que busca guías prácticas sobre el ajuste fino de LLM, como si es un profesional del derecho interesado en aprovechar la IA para la búsqueda de patentes, o simplemente tiene curiosidad por el futuro de las soluciones mejoradas por la IA, nuestra charla ofrece una visión del proceso y el potencial del uso de LLM en un campo especializado. Únase a nosotros mientras compartimos nuestro viaje de construcción de aplicaciones personalizadas impulsadas por LLM impulsadas por Deep Lake, la base de datos para IA para empresas grandes y pequeñas.

18:30

Series A para Open Source: Qué buscan los inversores

Erica Brescia, Redpoint

Las empresas de código abierto se construyen de manera diferente. En esta charla, cubriremos lo que los inversores buscarán al considerar invertir en la Serie A. Spoiler: es posible que no necesites ingresos, ¡pero definitivamente necesitas impulso! Compartiremos las mejores métricas de su clase de otras empresas de OSS para ayudarte a determinar cuándo recaudar.

18:45

Cerrando

Asistentes anteriores de

Asistentes de Alibaba
Asistentes de Ancestry
Asistentes de AWS
Asistentes de Baidu
Logotipo de BCG
Asistentes de Chubb
Asistentes de Databricks
Asistentes de Deloitte
Asistentes de Ford
Logotipo de Fujitsu
Asistentes de General Electric
Asistentes de Huawei
Asistentes de KPMG
Asistentes de Lowe's
Logotipo de Nielsen
Asistentes de Nvidia
Asistentes de Oracle
Asistentes de Samsung
Asistentes de Walmart
Logotipo de Tata

Preguntas frecuentes sobre YV23

¿Cómo es el itinerario presencial?

Comenzaremos el día en Google for Startups en Madrid con café. La mañana contará con una serie de charlas, seguidas de una pausa para el almuerzo organizada por Ultralytics en Google for Startups. Después del almuerzo, volveremos a sumergirnos en más sesiones. Para culminar YV23, únete a nosotros para un happy hour de networking oficial, también organizado en Google for Startups.

¿Cuáles son los beneficios de asistir en persona?

Asistir en persona te permite sumergirte en el ambiente del evento, interactuar con los ponentes y otros asistentes, y participar en sesiones de networking. Es una oportunidad única para interactuar directamente con la comunidad de IA de visión.

¿Cuánto cuesta una entrada?

Las entradas para YV23 son totalmente gratuitas, tanto si eliges unirte a nosotros virtualmente como en persona.

¿Dónde se encuentra Google for Startups en Madrid?

Calle de Moreno Nieto, 2, 28005 Madrid, España.

¿Cómo puedo asistir a YV23?

YV23 ofrece opciones de asistencia tanto virtual como presencial. Para asegurar su plaza, simplemente complete el formulario de inscripción que se encuentra en esta página.

¿Dónde puedo sintonizar virtualmente?

Si está en China, puede encontrar la transmisión virtual de Bilibili aquí. Si se une desde el resto del mundo, sintonice la transmisión virtual de Youtube aquí.