Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Configuración de cookies
Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Descubre todo lo que necesitas saber sobre la anotación de imágenes con Ultralytics y sus herramientas integradas para etiquetar conjuntos de datos, gestionar anotaciones y preparar datos para los modelos.
Amplíe sus proyectos de visión artificial con Ultralytics.
Ultralytics ha presentado Ultralytics Ultralytics , un entorno diseñado para dar soporte a todo el ciclo de vida del desarrollo de la visión artificial. La plataforma centraliza las herramientas utilizadas para gestionar las distintas fases de los flujos de trabajo de IA aplicada a la visión, incluyendo la preparación de conjuntos de datos, la anotación de imágenes y vídeos, el entrenamiento de modelos y su implementación.
A pesar de su creciente adopción en sectores como la conducción autónoma y la asistencia sanitaria, el desarrollo de soluciones de visión artificial sigue considerándose un proceso fragmentado. Una de las principales razones es que los modelos de visión artificial dependen en gran medida de la calidad de los datos con los que se entrenan. Antes incluso de comenzar el entrenamiento, es necesario crear, organizar, revisar y etiquetar los conjuntos de datos para que el modelo pueda aprender qué debe detect reconocer.
Cuando se trabaja con datos visuales, este proceso se conoce como anotación de datos o anotación de imágenes. Durante la anotación de imágenes, se marcan partes específicas de una imagen y se les asignan etiquetas que sirven de guía al modelo durante el entrenamiento.
Por ejemplo, si el objetivo es detect en imágenes, los anotadores pueden dibujar rectángulos de delimitación alrededor de cada perro para indicar dónde aparecen. En tareas más detalladas, pueden perfilar la forma del perro utilizando máscaras de segmentación o marcar puntos clave para capturar su postura. Estos ejemplos etiquetados influyen directamente en el rendimiento del modelo una vez implementado.
Gestionar los flujos de trabajo de anotación de imágenes a gran escala puede resultar complicado. Los conjuntos de datos de gran tamaño suelen requerir normas de etiquetado coherentes, la colaboración entre varios anotadores y herramientas que faciliten la revisión y el perfeccionamiento de las anotaciones.
Ultralytics combina todo esto con un editor de anotaciones integrado. Admite múltiples tipos de tareas de anotación y ofrece a los equipos una forma más sencilla de etiquetar datos y preparar conjuntos de datos de visión artificial en un único flujo de trabajo.
Fig. 1. Vista del editor de anotaciones de Ultralytics (Fuente)
En este artículo, veremos cómo el editor de anotaciones Ultralytics ayuda a los equipos a anotar conjuntos de datos de forma eficiente y agiliza la preparación de los datos. ¡Empecemos!
Anotación de datos en visión artificial
Antes de explorar las herramientas de anotación de imágenes disponibles en Ultralytics , demos un paso atrás para comprender qué es la anotación de datos y por qué es importante a la hora de desarrollar sistemas de visión artificial.
Los modelos de visión artificial aprenden analizando grandes conjuntos de imágenes o vídeos, conocidos como conjuntos de datos. Sin embargo, las imágenes sin procesar por sí solas no proporcionan suficiente información para que un modelo comprenda qué debe detect reconocer. Para que los datos sean útiles para el entrenamiento, las imágenes deben etiquetarse mediante el proceso de etiquetado de datos, de modo que el modelo pueda aprender qué objetos, formas o patrones debe buscar.
Durante el proceso de anotación de imágenes, se marcan elementos específicos de una imagen y se les asignan etiquetas que describen lo que el modelo debe aprender. Estos ejemplos etiquetados guían a los modelos y algoritmos de aprendizaje profundo durante el entrenamiento y les ayudan a reconocer patrones similares al procesar nuevas imágenes.
Las distintas tareas de visión artificial requieren diferentes tipos de anotación de imágenes, dependiendo de la aplicación y el caso de uso. Por ejemplo, los anotadores pueden dibujar rectángulos de delimitación alrededor de los objetos para la detección de objetos, perfilar regiones de una imagen para la segmentación semántica, definir puntos clave para la estimación de la pose o asignar etiquetas a toda una imagen para la clasificación.
Gestión y preparación de datos
La preparación de datos para proyectos de visión artificial suele implicar trabajar con diversos formatos de archivo y organizar conjuntos de datos. También incluye asegurarse de que todo esté listo para la anotación y el entrenamiento de los algoritmos de aprendizaje automático. En muchos flujos de trabajo, este proceso se distribuye entre varias herramientas, y los datos deben cargarse, limpiarse y transferirse entre sistemas antes de poder utilizarlos.
Ultralytics simplifica este proceso al gestionar la preparación de datos, el entrenamiento de modelos y la implementación en un único entorno. Los equipos pueden cargar imágenes, vídeos o archivos de conjuntos de datos, y beneficiarse de un enfoque totalmente personalizable para preparar sus datos con anotaciones manuales o automatizadas mediante IA. Ultralytics admite tanto datos sin procesar como formatos estándar como YOLO COCO, lo que facilita el inicio de nuevos proyectos. También proporciona acceso a conjuntos de datos existentes en la plataforma, incluidos conjuntos de datos anotados que los equipos pueden utilizar para iniciar rápidamente nuevos proyectos o experimentos.
Fig. 2. Carga y gestiona conjuntos de datos en un único entorno en la Ultralytics . (Fuente)
Una vez que los datos estén disponibles, se pueden gestionar directamente en la plataforma. Los desarrolladores pueden revisar las imágenes, supervisar el progreso de la anotación y utilizar las visualizaciones integradas para comprender la distribución del conjunto de datos e identificar posibles lagunas.
La plataforma también admite el control de versiones de los conjuntos de datos, lo que ayuda a los equipos a capturar instantáneas de sus datos a medida que estos evolucionan. Esto facilita track , la comparación de experimentos y el mantenimiento de la coherencia durante el entrenamiento.
Una vez preparados los datos, los equipos pueden pasar a anotar las imágenes, es decir, a etiquetarlas para ayudar a los modelos a aprender qué deben detect.
Anotación de conjuntos de datos en Ultralytics
Una vez cargados los datos, el siguiente paso es la anotación. En esta fase se etiquetan los datos de las imágenes, sentando así las bases para el posterior entrenamiento de los modelos de visión artificial. Ultralytics incluye servicios de anotación de imágenes integrados a través de un editor de anotaciones que permite a los equipos etiquetar y gestionar los conjuntos de datos directamente en el mismo entorno.
El editor de anotaciones se despliega en un espacio de trabajo sencillo donde los usuarios pueden revisar imágenes, añadir etiquetas y actualizar las anotaciones según sea necesario. Todo está organizado en un solo lugar, lo que facilita mantener la coherencia de los conjuntos de datos y tenerlos listos para el entrenamiento de modelos.
Los equipos pueden cargar conjuntos de datos y empezar a etiquetar imágenes directamente en el navegador, definiendo y gestionando las clases de anotación para garantizar que las etiquetas sean coherentes en todo el conjunto de datos. A medida que se crean las anotaciones, los usuarios pueden revisarlas visualmente en el editor, lo que facilita la comprobación de la precisión antes de pasar al entrenamiento del modelo.
Herramientas de anotación de imágenes en Ultralytics
Ultralytics también incluye varias funciones que facilitan flujos de trabajo eficientes para el etiquetado de conjuntos de datos, simplificando el proceso de anotación mediante algoritmos avanzados.
Estas son algunas de las funciones principales disponibles en Ultralytics :
Anotación manual: este método permite a los usuarios disponer de un control y una flexibilidad totales a la hora de crear anotaciones en las imágenes, como cuadros delimitadores, regiones de segmentación o puntos clave, directamente sobre las imágenes.
Etiquetado asistido por IA: esta función genera automáticamente sugerencias de anotaciones, lo que reduce la necesidad de realizar el etiquetado manualmente. Utiliza SAM Segment Anything Model) para detect o regiones con un solo clic, lo que agiliza el proceso de anotación y permite a los usuarios revisar y confirmar las sugerencias antes de añadirlas al conjunto de datos.
Edición de anotaciones: En cualquier momento, los usuarios pueden modificar o perfeccionar las anotaciones de las imágenes una vez creadas. Esto permite corregir errores de etiquetado y mantener la coherencia en las etiquetas del conjunto de datos a lo largo de todo el proceso de anotación.
Gestión de clases: Los equipos y los desarrolladores independientes pueden definir y organizar las clases de anotación que se utilizan durante el etiquetado de los conjuntos de datos. Esto ayuda a mantener la coherencia de las etiquetas en todas las imágenes, lo cual es importante para entrenar modelos capaces de reconocer y diferenciar con precisión entre clases.
Al combinar herramientas manuales, inteligencia artificial y automatización, Ultralytics ayuda a los usuarios a anotar imágenes de forma más eficiente. Además, permite preparar datos de entrenamiento de alta calidad para modelos de visión artificial escalables.
Tipos de tareas de anotación compatibles
Los distintos casos de uso, como el control de calidad de los productos, requerirán diferentes tipos de anotación en función de lo que se deba detectar en las imágenes o los vídeos. Como hemos mencionado anteriormente, Ultralytics admite cinco tareas de detección de objetos, cada una con su propio tipo de anotación.
Veamos con más detalle las tareas de anotación que admite la plataforma y cómo se pueden utilizar para etiquetar conjuntos de datos.
Detección de objetos
La detección de objetos identifica y localiza objetos dentro de una imagen. Los anotadores marcan cada objeto de interés mediante cuadros delimitadores, indicando dónde aparecen los elementos en la imagen.
En el editor de anotaciones, esto se hace con la herramienta de cuadro delimitador. Los usuarios pueden entrar en el «modo de edición», hacer clic y arrastrar para dibujar un rectángulo alrededor de un objeto, y asignarle una etiqueta de clase desde un menú desplegable.
Los recuadros delimitadores se pueden ajustar una vez creados. Los anotadores pueden cambiar su tamaño arrastrando los controladores de las esquinas o los bordes, moverlos arrastrando el centro del recuadro o eliminarlos mediante atajos de teclado. Estas anotaciones ayudan a los modelos de visión artificial a aprender a detect en diferentes escenas y condiciones.
Fig. 3. Anotación para la detección de objetos mediante cuadros delimitadores en la Ultralytics . (Fuente)
Segmentación de instancias
La segmentación por instancias proporciona anotaciones más detalladas al definir la forma exacta de los objetos dentro de una imagen. En lugar de dibujar un simple rectángulo, los anotadores trazan los contornos del objeto mediante anotaciones poligonales para crear máscaras precisas destinadas a tareas de segmentación de imágenes.
El editor de anotaciones incluye una herramienta de polígonos para esta tarea. Los anotadores colocan varios vértices alrededor de los bordes de un objeto para delinear su forma. Una vez colocados los vértices, se puede cerrar el polígono para crear una máscara de segmentación.
Los vértices se pueden ajustar una vez creado el polígono. Se pueden mover puntos concretos para perfeccionar los contornos de los objetos y, si es necesario, se pueden eliminar vértices. Estas anotaciones a nivel de píxel ayudan a los modelos a aprender estructuras visuales detalladas y a distinguir entre objetos que parecen estar muy próximos entre sí.
Estimación de la pose
Las anotaciones de estimación de la postura recogen las posiciones de las articulaciones del cuerpo y las relaciones entre ellas. Esto ayuda a los modelos a comprender la estructura y el movimiento de las personas o los animales que aparecen en una imagen.
Mediante la herramienta de puntos clave, los anotadores colocan puntos clave que representan las articulaciones del cuerpo, como hombros, codos, muñecas, caderas, rodillas y tobillos. La plataforma admite varias plantillas de esqueleto integradas, entre las que se incluyen el formato de postura COCO de 17 puntos, así como plantillas para manos, rostros, perros y esquinas de cajas.
Las plantillas permiten colocar una estructura completa con un solo clic, tras lo cual se pueden ajustar los puntos clave individuales para que coincidan con la pose de la imagen. Cada punto clave también puede incluir un indicador de visibilidad para señalar si está visible u oculto.
Fig. 4. Anotación de la estimación de la postura mediante puntos clave y plantillas esqueléticas. (Fuente)
Cajas delimitadoras orientadas (OBB)
Los recuadros delimitadores orientados van un paso más allá que los recuadros delimitadores tradicionales, ya que admiten la rotación. Este tipo de anotación resulta útil cuando los objetos aparecen en ángulo en lugar de estar alineados con el encuadre de la imagen.
En el editor de anotaciones, los anotadores pueden utilizar la herramienta de cuadro delimitador orientado para dibujar rectángulos girados alrededor de los objetos. Una vez dibujado el cuadro inicial, se puede utilizar un controlador de rotación para ajustar el ángulo, mientras que los controladores de las esquinas permiten cambiar el tamaño del cuadro.
Las anotaciones giradas se utilizan a menudo en imágenes aéreas, conjuntos de datos de inspección industrial y otros contextos en los que los objetos aparecen en diagonal o desde diferentes puntos de vista.
Fig. 5. Anotación de cajas delimitadoras orientadas (OBB) para objetos girados en imágenes aéreas. (Fuente)
Clasificación de imágenes
La clasificación de imágenes asigna una etiqueta a toda la imagen en su conjunto, en lugar de marcar los objetos individuales que contiene.
En el caso de los conjuntos de datos de clasificación, el editor de anotaciones ofrece un panel de selección de clases. Los anotadores pueden asignar etiquetas a las imágenes seleccionando una clase en la barra lateral o utilizando atajos de teclado para agilizar el proceso de etiquetado.
Estas etiquetas a nivel de imagen ayudan a los modelos a aprender patrones visuales de alto nivel que representan diferentes categorías.
Anotación asistida por IA con SAM
El etiquetado de imágenes para tareas como la segmentación suele requerir un trabajo minucioso y detallado, sobre todo cuando es necesario delinear los objetos con precisión. Ultralytics incluye herramientas de anotación asistidas por IA que agilizan el proceso, al tiempo que garantizan que las anotaciones sean precisas y fáciles de revisar.
Por ejemplo, los anotadores pueden interactuar con una imagen haciendo clic en las partes de un objeto que desean incluir en la anotación. También pueden marcar las áreas que deben excluirse para refinar el resultado. A partir de estos datos, el modelo genera una máscara de segmentación en tiempo real, que luego puede revisarse y ajustarse antes de guardarse.
Este enfoque facilita el trabajo con imágenes complejas sin necesidad de trazar manualmente cada detalle. Al mismo tiempo, los anotadores mantienen el control sobre el resultado final, lo que garantiza que las anotaciones sean coherentes en todo el conjunto de datos.
Fig. 6. Segmentación asistida por IA mediante la herramienta de anotación inteligente de la Ultralytics . (Fuente)
Estas funciones se basan en los modelos Segment Anything Models (SAM). Estos modelos forman parte de un ecosistema más amplio de herramientas de visión artificial de código abierto diseñadas para generar segmentaciones de alta calidad a partir de datos mínimos. La plataforma es compatible con múltiples SAM , entre ellas SAM .1 y SAM . Esto ofrece a los equipos la flexibilidad de elegir entre un rendimiento más rápido y resultados más detallados en función de sus necesidades.
Estas herramientas asistidas por IA pueden aplicarse a tareas como la detección de objetos, la segmentación de instancias y la detección de cuadros delimitadores orientados. Esto significa que los equipos pueden procesar grandes conjuntos de datos de forma más eficiente, sin dejar de mantener la calidad necesaria para un entrenamiento fiable de los modelos.
Mejora de los flujos de trabajo de anotación con herramientas integradas
A medida que avanza el trabajo de anotación, es habitual volver atrás para ajustar las etiquetas, corregir cualquier error o revisar las imágenes con más detenimiento. El editor Ultralytics incluye herramientas integradas que facilitan estas tareas cotidianas y reducen el tiempo que requieren.
Entre las funciones de flujo de trabajo disponibles en el editor se incluyen:
Atajos de teclado: El editor incluye atajos que agilizan las acciones más habituales, como guardar anotaciones, deshacer o rehacer cambios, eliminar etiquetas y seleccionar clases mientras se realizan anotaciones.
Historial de deshacer y rehacer: los anotadores pueden revertir o restaurar fácilmente los cambios realizados durante una sesión de edición. Esto ayuda a los equipos a experimentar con las anotaciones y a corregir rápidamente los errores sin perder el progreso, lo que favorece un mejor control de calidad durante la preparación de los conjuntos de datos.
Edición flexible de anotaciones: las anotaciones se pueden modificar incluso después de su creación. Los usuarios pueden cambiar el tamaño de las formas, mover las anotaciones, rotar los rectángulos delimitadores u actualizar las etiquetas de clase según sea necesario, especialmente al perfeccionar objetos con formas irregulares.
Controles de visibilidad: El editor incluye botones de visibilidad que permiten a los usuarios mostrar u ocultar las anotaciones y las etiquetas de clase, lo que facilita la revisión de las imágenes durante el proceso de etiquetado.
Herramientas de precisión: funciones como el zoom y un cursor en forma de cruz con coordenadas de píxeles ayudan a los anotadores a colocar las etiquetas con mayor precisión cuando trabajan con imágenes detalladas.
Gestión de clases de anotación en Ultralytics
Las clases de anotación claras y coherentes desempeñan un papel importante en la creación de conjuntos de datos fiables para la visión artificial. A medida que los proyectos crecen, la gestión del etiquetado de datos en conjuntos de datos de gran tamaño puede resultar complicada, especialmente cuando intervienen varios anotadores. Mantener las clases bien organizadas ayuda a garantizar que las anotaciones sean coherentes y que los modelos aprendan a partir de datos estructurados.
Ultralytics simplifica este proceso al integrar la gestión de clases directamente en el editor de anotaciones. En lugar de gestionar las etiquetas por separado, los equipos pueden crear, actualizar y revisar las clases mientras trabajan con las imágenes, lo que facilita mantener la coherencia a lo largo de todo el flujo de trabajo de anotación.
En el editor, todas las clases están disponibles en una barra lateral situada junto al lienzo de anotación. Esto facilita la selección de la etiqueta correcta al realizar anotaciones y permite track uso de las clases en todo el conjunto de datos. Los usuarios pueden buscar clases existentes o crear otras nuevas según sea necesario, sin interrumpir su flujo de trabajo.
Los detalles de las clases también se pueden actualizar en cualquier momento. Los nombres se pueden editar directamente y se pueden asignar colores para facilitar la identificación de las distintas clases en las anotaciones. El editor también muestra cuántas anotaciones están vinculadas a cada clase y permite a los usuarios revisarlas, lo que ayuda a los equipos a comprobar la coherencia y la precisión.
Todas las clases se gestionan a través de una tabla centralizada en la que se pueden ordenar, buscar y actualizar. Cualquier cambio que se realice aquí se aplica automáticamente a todo el conjunto de datos, lo que ayuda a los equipos a mantener la coherencia a medida que los proyectos de anotación van creciendo.
Fig. 7. La gestión de clases en el editor de anotaciones muestra la organización de las etiquetas y la personalización de los colores. (Fuente)
Cómo influye la calidad de las anotaciones en el rendimiento en condiciones reales
A medida que los sistemas de visión artificial pasan de la fase de desarrollo a su aplicación en el mundo real, la calidad de los datos anotados desempeña un papel fundamental en el rendimiento de los modelos. Los conjuntos de datos correctamente etiquetados ayudan a los modelos a generar predicciones más precisas y coherentes, especialmente en entornos dinámicos o impredecibles.
En la práctica, incluso las pequeñas inconsistencias en las anotaciones pueden afectar al comportamiento del modelo. Las diferencias en la forma de etiquetar los objetos o de gestionar los casos extremos pueden no resultar evidentes durante el entrenamiento, pero pueden dar lugar a predicciones menos fiables una vez que los sistemas se ponen en marcha.
Además, estas inconsistencias pueden hacerse más evidentes en aplicaciones del mundo real. Por ejemplo, en la robótica y los sistemas sanitarios, los modelos se basan en datos visuales para detect y orientar sus acciones en tiempo real. Las variaciones en el etiquetado pueden influir en la precisión con la que estos sistemas interpretan su entorno.
Al mantener unas prácticas de anotación coherentes y utilizar plataformas como Ultralytics gestionar y perfeccionar los conjuntos de datos a lo largo del tiempo, los equipos pueden crear modelos que funcionen de forma más fiable más allá de los entornos de prueba controlados.
Conclusiones clave
Una anotación de datos de alta calidad es esencial para entrenar modelos de visión artificial precisos y garantizar el éxito de los proyectos de anotación de imágenes. Ultralytics simplifica este proceso gracias a un potente editor de anotaciones compatible con múltiples tareas de visión artificial. Al combinar herramientas de anotación manual con el etiquetado asistido por IA mediante SAM funciones de flujo de trabajo integradas, los equipos pueden preparar conjuntos de datos de forma más eficiente y avanzar más rápidamente desde la preparación de datos hasta el desarrollo de modelos.