Yolo Vision Shenzhen
Shenzhen
Junte-se agora

Abordar a IA responsável com o Ultralytics YOLOv8

Abirami Vina

4 min de leitura

5 de setembro de 2024

Aprenda a desenvolver soluções de IA responsáveis com o Ultralytics YOLOv8 , seguindo as melhores práticas de ética e segurança e dando prioridade a inovações de IA justas e compatíveis.

O futuro da IA está nas mãos de programadores, entusiastas da tecnologia, líderes empresariais e outras partes interessadas que estão a utilizar ferramentas e modelos como o Ultralytics YOLOv8 para impulsionar a inovação. No entanto, criar soluções de IA impactantes não se trata apenas de usar tecnologia avançada. Trata-se também de o fazer de forma responsável. 

A IA responsável tem sido um tópico popular de conversa na comunidade de IA ultimamente, com cada vez mais pessoas a falar sobre a sua importância e a partilhar os seus pensamentos. Desde discussões online a eventos do setor, há um foco crescente em como podemos tornar a IA não apenas poderosa, mas também ética. Um tema comum nessas conversas é a ênfase em garantir que todos os que contribuem para um projeto de IA mantenham uma mentalidade focada na IA responsável em todas as etapas. 

Neste artigo, começaremos por explorar alguns eventos e discussões recentes relacionados com a IA responsável. Em seguida, analisaremos mais de perto os desafios éticos e de segurança exclusivos do desenvolvimento de projetos de visão computacional e como garantir que o seu trabalho seja inovador e ético. Ao adotar os princípios da IA responsável, podemos criar uma IA que realmente beneficie a todos!

IA Responsável em 2024

Nos últimos anos, tem havido um impulso notável para tornar a IA mais ética. Em 2019, apenas 5% das organizações tinham estabelecido diretrizes éticas para a IA, mas em 2020, esse número saltou para 45%. Como consequência, estamos a começar a ver mais notícias relacionadas com os desafios e sucessos desta mudança ética. Em particular, tem havido muita agitação sobre a IA generativa e como usá-la de forma responsável.

No primeiro trimestre de 2024, o chatbot Gemini da Google, que pode gerar imagens com base em instruções de texto, foi amplamente discutido. Em particular, o Gemini foi utilizado para criar imagens que retratavam várias figuras históricas, como soldados alemães da Segunda Guerra Mundial, como pessoas de cor. O chatbot de IA foi concebido para diversificar a representação das pessoas nas imagens geradas, de modo a ser intencionalmente inclusivo. No entanto, por vezes, o sistema interpretou mal determinados contextos, resultando em imagens que foram consideradas inexactas e inadequadas.

__wf_reserved_inherit
Fig.1 Uma imagem gerada pelo Gemini.

O diretor de pesquisa da Google, Prabhakar Raghavan, explicou numa publicação no seu blogue que a IA se tornou demasiado cautelosa e até se recusou a gerar imagens em resposta a pedidos neutros. Embora a funcionalidade de geração de imagens do Gemini tenha sido concebida para promover a diversidade e a inclusão no conteúdo visual, levantando preocupações sobre a exatidão das representações históricas e as implicações mais amplas para o preconceito e o desenvolvimento responsável da IA. Está em curso um debate sobre a forma de equilibrar o objetivo de promover representações diversificadas em conteúdos gerados por IA com a necessidade de exatidão e de salvaguardas contra a deturpação.

Histórias como esta deixam claro que, à medida que a IA continua a evoluir e a tornar-se mais integrada nas nossas vidas diárias, as decisões tomadas por desenvolvedores e empresas podem ter um impacto significativo na sociedade. Na próxima seção, vamos mergulhar em dicas e melhores práticas para construir e gerir sistemas de IA de forma responsável em 2024. Quer esteja apenas a começar ou a procurar refinar a sua abordagem, estas diretrizes irão ajudá-lo a contribuir para um futuro de IA mais responsável.

Considerações éticas nos projectos YOLOv8

Ao criar soluções de visão computacional com o YOLOv8é importante ter em mente algumas considerações éticas fundamentais, como preconceito, justiça, privacidade, acessibilidade e inclusão. Vamos analisar esses fatores com um exemplo prático.

__wf_reserved_inherit
Fig.2 Considerações Éticas e Legais na IA.

Digamos que está a desenvolver um sistema de vigilância para um hospital que monitoriza os corredores para detetar comportamentos suspeitos. O sistema poderia utilizar YOLOv8 para detect coisas como pessoas que se demoram em áreas restritas, acesso não autorizado ou até mesmo detetar pacientes que possam precisar de ajuda, como os que vagueiam em zonas não seguras. O sistema analisaria as imagens de vídeo em direto das câmaras de segurança de todo o hospital e enviaria alertas em tempo real ao pessoal de segurança quando algo de invulgar acontecesse.

Se o seu modelo YOLOv8 for treinado com dados tendenciosos, pode acabar por visar injustamente determinados grupos de pessoas com base em factores como a raça ou o sexo, conduzindo a falsos alertas ou mesmo à discriminação. Para evitar isto, é essencial equilibrar o seu conjunto de dados e utilizar técnicas para detect e corrigir quaisquer enviesamentos, tais como:

  • Aumento de Dados: Melhorar o conjunto de dados com exemplos diversos garante uma representação equilibrada em todos os grupos.
  • Reamostragem: Ajuste da frequência de classes sub-representadas nos dados de treinamento para equilibrar o conjunto de dados.
  • Algoritmos com Consciência de Imparcialidade: Implementação de algoritmos especificamente projetados para reduzir o viés nas previsões.
  • Ferramentas de Detecção de Viés: Utilização de ferramentas que analisam as previsões do modelo para identificar e corrigir vieses.

A privacidade é outra grande preocupação, especialmente em ambientes como os hospitais, onde estão envolvidas informações sensíveis. YOLOv8 pode captar dados pessoais de pacientes e funcionários, como os seus rostos ou actividades. Para proteger a sua privacidade, pode tomar medidas como tornar os dados anónimos para remover qualquer informação identificável, obter o devido consentimento dos indivíduos antes de utilizar os seus dados ou desfocar os rostos no feed de vídeo. Também é uma boa ideia encriptar os dados e garantir que são armazenados e transmitidos de forma segura para evitar o acesso não autorizado.

Também é importante projetar seu sistema para ser acessível e inclusivo. Você deve garantir que ele funcione para todos, independentemente de suas habilidades. Em um ambiente hospitalar, isso significa que o sistema deve ser fácil de usar para todos os funcionários, pacientes e visitantes, incluindo aqueles com deficiências ou outras necessidades de acessibilidade. Ter uma equipe diversificada pode fazer uma grande diferença aqui. Membros da equipe de diferentes origens podem oferecer novas perspectivas e ajudar a identificar possíveis problemas que poderiam passar despercebidos. Ao trazer diversas perspectivas, é mais provável que você construa um sistema que seja fácil de usar e acessível a uma ampla gama de pessoas.

Melhores práticas de segurança para o YOLOv8

Ao implantar YOLOv8 em aplicações do mundo real, é importante priorizar a segurança para proteger tanto o modelo quanto os dados que ele usa. Tomemos, por exemplo, um sistema de gerenciamento de filas em um aeroporto que usa visão computacional com YOLOv8 para monitorar o fluxo de passageiros. YOLOv8 pode ser utilizado para track o movimento dos passageiros através dos pontos de controlo de segurança, portas de embarque e outras áreas para ajudar a identificar pontos de congestionamento e otimizar o fluxo de pessoas para reduzir os tempos de espera. O sistema pode utilizar câmaras colocadas estrategicamente em redor do aeroporto para captar imagens de vídeo em direto, com YOLOv8 a detetar e contar os passageiros em tempo real. As informações deste sistema podem ser utilizadas para alertar o pessoal quando as filas estão a ficar demasiado longas, abrir automaticamente novos pontos de controlo ou ajustar os níveis de pessoal para tornar as operações mais fáceis.

__wf_reserved_inherit
Fig.3 Gestão de filas de espera numa bilheteira de aeroporto utilizando o Ultralytics YOLOv8.

Neste contexto, é fundamental proteger o modelo YOLOv8 contra ataques e adulterações. Isto pode ser feito encriptando os ficheiros do modelo para que os utilizadores não autorizados não possam aceder ou alterá-los facilmente. É possível implementar o modelo em servidores seguros e configurar controlos de acesso para evitar adulterações. As verificações e auditorias de segurança regulares podem ajudar a detetar quaisquer vulnerabilidades e a manter o sistema seguro. Podem ser utilizados métodos semelhantes para proteger dados sensíveis, tais como as transmissões de vídeo dos passageiros.

Para reforçar ainda mais a segurança, ferramentas como Snyk, GitHub CodeQL e Dependabot podem ser integradas no processo de desenvolvimento. O Snyk ajuda a identificar e corrigir vulnerabilidades no código e nas dependências, o GitHub CodeQL analisa o código em busca de problemas de segurança e o Dependabot mantém as dependências actualizadas com os patches de segurança mais recentes. Na Ultralytics, estas ferramentas foram implementadas para detect e prevenir vulnerabilidades de segurança.

Armadilhas comuns e como evitá-las

Apesar das boas intenções e de seguir as melhores práticas, podem ocorrer lapsos, deixando lacunas nas suas soluções de IA, especialmente no que diz respeito à ética e à segurança. Estar ciente destes problemas comuns pode ajudá-lo a resolvê-los de forma proactiva e a criar modelos YOLOv8 mais robustos. Aqui estão algumas armadilhas a que deve estar atento e dicas sobre como as evitar:

  • Negligenciar a conformidade com os regulamentos: Não aderir aos regulamentos de IA pode levar a problemas legais e danificar sua reputação. Mantenha-se atualizado sobre as leis relevantes, como o GDPR para proteção de dados, e certifique-se de que seus modelos estejam em conformidade, realizando verificações de conformidade regulares.
  • Teste inadequado em condições do mundo real: Modelos que não são testados em condições do mundo real podem falhar quando implementados. Simule cenários de casos extremos do mundo real durante o teste para identificar problemas potenciais precocemente e ajuste seus modelos para serem mais acessíveis a todos.
  • Falta de medidas de responsabilização: Se não estiver claro quem é responsável por diferentes partes de um sistema de IA, pode ser difícil lidar com erros, vieses ou uso indevido, o que pode levar a problemas mais significativos. Estabeleça uma responsabilização clara pelos resultados da IA, definindo funções e responsabilidades dentro de sua equipe e configurando processos para resolver problemas quando eles surgirem.
  • Não considerar o impacto ambiental: Os modelos de IA podem ter sérios impactos ambientais. Por exemplo, implementações em larga escala podem exigir o suporte de data centers que consomem grandes quantidades de energia para lidar com computações intensivas. Você pode otimizar seus modelos para serem eficientes em termos de energia e considerar a pegada ambiental de seus processos de treinamento e implementação.
  • Desconsiderar a sensibilidade cultural: Modelos treinados sem consideração pelas diferenças culturais podem ser inadequados ou ofensivos em certos contextos. Garanta que sua solução de IA respeite as normas e valores culturais, incluindo diversas perspectivas culturais em seus dados e processo de desenvolvimento.
__wf_reserved_inherit
Fig.4 Princípios e Requisitos Éticos.

Criar soluções éticas e seguras com o YOLOv8 

A criação de soluções de IA com o YOLOv8 oferece muitas possibilidades interessantes, mas é vital ter em mente a ética e a segurança. Concentrando-nos na justiça, privacidade, transparência e seguindo as diretrizes corretas, podemos criar modelos com bom desempenho e que respeitem os direitos das pessoas. É fácil ignorar aspectos como a parcialidade dos dados, a proteção da privacidade ou a garantia de que todos podem utilizar o sistema, mas dedicar algum tempo a estas questões pode ser decisivo. Enquanto continuamos a alargar os limites do que a IA pode fazer com ferramentas como o YOLOv8, lembremo-nos do lado humano da tecnologia. Se formos ponderados e proactivos, podemos criar inovações de IA que sejam responsáveis e avançadas!

Não deixe de participar da nossa comunidade para obter as últimas atualizações em IA! Além disso, você pode aprender mais sobre IA visitando nosso repositório GitHub e explorando nossas soluções em vários campos, como manufatura e direção autônoma.

Vamos construir o futuro
da IA juntos!

Comece sua jornada com o futuro do aprendizado de máquina

Comece gratuitamente