Abordar a IA responsável com o Ultralytics YOLOv8

Abirami Vina

4 min ler

5 de setembro de 2024

Aprenda a desenvolver soluções de IA responsáveis com o Ultralytics YOLOv8, seguindo as melhores práticas de ética e segurança e dando prioridade a inovações de IA justas e compatíveis.

O futuro da IA está nas mãos de programadores, entusiastas da tecnologia, líderes empresariais e outras partes interessadas que estão a utilizar ferramentas e modelos como o Ultralytics YOLOv8 para impulsionar a inovação. No entanto, criar soluções de IA impactantes não se trata apenas de usar tecnologia avançada. Trata-se também de o fazer de forma responsável. 

A IA responsável tem sido um tema de conversa popular na comunidade de IA ultimamente, com cada vez mais pessoas a falarem sobre a sua importância e a partilharem as suas ideias. Desde discussões online a eventos do sector, há um foco crescente na forma como podemos tornar a IA não só poderosa, mas também ética. Um tema comum nestas conversas é a ênfase em garantir que todos os que contribuem para um projeto de IA mantêm uma mentalidade centrada na IA responsável em todas as fases. 

Neste artigo, começaremos por explorar alguns eventos e discussões recentes relacionados com a IA responsável. Em seguida, analisaremos mais detalhadamente os desafios éticos e de segurança únicos do desenvolvimento de projectos de visão por computador e como garantir que o seu trabalho é inovador e ético. Ao adotar os princípios da IA responsável, podemos criar uma IA que beneficie verdadeiramente toda a gente!

IA responsável em 2024

Nos últimos anos, tem havido um impulso notável para tornar a IA mais ética. Em 2019, apenas 5% das organizações haviam estabelecido diretrizes éticas para IA, mas em 2020, esse número saltou para 45%. Como consequência, estamos a começar a ver mais notícias relacionadas com os desafios e sucessos desta mudança ética. Em particular, tem havido muito burburinho sobre IA generativa e como usá-la de forma responsável.

No primeiro trimestre de 2024, o chatbot Gemini da Google, que pode gerar imagens com base em instruções de texto, foi amplamente discutido. Em particular, o Gemini foi utilizado para criar imagens que retratavam várias figuras históricas, como soldados alemães da Segunda Guerra Mundial, como pessoas de cor. O chatbot de IA foi concebido para diversificar a representação das pessoas nas imagens geradas, de modo a ser intencionalmente inclusivo. No entanto, por vezes, o sistema interpretou mal determinados contextos, resultando em imagens que foram consideradas inexactas e inadequadas.

__wf_reserved_inherit
Fig.1 Uma imagem gerada pelo Gemini.

O diretor de pesquisa da Google, Prabhakar Raghavan, explicou numa publicação no seu blogue que a IA se tornou demasiado cautelosa e até se recusou a gerar imagens em resposta a pedidos neutros. Embora a funcionalidade de geração de imagens do Gemini tenha sido concebida para promover a diversidade e a inclusão no conteúdo visual, levantando preocupações sobre a exatidão das representações históricas e as implicações mais amplas para o preconceito e o desenvolvimento responsável da IA. Está em curso um debate sobre a forma de equilibrar o objetivo de promover representações diversificadas em conteúdos gerados por IA com a necessidade de exatidão e de salvaguardas contra a deturpação.

Histórias como esta deixam claro que, à medida que a IA continua a evoluir e a integrar-se cada vez mais no nosso quotidiano, as decisões tomadas pelos programadores e pelas empresas podem ter um impacto significativo na sociedade. Na próxima secção, vamos mergulhar em dicas e melhores práticas para construir e gerir sistemas de IA de forma responsável em 2024. Quer esteja apenas a começar ou a procurar aperfeiçoar a sua abordagem, estas diretrizes irão ajudá-lo a contribuir para um futuro de IA mais responsável.

Considerações éticas nos projectos YOLOv8

Ao criar soluções de visão computacional com o YOLOv8, é importante ter em mente algumas considerações éticas importantes, como preconceito, justiça, privacidade, acessibilidade e inclusão. Vamos analisar esses fatores com um exemplo prático.

__wf_reserved_inherit
Fig.2 Considerações éticas e jurídicas em matéria de IA.

Digamos que está a desenvolver um sistema de vigilância para um hospital que monitoriza os corredores para detetar comportamentos suspeitos. O sistema poderia utilizar o YOLOv8 para detetar coisas como pessoas que se demoram em áreas restritas, acesso não autorizado ou até mesmo detetar pacientes que possam precisar de ajuda, como os que vagueiam em zonas não seguras. Analisaria as imagens de vídeo em direto das câmaras de segurança de todo o hospital e enviaria alertas em tempo real ao pessoal de segurança quando algo de invulgar acontecesse.

Se o seu modelo YOLOv8 for treinado com dados tendenciosos, pode acabar por visar injustamente determinados grupos de pessoas com base em factores como a raça ou o sexo, conduzindo a falsos alertas ou mesmo à discriminação. Para evitar isto, é essencial equilibrar o seu conjunto de dados e utilizar técnicas para detetar e corrigir quaisquer enviesamentos, tais como:

  • Aumento de dados: Melhorar o conjunto de dados com exemplos diversos garante uma representação equilibrada em todos os grupos.
  • Reamostragem: Ajustar a frequência de classes sub-representadas nos dados de treino para equilibrar o conjunto de dados.
  • Algoritmos conscientes da equidade: Implementação de algoritmos especificamente concebidos para reduzir o enviesamento nas previsões.
  • Ferramentas de deteção de viés: Utilização de ferramentas que analisam as previsões do modelo para identificar e corrigir enviesamentos.

A privacidade é outra grande preocupação, especialmente em ambientes como os hospitais, onde estão envolvidas informações sensíveis. O YOLOv8 pode captar dados pessoais de pacientes e funcionários, como os seus rostos ou actividades. Para proteger a sua privacidade, pode tomar medidas como tornar os dados anónimos para remover qualquer informação identificável, obter o devido consentimento dos indivíduos antes de utilizar os seus dados ou desfocar os rostos no feed de vídeo. Também é uma boa ideia encriptar os dados e garantir que são armazenados e transmitidos de forma segura para evitar o acesso não autorizado.

Também é importante conceber o seu sistema para ser acessível e inclusivo. Deve certificar-se de que funciona para todos, independentemente das suas capacidades. Num hospital, isto significa que o sistema deve ser fácil de utilizar por todos os funcionários, doentes e visitantes, incluindo os que têm deficiências ou outras necessidades de acessibilidade. Ter uma equipa diversificada pode fazer uma grande diferença aqui. Os membros da equipa de diferentes origens podem oferecer novas perspectivas e ajudar a identificar potenciais problemas que poderiam passar despercebidos. Ao trazer várias perspectivas, é mais provável que construa um sistema que seja de fácil utilização e acessível a um vasto leque de pessoas.

Melhores práticas de segurança para o YOLOv8

Ao implantar o YOLOv8 em aplicações do mundo real, é importante priorizar a segurança para proteger tanto o modelo quanto os dados que ele usa. Tomemos, por exemplo, um sistema de gerenciamento de filas em um aeroporto que usa visão computacional com YOLOv8 para monitorar o fluxo de passageiros. O YOLOv8 pode ser utilizado para seguir o movimento dos passageiros através dos pontos de controlo de segurança, portas de embarque e outras áreas para ajudar a identificar pontos de congestionamento e otimizar o fluxo de pessoas para reduzir os tempos de espera. O sistema pode utilizar câmaras colocadas estrategicamente em redor do aeroporto para captar imagens de vídeo em direto, com o YOLOv8 a detetar e contar os passageiros em tempo real. As informações deste sistema podem ser utilizadas para alertar o pessoal quando as filas estão a ficar demasiado longas, abrir automaticamente novos pontos de controlo ou ajustar os níveis de pessoal para tornar as operações mais fáceis.

__wf_reserved_inherit
Fig.3 Gestão de filas de espera numa bilheteira de aeroporto utilizando o Ultralytics YOLOv8.

Neste contexto, é fundamental proteger o modelo YOLOv8 contra ataques e adulterações. Isto pode ser feito encriptando os ficheiros do modelo para que os utilizadores não autorizados não possam aceder ou alterá-los facilmente. É possível implementar o modelo em servidores seguros e configurar controlos de acesso para evitar adulterações. As verificações e auditorias de segurança regulares podem ajudar a detetar quaisquer vulnerabilidades e a manter o sistema seguro. Podem ser utilizados métodos semelhantes para proteger dados sensíveis, tais como as transmissões de vídeo dos passageiros.

Para reforçar ainda mais a segurança, ferramentas como Snyk, GitHub CodeQL e Dependabot podem ser integradas no processo de desenvolvimento. O Snyk ajuda a identificar e corrigir vulnerabilidades no código e nas dependências, o GitHub CodeQL analisa o código em busca de problemas de segurança e o Dependabot mantém as dependências actualizadas com os patches de segurança mais recentes. Na Ultralytics, estas ferramentas foram implementadas para detetar e prevenir vulnerabilidades de segurança.

Armadilhas comuns e como evitá-las

Apesar das boas intenções e de seguir as melhores práticas, podem ocorrer lapsos, deixando lacunas nas suas soluções de IA, especialmente no que diz respeito à ética e à segurança. Estar ciente destes problemas comuns pode ajudá-lo a resolvê-los de forma proactiva e a criar modelos YOLOv8 mais robustos. Aqui estão algumas armadilhas a que deve estar atento e dicas sobre como as evitar:

  • Negligenciar o cumprimento dos regulamentos: Não aderir aos regulamentos de IA pode levar a dilemas legais e prejudicar sua reputação. Mantenha-se atualizado sobre as leis relevantes, como o GDPR para proteção de dados, e certifique-se de que seus modelos estejam em conformidade, realizando verificações regulares de conformidade.
  • Testes inadequados em condições reais: Os modelos que não são testados em condições reais podem falhar quando são implementados. Simule cenários de casos extremos do mundo real durante os testes para identificar potenciais problemas atempadamente e ajustar os seus modelos para serem mais acessíveis a todos.
  • Falta de medidas de responsabilização: Se não estiver claro quem é responsável por diferentes partes de um sistema de IA, pode ser difícil lidar com erros, vieses ou uso indevido, o que pode levar a problemas mais significativos. Estabeleça uma responsabilidade clara pelos resultados da IA, definindo funções e responsabilidades dentro da sua equipa e estabelecendo processos para resolver problemas quando estes surgirem.
  • Não ter em conta o impacto ambiental: Os modelos de IA podem ter graves impactos ambientais. Por exemplo, implantações em grande escala podem exigir o suporte de centros de dados que consomem grandes quantidades de energia para lidar com cálculos intensivos. Pode otimizar os seus modelos para serem eficientes em termos energéticos e considerar a pegada ambiental dos seus processos de formação e implementação.
  • Desconsideração da sensibilidade cultural: Os modelos treinados sem ter em consideração as diferenças culturais podem ser inadequados ou ofensivos em determinados contextos. Certifique-se de que a sua solução de IA respeita as normas e valores culturais, incluindo diversas perspectivas culturais nos seus dados e no processo de desenvolvimento.
__wf_reserved_inherit
Fig.4 Princípios e requisitos éticos.

Criar soluções éticas e seguras com o YOLOv8 

Construir soluções de IA com o YOLOv8 oferece muitas possibilidades interessantes, mas é vital ter em mente a ética e a segurança. Concentrando-nos na justiça, privacidade, transparência e seguindo as diretrizes corretas, podemos criar modelos com bom desempenho e que respeitem os direitos das pessoas. É fácil ignorar aspectos como a parcialidade dos dados, a proteção da privacidade ou a garantia de que todos podem utilizar o sistema, mas dedicar algum tempo a estas questões pode ser decisivo. Enquanto continuamos a alargar os limites do que a IA pode fazer com ferramentas como o YOLOv8, lembremo-nos do lado humano da tecnologia. Se formos ponderados e proactivos, podemos criar inovações de IA que sejam responsáveis e avançadas!

Não se esqueça de se juntar à nossa comunidade para obter as últimas actualizações sobre IA! Além disso, pode saber mais sobre a IA visitando o nosso repositório GitHub e explorando as nossas soluções em vários domínios, como o fabrico e a condução autónoma.

Vamos construir juntos o futuro
da IA!

Comece a sua viagem com o futuro da aprendizagem automática

Comece gratuitamente
Ligação copiada para a área de transferência