A inteligência artificial (IA) oferece inúmeras vantagens, mas também pode apresentar riscos, como impactos econômicos decorrentes de vieses discriminatórios e alucinações. Mitigar esses riscos é fundamental para a governança eficaz da IA.
Uma ferramenta essencial para essa mitigação são os Frameworks de Governança de IA, que fornecem metodologias para implementação nas empresas, estabelecendo responsabilidades e instrumentos para minimizar os riscos, tais como:
- Treinamento de pessoal
- Determinação do grau de risco de um sistema de IA
- Avaliação de impacto aos direitos fundamentais
- Tratamento de dados de forma não discriminatória e transparente
Exemplos de Frameworks de Governança:
- Artificial Intelligence Risk Management Framework (NIST – EUA)
- Guidance on the AI Auditing Framework (ICO – Reino Unido)
- Assessment List for Trustworthy Artificial Intelligence – ALTAI (UE)
- Framework for the Classification of AI Systems (OCDE)
Esses documentos estabelecem diretrizes gerais que devem ser adaptadas conforme a utilização específica da IA em cada setor econômico. Em alguns casos, pode ser necessário combinar partes de diferentes frameworks para criar uma governança mais adequada à realidade do negócio.
Desafios da IA
- Ética: implicações morais das decisões tomadas por IA.
- Segurança: garantir que os sistemas de IA sejam seguros contra falhas e ataques.
- Privacidade: proteger dados sensíveis utilizados por sistemas de IA.
- Transparência: assegurar que as decisões tomadas por IA sejam compreensíveis e explicáveis.
A regulamentação da IA é essencial para garantir que seu desenvolvimento e uso sejam seguros e éticos, incluindo a criação de normas e diretrizes para a implementação de sistemas de IA em diferentes setores.
O que é “alucinação” em IA?
Em termos de IA, “alucinação” refere-se à geração de respostas ou informações que são incorretas, irrelevantes ou completamente inventadas. Isso ocorre porque os modelos de linguagem são probabilísticos e não têm compreensão do sentido ou do contexto das palavras que utilizam. Portanto, uma resposta gerada pode ser estatisticamente provável, mas não necessariamente verdadeira ou lógica.
Modelos mais recentes têm reduzido esse problema, mas ele ainda persiste. Estratégias como a integração de mecanismos de verificação de fatos têm sido adotadas pelas empresas que desenvolvem essa tecnologia.
A importância da supervisão humana
Para reduzir o impacto das alucinações na utilização de IA, a supervisão humana é crucial. O treinamento de pessoal para atuar como “o humano no loop” é fundamental. Esta supervisão humana dos outputs da IA por pessoas treinadas aumenta significativamente a chance de identificar e corrigir alucinações, evitando que informações falsas sejam usadas pela organização. Além disso, ajuda a manter as habilidades dos funcionários e concretiza o compromisso com o uso ético da tecnologia.
É essencial definir claramente o escopo e os objetivos, além de avaliar os riscos que a iniciativa de IA representa. Essas áreas de risco devem ser compiladas em um documento, como uma Matriz de Risco e Controle (RCM), que lista cada risco e os controles correspondentes.
Exemplos de riscos relacionados à estratégia de IA incluem:
- Falta de alinhamento entre os planos de TI e as necessidades do negócio
- Planos de TI que não atendem às expectativas ou requisitos da organização
- Tradução inadequada dos planos táticos de TI a partir dos planos estratégicos de TI
- Estruturas de governança ineficazes que não garantem responsabilidade pelos processos de TI relacionados à IA
Do ponto de vista da conformidade, é necessário entender os princípios fundamentais de privacidade e proteção de dados e o impacto das aplicações e iniciativas de IA nos direitos e liberdades dos titulares dos dados.
O Information Commissioner’s Office (ICO) do Reino Unido elaborou diretrizes que servem como base para auditores que auditam aplicativos de IA, considerando os princípios de proteção de dados do Regulamento Geral de Proteção de Dados (GDPR):
- Responsabilidade e governança em IA, incluindo Avaliações de Impacto de Proteção de Dados (DPIAs): preencher uma DPIA é legalmente exigido se as organizações usam sistemas de IA que processam dados pessoais. As DPIAs permitem considerar como e por que as organizações estão usando sistemas de IA para processar dados pessoais e quais podem ser os riscos potenciais. Devemos entender as compensações entre privacidade e outros direitos e interesses concorrentes e como gerenciá-las.
- Processamento justo, legal e transparente: como os sistemas de IA processam dados pessoais em vários estágios para diversos fins, existe o risco de que, se as organizações não distinguirem adequadamente cada operação de processamento e identificarem uma base legal apropriada para ela, isso pode levar ao descumprimento do princípio de legalidade da proteção de dados. Devemos identificar esses propósitos e assegurar que haja uma base legal apropriada.
- Minimização e segurança: precisamos garantir que dados pessoais sejam processados de maneira segura, protegendo-os contra processamento não autorizado ou ilegal, perda acidental, destruição ou dano. Devemos também verificar se todos os movimentos e armazenamentos de dados pessoais são registrados e documentados, ajudando a monitorar a eficácia dos controles de segurança.
- Exercício de direitos individuais em sistemas de IA, incluindo direitos relacionados à tomada de decisão automatizada: sob as leis e regulamentos de proteção de dados, como o GDPR, os indivíduos têm direitos sobre seus dados pessoais. No contexto da IA, esses direitos se aplicam em vários pontos do ciclo de vida do desenvolvimento e implantação de um sistema de IA. Precisamos garantir que direitos individuais de informação, acesso, retificação, apagamento, restrição de processamento, portabilidade de dados e objeção sejam considerados ao desenvolver e implantar IA.
A IA promete transformar a maneira como as empresas operam e afetará todos os aspectos da sociedade. Ela também terá um impacto significativo nas diversas profissões, dada a necessidade de fornecer garantia de IA segura. Devemos questionar se as organizações e suas equipes estão preparadas para lidar com as questões complexas relacionadas à IA. Com orientação limitada e poucas estruturas disponíveis para auditar a IA, devemos focar nos controles e estruturas de governança existentes para determinar se estão operando de forma eficaz.
A tecnologia pode ser uma valiosa aliada para todos nós, desde que seja utilizada de maneira equilibrada e segura, garantindo que todos nós tenhamos acesso seguro e informações confiáveis.
Compartilhe com a gente as suas experiências, ou se precisar esclarecer alguma dúvida entre em contato, será uma satisfação para nós poder te ajudar de alguma forma. Fique sempre ligado no Folha Digital.
Forte abraço!