O que são Políticas de Empresa em IA?

tball

Inteligência artificial (IA) é uma tecnologia que capacita computadores e máquinas a aprender, entender, criar, resolver problemas, prever resultados e tomar decisões.

Modelo de Política de Empresa em IA

Ilustração de modelo de políticas de IA da empresa

Para que sua política eduque efetivamente sobre as melhores práticas e mitigue riscos, ela precisa se concentrar em várias áreas-chave. Estas incluem as seguintes:

Objetivo e escopo

Esta seção introdutória tem como objetivo esclarecer a intenção da sua política de empresa em IA. Ela também deve especificar quem precisa aderir aos seus requisitos, como indivíduos ou agências terceirizadas, além dos funcionários regulares.

Aplicativos aprovados

Aqui, devem ser listados apenas as aplicações relacionadas à IA que são aprovadas para uso. Os procedimentos de acesso corretos para cada um também podem ser especificados aqui para ajudar a garantir a conformidade, embora detalhes sensíveis, como credenciais de login, devam ser omitidos. Essas informações podem ser fornecidas pela gestão de forma segura, a pedido do indivíduo que busca acesso e/ou durante o processo de integração.

Diretrizes de processo e/ou uso.

Resumir o devido processo para o  uso de IA, como em uma lista com marcadores, ajuda os usuários a entender e aderir às etapas apropriadas. Esta é uma oportunidade para implementar diretrizes operacionais e comunicar como permissões, comunicações internas, a garantia de qualidade do conteúdo gerado por IA e o acesso geral a dados e ferramentas concedido aos sistemas de IA devem ser tratados. Além disso, pode ser útil especificar o que fazer se quando um risco ou vulnerabilidade relacionado a qualquer um dos itens acima for suspeitado.

Usos proibidos

Esta seção deve esclarecer quando, onde e como os aplicativos de IA aprovados não devem ser usados. Se houver exceções razoáveis específicas, elas também devem ser incluídas aqui. Assim como no restante da política, a linguagem escolhida deve ser clara, concisa e fácil de seguir, minimizando o risco de má interpretação ou confusão.

Privacidade de dados, direitos de propriedade intelectual e termos e condições de uso.

Esta seção lembra os usuários de revisar os termos e condições das ferramentas de IA às quais têm permissão para acessar, ajudando a proteger contra o uso indevido e/ou problemas relacionados à responsabilidade. Ela também deve enfatizar a importância de manter a privacidade dos dados e evitar plágio, respeitando os direitos de propriedade intelectual e seus titulares, além de não conceder aos ferramentas em questão acesso a informações confidenciais.

Legal e conformidade.

Aqui, especifique os órgãos reguladores e as normas com os quais sua organização—e, por extensão, sua equipe—precisam manter conformidade ao usar IA. Esses devem incluir atos governamentais estabelecidos e quaisquer requisitos para sua equipe jurídica, de segurança e/ou de TI.

Exemplos de políticas de empresa em IA.

A Estratégia de IA Pan-Canadense.

Dividida em múltiplas prioridades estratégicas, mas unificada em sua missão, a Estratégia  Pan-Canadense de Inteligência Artificial  busca "trazer benefícios sociais, econômicos e ambientais positivos para as pessoas e o planeta."

Práticas de IA responsável da Microsoft.

Esta é uma coleção de documentação de pesquisa, política e engenharia focada no  avanço da IA de maneira ética e responsável. A Microsoft também publicou seu abrangente  Relatório de Transparência de IA Responsável  em maio de 2024, que abrange tudo, desde mapear, medir e gerenciar  riscos de IA  até construir modelos de IA de fronteira seguros e responsáveis.

Contribuições do Instituto Nacional de Padrões e Tecnologia (NIST) para normas e políticas de IA.

O NIST trabalhou em estreita colaboração com importantes partes interessadas do setor privado e público e agências federais para desenvolver novos padrões de IA. Eles estão "fortemente engajados" com os esforços de  política de IA  dos EUA e internacionais, como o Conselho de Comércio e Tecnologia UE-EUA, a OCDE, o Conselho da Europa, o Diálogo Quadrilateral de Segurança, e várias outras iniciativas. O NIST também está colaborando com a Administração de Comércio Internacional do Departamento de Comércio dos EUA e o Departamento de Estado dos EUA como parte desses esforços.

Em julho de 2024, o NIST também publicou quatro documentos que têm como objetivo "ajudar a melhorar a segurança, a proteção e a confiabilidade dos sistemas de IA." Isso inclui:

Regulação e conformidade em IA

Definindo a ética em IA

A ética em IA envolve princípios e diretrizes que regulam o desenvolvimento, a implementação e o uso responsáveis dos sistemas de IA. Ele aborda questões como segurança e proteção, justiça, responsabilização, transparência, privacidade, controle humano, responsabilidade social e melhoria contínua.

Illustration of AI regulation and compliance

Recomendações de especialistas sobre a regulamentação da IA de fronteira.

Um relatório publicado por pesquisadores da OpenAI (arXiv:2307.03718: Frontier AI Regulation: Managing Emerging Risks to Public Safetydestaca vários desafios associados à regulamentação de modelos de IA de fronteira para ajudar a proteger os usuários. O relatório afirma que "os modelos de IA de fronteira representam um desafio regulatório distinto: recursos perigosos podem surgir inesperadamente; é difícil prevenir de forma robusta o uso indevido de um modelo implantado; e é difícil impedir a proliferação ampla dos recursos de um modelo."

Além disso, o resumo do relatório destaca que existem “pelo menos três blocos de construção” necessários para a regulamentação:

  1. “Processos de definição de padrões para identificar requisitos apropriados para desenvolvedores de IA de ponta”

  2. “Requisitos de registro e relatórios para fornecer aos reguladores visibilidade nos processos de desenvolvimento de IA de fronteira”

  3. “Mecanismos para garantir a conformidade com os padrões de segurança para o desenvolvimento e implementação de modelos de IA de fronteira”

Quem pode nos ajudar a gerenciar as políticas da nossa empresa de IA?

As organizações podem desenvolver políticas de IA eficazes por meio de duas abordagens complementares: utilizando suas equipes de segurança internas ou fazendo parceria com empresas de consultoria especializadas, e conduzindo avaliações de  Red Teaming . Enquanto as equipes internas ou consultores se concentram em definir e implementar políticas fundamentais, o Red Teaming fornece insights críticos ao identificar vulnerabilidades e riscos potenciais, garantindo que as políticas sejam robustas e abrangentes.

As empresas de consultoria trazem expertise em governança de IA, compliance regulatório e melhores práticas, ajudando as organizações a elaborar políticas que abordem áreas-chave como privacidade de dados, proteção de propriedade intelectual e mitigação de riscos, alinhando-se aos padrões do setor. O Red Teaming complementa isso ao revelar vulnerabilidades do sistema, simulando ameaças do mundo real como ataques adversariais, envenenamento de dados ou roubo de modelos, e fornecendo insights acionáveis para refinar e fortalecer os frameworks de políticas. Essas avaliações também testam a eficácia das políticas existentes, revelam possíveis cenários de uso indevido, como implantações de IA ocultas ou acesso não autorizado, e identificam vieses ou preocupações éticas nos sistemas de IA. Ao integrar os insights tanto da consultoria estratégica quanto das avaliações de vulnerabilidades, as organizações podem estabelecer políticas de IA que sejam seguras, justas e adaptáveis, atendendo às suas necessidades operacionais e estratégicas únicas.