Políticas corporativas de inteligência artificial (IA) são o conjunto regulador de regras operacionais relacionadas ao uso aprovado da tecnologia de IA. Essas políticas ajudam a manter a conformidade, garantir a privacidade dos dados e preservar a segurança digital.
Índice
Para que sua política eduque efetivamente sobre as melhores práticas e mitigue riscos, ela precisa se concentrar em várias áreas-chave. Estas incluem as seguintes:
Esta seção introdutória tem como objetivo esclarecer a intenção da sua política de empresa em IA. Ela também deve especificar quem precisa aderir aos seus requisitos, como indivíduos ou agências terceirizadas, além dos funcionários regulares.
Aqui, devem ser listados apenas as aplicações relacionadas à IA que são aprovadas para uso. Os procedimentos de acesso corretos para cada um também podem ser especificados aqui para ajudar a garantir a conformidade, embora detalhes sensíveis, como credenciais de login, devam ser omitidos. Essas informações podem ser fornecidas pela gestão de forma segura, a pedido do indivíduo que busca acesso e/ou durante o processo de integração.
Resumir o devido processo para o uso de IA, como em uma lista com marcadores, ajuda os usuários a entender as etapas apropriadas e a segui-las. Esta é uma oportunidade para implementar diretrizes operacionais e comunicar como permissões, comunicações internas, a garantia de qualidade do conteúdo gerado por IA e o acesso geral a dados e ferramentas concedido aos sistemas de IA devem ser tratados. Além disso, pode ser útil especificar o que fazer se quando um risco ou vulnerabilidade relacionado a qualquer um dos itens acima for suspeitado.
Esta seção deve esclarecer quando, onde e como os aplicativos de IA aprovados não devem ser usados. Se houver exceções razoáveis específicas, elas também devem ser incluídas aqui. Assim como no restante da política, a linguagem escolhida deve ser clara, concisa e fácil de seguir, minimizando o risco de má interpretação ou confusão.
Esta seção lembra os usuários de revisar os termos e condições das ferramentas de IA às quais têm permissão para acessar, ajudando a proteger contra o uso indevido e/ou problemas relacionados à responsabilidade. Ela também deve enfatizar a importância de manter a privacidade dos dados e evitar plágio, respeitando os direitos de propriedade intelectual e seus titulares, além de não conceder aos ferramentas em questão acesso a informações confidenciais.
Aqui, especifique os órgãos reguladores e as normas com os quais sua organização—e, por extensão, sua equipe—precisam manter conformidade ao usar IA. Esses devem incluir atos governamentais estabelecidos e quaisquer requisitos para sua equipe jurídica, de segurança e/ou de TI.
Dividida em várias prioridades estratégicas, mas unificada em sua missão, a Estratégia de Inteligência Artificial Pan-Canadense busca "trazer benefícios sociais, econômicos e ambientais positivos para as pessoas e o planeta."
Esta é uma coleção de pesquisas, políticas e documentação de engenharia voltadas para o avanço da IA de maneira ética e responsável. A Microsoft também publicou seu abrangente Relatório de Transparência de IA Responsável em maio de 2024, que aborda tudo, desde o mapeamento, a medição e o gerenciamento de riscos de IA até a construção de modelos de IA de fronteira seguros e responsáveis.
O NIST trabalhou em estreita colaboração com importantes partes interessadas do setor privado e público e agências federais para desenvolver novos padrões de IA. Eles estão "fortemente engajados em esforços de política de IA nos EUA e internacionalmente, como o Conselho de Comércio e Tecnologia EUA-UE, a OCDE, o Conselho da Europa, o Diálogo de Segurança Quadrilateral" e várias outras iniciativas. O NIST também está colaborando com a Administração de Comércio Internacional do Departamento de Comércio dos EUA e o Departamento de Estado dos EUA como parte desses esforços.
Em julho de 2024, o NIST também publicou quatro documentos que têm como objetivo "ajudar a melhorar a segurança, a proteção e a confiabilidade dos sistemas de IA." Isso inclui:
A ética em IA envolve princípios e diretrizes que regulam o desenvolvimento, a implementação e o uso responsáveis dos sistemas de IA. Ele aborda questões como segurança e proteção, justiça, responsabilização, transparência, privacidade, controle humano, responsabilidade social e melhoria contínua.
Um relatório publicado por pesquisadores da OpenAI (arXiv:2307.03718:Regulamentação de IA de fronteira: gerenciando riscos emergentes à segurança pública) destaca vários desafios associados à regulamentação de modelos de IA de fronteira para ajudar a proteger os usuários. O relatório afirma que "os modelos de IA de fronteira representam um desafio regulatório distinto: recursos perigosos podem surgir inesperadamente; é difícil prevenir de forma robusta o uso indevido de um modelo implantado; e é difícil impedir a proliferação ampla dos recursos de um modelo."
Além disso, o resumo do relatório destaca que existem “pelo menos três blocos de construção” necessários para a regulamentação:
As organizações podem desenvolver políticas eficazes de IA por meio de duas abordagens complementares: utilizando suas equipes internas de segurança ou fazendo parceria com empresas de consultoria especializadas, e realizando avaliações de Red Teaming. Enquanto as equipes internas ou consultores se concentram em definir e implementar políticas fundamentais, o Red Teaming fornece insights críticos ao identificar vulnerabilidades e riscos potenciais, garantindo que as políticas sejam robustas e abrangentes.
As empresas de consultoria trazem expertise em governança de IA, compliance regulatório e melhores práticas, ajudando as organizações a elaborar políticas que abordem áreas-chave como privacidade de dados, proteção de propriedade intelectual e mitigação de riscos, alinhando-se aos padrões do setor. O Red Teaming complementa isso ao revelar vulnerabilidades do sistema, simulando ameaças do mundo real como ataques adversariais, envenenamento de dados ou roubo de modelos, e fornecendo insights acionáveis para refinar e fortalecer os frameworks de políticas. Essas avaliações também testam a eficácia das políticas existentes, revelam possíveis cenários de uso indevido, como implantações de IA ocultas ou acesso não autorizado, e identificam vieses ou preocupações éticas nos sistemas de IA. Ao integrar os insights tanto da consultoria estratégica quanto das avaliações de vulnerabilidades, as organizações podem estabelecer políticas de IA que sejam seguras, justas e adaptáveis, atendendo às suas necessidades operacionais e estratégicas únicas.
Artigos Relacionados
As 10 Principais Ameaças & Mitigações para LLMs e Aplicativos GenAI em 2025
Gerenciando riscos emergentes à segurança pública
Até Onde os Padrões Internacionais Podem Nos Levar?
Como escrever uma política de Cibersegurança para IA generativa
Ataques maliciosos aprimorados por IA entre os principais riscos
Ameaça crescente de identidades deepfake