Inteligência artificial (IA) é uma tecnologia que capacita computadores e máquinas a aprender, entender, criar, resolver problemas, prever resultados e tomar decisões.
Índice
Para que sua política eduque efetivamente sobre as melhores práticas e mitigue riscos, ela precisa se concentrar em várias áreas-chave. Estas incluem as seguintes:
Esta seção introdutória tem como objetivo esclarecer a intenção da sua política de empresa em IA. Ela também deve especificar quem precisa aderir aos seus requisitos, como indivíduos ou agências terceirizadas, além dos funcionários regulares.
Aqui, devem ser listados apenas as aplicações relacionadas à IA que são aprovadas para uso. Os procedimentos de acesso corretos para cada um também podem ser especificados aqui para ajudar a garantir a conformidade, embora detalhes sensíveis, como credenciais de login, devam ser omitidos. Essas informações podem ser fornecidas pela gestão de forma segura, a pedido do indivíduo que busca acesso e/ou durante o processo de integração.
Resumir o devido processo para o uso de IA, como em uma lista com marcadores, ajuda os usuários a entender e aderir às etapas apropriadas. Esta é uma oportunidade para implementar diretrizes operacionais e comunicar como permissões, comunicações internas, a garantia de qualidade do conteúdo gerado por IA e o acesso geral a dados e ferramentas concedido aos sistemas de IA devem ser tratados. Além disso, pode ser útil especificar o que fazer se quando um risco ou vulnerabilidade relacionado a qualquer um dos itens acima for suspeitado.
Esta seção deve esclarecer quando, onde e como os aplicativos de IA aprovados não devem ser usados. Se houver exceções razoáveis específicas, elas também devem ser incluídas aqui. Assim como no restante da política, a linguagem escolhida deve ser clara, concisa e fácil de seguir, minimizando o risco de má interpretação ou confusão.
Esta seção lembra os usuários de revisar os termos e condições das ferramentas de IA às quais têm permissão para acessar, ajudando a proteger contra o uso indevido e/ou problemas relacionados à responsabilidade. Ela também deve enfatizar a importância de manter a privacidade dos dados e evitar plágio, respeitando os direitos de propriedade intelectual e seus titulares, além de não conceder aos ferramentas em questão acesso a informações confidenciais.
Aqui, especifique os órgãos reguladores e as normas com os quais sua organização—e, por extensão, sua equipe—precisam manter conformidade ao usar IA. Esses devem incluir atos governamentais estabelecidos e quaisquer requisitos para sua equipe jurídica, de segurança e/ou de TI.
Dividida em múltiplas prioridades estratégicas, mas unificada em sua missão, a Estratégia Pan-Canadense de Inteligência Artificial busca "trazer benefícios sociais, econômicos e ambientais positivos para as pessoas e o planeta."
Esta é uma coleção de documentação de pesquisa, política e engenharia focada no avanço da IA de maneira ética e responsável. A Microsoft também publicou seu abrangente Relatório de Transparência de IA Responsável em maio de 2024, que abrange tudo, desde mapear, medir e gerenciar riscos de IA até construir modelos de IA de fronteira seguros e responsáveis.
O NIST trabalhou em estreita colaboração com importantes partes interessadas do setor privado e público e agências federais para desenvolver novos padrões de IA. Eles estão "fortemente engajados" com os esforços de política de IA dos EUA e internacionais, como o Conselho de Comércio e Tecnologia UE-EUA, a OCDE, o Conselho da Europa, o Diálogo Quadrilateral de Segurança, e várias outras iniciativas. O NIST também está colaborando com a Administração de Comércio Internacional do Departamento de Comércio dos EUA e o Departamento de Estado dos EUA como parte desses esforços.
Em julho de 2024, o NIST também publicou quatro documentos que têm como objetivo "ajudar a melhorar a segurança, a proteção e a confiabilidade dos sistemas de IA." Isso inclui:
A ética em IA envolve princípios e diretrizes que regulam o desenvolvimento, a implementação e o uso responsáveis dos sistemas de IA. Ele aborda questões como segurança e proteção, justiça, responsabilização, transparência, privacidade, controle humano, responsabilidade social e melhoria contínua.
Um relatório publicado por pesquisadores da OpenAI (arXiv:2307.03718: Frontier AI Regulation: Managing Emerging Risks to Public Safety) destaca vários desafios associados à regulamentação de modelos de IA de fronteira para ajudar a proteger os usuários. O relatório afirma que "os modelos de IA de fronteira representam um desafio regulatório distinto: recursos perigosos podem surgir inesperadamente; é difícil prevenir de forma robusta o uso indevido de um modelo implantado; e é difícil impedir a proliferação ampla dos recursos de um modelo."
Além disso, o resumo do relatório destaca que existem “pelo menos três blocos de construção” necessários para a regulamentação:
As organizações podem desenvolver políticas de IA eficazes por meio de duas abordagens complementares: utilizando suas equipes de segurança internas ou fazendo parceria com empresas de consultoria especializadas, e conduzindo avaliações de Red Teaming . Enquanto as equipes internas ou consultores se concentram em definir e implementar políticas fundamentais, o Red Teaming fornece insights críticos ao identificar vulnerabilidades e riscos potenciais, garantindo que as políticas sejam robustas e abrangentes.
As empresas de consultoria trazem expertise em governança de IA, compliance regulatório e melhores práticas, ajudando as organizações a elaborar políticas que abordem áreas-chave como privacidade de dados, proteção de propriedade intelectual e mitigação de riscos, alinhando-se aos padrões do setor. O Red Teaming complementa isso ao revelar vulnerabilidades do sistema, simulando ameaças do mundo real como ataques adversariais, envenenamento de dados ou roubo de modelos, e fornecendo insights acionáveis para refinar e fortalecer os frameworks de políticas. Essas avaliações também testam a eficácia das políticas existentes, revelam possíveis cenários de uso indevido, como implantações de IA ocultas ou acesso não autorizado, e identificam vieses ou preocupações éticas nos sistemas de IA. Ao integrar os insights tanto da consultoria estratégica quanto das avaliações de vulnerabilidades, as organizações podem estabelecer políticas de IA que sejam seguras, justas e adaptáveis, atendendo às suas necessidades operacionais e estratégicas únicas.
Artigos Relacionados
As 10 Principais Ameaças & Mitigações para LLMs e Aplicativos GenAI em 2025
Gerenciando riscos emergentes à segurança pública
Até Onde os Padrões Internacionais Podem Nos Levar?
Como escrever uma política de Cibersegurança para IA generativa
Ataques maliciosos aprimorados por IA entre os principais riscos
Ameaça crescente de identidades deepfake