A nova ordem executiva de Biden sobre IA: Regulamentação descontrolada ou proteção necessária?

A nova ordem executiva de Biden sobre IA: Regulamentação descontrolada ou proteção necessária?

A ordem executiva de Biden sobre IA está gerando um intenso debate na indústria de tecnologia.

Com a crescente influência da inteligência artificial em nossas vidas, é crucial discutir as medidas necessárias para garantir a segurança e proteção dos indivíduos.

Neste artigo, vamos explorar os impactos que a nova ordem executiva já está causando no setor, bem como analisar se essa regulamentação é descontrolada e prescritiva.

Além disso, vamos discutir os possíveis problemas e consequências dessa abordagem governamental na regulamentação da inteligência artificial. É fundamental entender os desafios e as oportunidades que essa ordem executiva apresenta, e por isso convidamos você a continuar lendo para obter uma visão abrangente sobre o assunto.

Descubra se a nova ordem executiva de Biden sobre IA é uma medida de proteção necessária ou se representa uma regulamentação descontrolada.

A recentemente assinada ordem executiva de Biden sobre segurança da inteligência artificial já está gerando impacto significativo na indústria de tecnologia.

Embora a intenção por trás dessa nova regulamentação seja garantir o desenvolvimento responsável e o uso seguro da IA, os resultados provavelmente serão bastante diferentes.

A ordem sofre de uma abordagem prescritiva, avançando com regulamentações antes mesmo de avaliar a natureza e a importância dos problemas que busca resolver.

Isso pode representar uma das políticas governamentais mais perigosas dos últimos anos.

A ordem executiva possui mais de 100 páginas e é direcionada para “todo o governo”, buscando regular essa tecnologia abrangente que tem o potencial de revolucionar diversos setores da economia e nossas vidas, desde educação até saúde e finanças.

Ela direciona e faz solicitações a várias agências federais, incluindo o Departamento de Energia, Departamento de Segurança Interna, Bureau de Proteção Financeira do Consumidor e Agência Federal de Financiamento Habitacional.

Essas agências têm autoridade para emitir regulamentações que têm força de lei.

A nova ordem executiva de Biden sobre segurança da inteligência artificial é descontrolada e prescritiva

Uma das principais exigências dessa ordem é que empresas que desenvolvem modelos avançados de IA informem ao governo informações sobre treinamento do modelo, pesos dos parâmetros e testes de segurança.

Embora a transparência nos resultados dos testes pareça uma prática válida, pode desencorajar as empresas de tecnologia a realizarem mais testes, pois os resultados precisam ser compartilhados com o governo federal.

Além disso, a essência da pesquisa em IA é a experimentação iterativa, e essa exigência pode sobrecarregar as empresas com burocracia e relatórios, em vez de permitir que elas ajustem seus modelos para melhorar a segurança.

Dessa forma, é questionável se todos os relatórios irão, de fato, melhorar a segurança de forma abrangente.

Outro aspecto problemático da ordem é que ela parte do pressuposto simplista de que fatores como poder de computação e número de parâmetros do modelo são as métricas corretas para avaliar o risco.

No entanto, não são fornecidas evidências para justificar essas suposições.

Além disso, a ordem prevê medidas excessivamente simplistas, como exigir que agências governamentais identifiquem conteúdo gerado por IA.

Essa estratégia pode ser comparada a usar um curativo em uma fratura óssea – sofisticados atacantes maliciosos poderão remover marcas d’água ou produzir conteúdo deepfake de alta qualidade sem deixar vestígios.

Clique em SAIBA MAIS abaixo para ler o artigo completo

Este é um resumo do artigo

Os possíveis problemas e consequências da ordem executiva de Biden sobre segurança da inteligência artificial

A ordem também estabelece requisitos de compartilhamento de dados que podem ser considerados ilegais.

Há argumentos recentes defendendo que a Lei de Produção de Defesa (DPA) seja utilizada para promover diferentes causas políticas.

No entanto, essa lei foi criada em 1950 com foco em facilitar a influência do governo na produção privada durante tempos de guerra.

Utilizar essa lei para direcionar empresas de tecnologia a fornecer dados proprietários de IA é um esticamento questionável da intenção original.

Uma consequência não intencional que já pode ser vista é que a ordem pode inadvertidamente fornecer uma vantagem estratégica para atores mal-intencionados.

A imposição de obstáculos regulatórios rígidos e exigências de relatórios pode desacelerar as empresas respeitáveis que estão investidas no desenvolvimento responsável da IA e têm uma imagem pública a manter.

Enquanto isso, entidades mal-intencionadas que não se preocupam com regulamentações ou percepção pública podem aproveitar essa desaceleração para acelerar atividades não autorizadas.

Isso traz um desequilíbrio no campo de jogo, onde entidades éticas são sobrecarregadas enquanto atores mal-intencionados encontram oportunidades para avançar.

A abordagem errônea do governo na regulamentação da inteligência artificial

A abordagem do governo nessa regulamentação da IA está equivocada ao tentar regular primeiro e realizar perguntas depois.

Um exemplo disso é o Programa de Combustíveis Renováveis criado pelo Congresso em 2005, que aumentou o teor de etanol na gasolina como forma de combater o aquecimento global.

No entanto, essa política gerou aumento nos preços globais dos alimentos, prejudicando assim outros aspectos socioeconômicos sem proporcionar os benefícios esperados em relação à redução de emissões de dióxido de carbono.

Esse caso evidencia a importância de entender o problema que uma política pretende resolver antes de avançar com regulamentações rígidas.

A nova ordem executiva também exigirá a criação de Conselhos de Governança de IA e cargos de Chefe de IA em agências federais, estabelecendo uma possível base para uma nova agência centralizada de IA.

Embora essa medida possa ser considerada um passo em direção a uma governança mais eficaz, a criação de um regulador abrangente pode resultar em menos agilidade e dinamismo do que várias agências reguladoras já existentes, que são lentas e ineficientes em suas operações.

Além disso, um novo regulador inevitavelmente gerará conflitos burocráticos entre as agências existentes, o que pode prejudicar ainda mais as iniciativas relacionadas à IA.

No quesito concorrência, a administração dispersou sua abordagem, o que pode colocar empresas menores de IA e tecnologias de código aberto em desvantagem competitiva.

Essas empresas possuem menos recursos para dedicar à conformidade regulatória e menos influência nos corredores do poder, favorecendo assim as grandes empresas de tecnologia.

Enquanto isso, países como China e Coreia do Norte continuarão seus programas de IA sem sofrer as mesmas restrições, colocando os EUA em desvantagem competitiva.

Isso remete ao fato de que a regulação da IA exige não apenas cautela, mas também uma compreensão ampla e equilibrada do contexto global.

Embora seja válido afirmar que a governança da IA exigirá uma revolução na estrutura administrativa atual, a abordagem de “regulamentar tudo, exceto a pia da cozinha” da ordem de Biden não é a estratégia correta.

Regular a IA requer velocidade, agilidade e flexibilidade para acompanhar a dinâmica desse cenário em constante mudança.

As instituições reguladoras existentes, baseadas em leis e processos ultrapassados, não estão preparadas para governar uma tecnologia do século XXI.

Dessa forma, é essencial repensar abordagens regulatórias e encontrar um equilíbrio entre segurança e inovação, garantindo o desenvolvimento responsável da IA no futuro.

Gostou do nosso artigo?

Gostou do nosso artigo?

Clique em SAIBA MAIS abaixo

Veja outros artigos no nosso site