Relatório do governo sobre AI não recomenda controlá-lo

Nove meses depois de o governo ter encomendado uma revisão independente da inteligência artificial, os autores revelaram seus financiamentos. As principais recomendações, a AI e seus aplicativos não devem estar sujeitos a regulamentação direta, mas um conselho de AI deve supervisionar o setor.

O relatório, encomendado em fevereiro, foi descrito como uma “grande revisão” do desenvolvimento da IA ​​no Reino Unido. Depois de falar com mais de 100 especialistas, os autores revelaram suas descobertas. Jérôme Pesenti, da BenevolentAI, e Wendy Hall, um cientista da computação da Universidade de Southampton, dizem que deve haver maior treinamento e acesso a dados se o Reino Unido for competir com outros países ao redor do mundo em IA.

O conselho de IA proposto, argumentam os autores do relatório, deve “operar como um grupo de supervisão estratégica” e permitir discussões sobre “justiça, transparência, prestação de contas e diversidade”. Ao não recomendar a regulamentação das tecnologias de IA, o relatório vai contra os recentes apelos de nomes como Elon Musk para introduzir mais verificações e medidas.

Em janeiro, um relatório do Alan Turing Institute solicitou que um watchdog da AI fosse configurado para auditar e examinar os algoritmos. “Eles poderiam entrar e ver se o sistema é realmente transparente e justo”, disseram os autores do Instituto Turing.

O relatório do governo, intitulado Crescendo a indústria de inteligência artificial no Reino Unido, diz que a governança da IA ​​não deve ser coberta pelo conselho de IA proposto. No entanto, afirma que as diretrizes propostas pela Royal Society podem ser usadas para aplicações de inteligência artificial no Reino Unido.

Em outros lugares, dentro das 18 recomendações da nova revisão, os autores argumentam que deveria haver uma estrutura criada para explicar como as decisões são tomadas pelos sistemas de inteligência artificial. Isso deve ser criado pelo órgão regulador de proteção de dados, o Information Commissioner’s Office (ICO) e deve procurar delinear como funcionam os processos e os serviços de IA. Acadêmicos que trabalham com aprendizado de máquina expressaram preocupações de que os sistemas são “caixas pretas” que chegam a decisões que não podem ser explicadas. O Regulamento Geral de Proteção de Dados da UE (GDPR) também impõe mais obrigações de transparência às empresas.

O relatório também diz que as confianças de dados devem ser criadas. Estes criariam um corpo para aconselhar sobre como os dados usados ​​para treinar sistemas de inteligência artificial são manipulados. Poderia, em teoria, interromper incidentes complexos, como o acordo de compartilhamento ilegal de dados do NHS e do DeepMind. “Para usar dados para IA em uma área específica, os detentores de dados e usuários atualmente se reúnem, caso a caso, para acordar termos que atendam às suas necessidades e interesses mútuos”, diz o relatório. Confianças de dados não substituiriam o ICO.

Pesenti e Hall também argumentam que deveria haver maiores recursos para a educação em IA. Suas recomendações dizem que 300 vagas de doutorado devem ser criadas em universidades. O Instituto Alan Turing deve se tornar o instituto nacional de inteligência artificial e deve haver cursos online disponíveis para as pessoas.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *