O setor público do Reino Unido já está usando IA mais do que você imagina
Professor de Direito Econômico e Co-Diretor do Centro de Direito Global e Inovação, Universidade de Bristol
Albert Sanchez-Graells recebeu financiamento da Academia Britânica. Ele é um dos bolsistas de meio de carreira de 2022 da Academia (MCFSS22\220033, £ 127.125,58). No entanto, suas pesquisas e opiniões não são atribuíveis à Academia Britânica.
A University of Bristol fornece financiamento como parceira fundadora do The Conversation UK.
Ver todos os parceiros
O rápido aumento de produtos de inteligência artificial (IA), como a ferramenta de geração de texto ChatGPT, preocupa políticos, líderes de tecnologia, artistas e pesquisadores. Enquanto isso, os proponentes argumentam que a IA poderia melhorar a vida em áreas como saúde, educação e energia sustentável.
O governo do Reino Unido deseja incorporar a IA em suas operações diárias e definir uma estratégia nacional para fazer exatamente isso em 2021. O objetivo, de acordo com a estratégia, é "liderar na frente e dar o exemplo no implantação segura e ética da IA".
A IA não é isenta de riscos, principalmente quando se trata de direitos individuais e discriminação. Esses são riscos dos quais o governo está ciente, mas um white paper de política recente mostra que o governo está relutante em aumentar a regulamentação da IA. É difícil imaginar como uma "implantação segura e ética" pode ser alcançada sem isso.
Evidências de outros países mostram as desvantagens do uso da IA no setor público. Muitos na Holanda ainda estão se recuperando de um escândalo relacionado ao uso de aprendizado de máquina para detectar fraudes previdenciárias. Descobriu-se que os algoritmos acusaram falsamente milhares de pais de fraude em benefícios infantis. Cidades em todo o país ainda estão usando essa tecnologia para atingir bairros de baixa renda para investigações de fraude, com consequências devastadoras para o bem-estar das pessoas.
Uma investigação na Espanha revelou deficiências no software usado para determinar se as pessoas estavam cometendo fraude no auxílio-doença. E na Itália, um algoritmo defeituoso excluiu professores qualificados muito necessários de vagas abertas. Ele rejeitou totalmente seus currículos depois de considerá-los para apenas um emprego, em vez de combiná-los com outra vaga adequada.
A dependência do setor público da IA também pode levar a riscos de segurança cibernética ou vulnerabilidades na infraestrutura crítica que suporta o NHS e outros serviços públicos essenciais.
Dados esses riscos, é crucial que os cidadãos possam confiar que o governo será transparente sobre o uso da IA. Mas o governo geralmente é muito lento ou relutante em revelar detalhes sobre isso – algo que o comitê parlamentar de padrões na vida pública criticou fortemente.
O Centro de Ética e Inovação de Dados do governo recomendou a divulgação de todos os usos de IA em decisões importantes que afetam as pessoas. Posteriormente, o governo desenvolveu um dos primeiros padrões de transparência algorítmica do mundo, para incentivar as organizações a divulgar ao público informações sobre o uso de ferramentas de IA e como elas funcionam. Parte disso envolve o registro das informações em um repositório central.
No entanto, o governo tornou seu uso voluntário. Até agora, apenas seis organizações do setor público divulgaram detalhes de seu uso de IA.
A instituição de caridade jurídica Public Law Project lançou recentemente um banco de dados mostrando que o uso de IA no setor público do Reino Unido é muito mais difundido do que mostram as divulgações oficiais. Por meio de solicitações de liberdade de informação, o registro Tracking Automated Government (TAG) já rastreou 42 instâncias do setor público usando IA.
Muitas das ferramentas estão relacionadas à detecção de fraudes e à tomada de decisões de imigração, incluindo a detecção de casamentos falsos ou fraudes contra o erário público. Quase metade dos conselhos locais do Reino Unido também está usando IA para priorizar o acesso a benefícios habitacionais.
Agentes penitenciários estão usando algoritmos para atribuir prisioneiros recém-condenados em categorias de risco. Várias forças policiais estão usando IA para atribuir pontuações de risco semelhantes ou testando o reconhecimento facial baseado em IA.