logo mobile

Imprimir

Sul Global precisa agir rápido para não perder a soberania sobre seus dados, diz enviado da ONU

.

mundo 211123

Amplificação dos vieses e preconceitos em seleções de emprego e decisões judiciais, aumento na escala e sofisticação da desinformação, mudanças radicais no mercado de trabalho, concentração de poder em poucos países e Big Techs, uso da tecnologia para fins militares - esses são alguns dos aspectos da inteligência artificial que precisam urgentemente de regulação, segundo Amandeep Singh Gill, enviado especial das Nações Unidas para tecnologia.

Gill coordenou o lançamento, no início de novembro, do órgão consultivo da ONU, com 38 membros, com o objetivo de propor diretrizes para governança da inteligência artificial e, eventualmente, uma agência global que poderia ser semelhante à Agência Internacional de Energia Atômica.

Ele adverte que os países dos Sul Global precisam agir rápido para não perder a soberania sobre seus próprios dados.

"Acredito que grandes países em desenvolvimento como Índia, Indonésia, Brasil e África do Sul têm uma oportunidade significativa, mas precisam agir rápido para criar uma infraestrutura pública digital em grande escala, como a Índia fez com o Aadhaar (sistema de identificação biométrico) e o Brasil está fazendo com o PIX. É preciso ter um espaço de inovação inclusivo, com estruturas de proteção de dados, que dê aos cidadãos a confiança de concederem acesso a suas informações", disse à Folha.

O órgão tem uma representante brasileira, a secretária de Direitos Digitais do Ministério da Justiça, Estela Aranha.


Quais aspectos da inteligência artificial precisam mais urgentemente de regulamentação?

Eu vejo cinco fontes principais de preocupação e uma oportunidade. A primeira é a amplificação dos vieses, da discriminação e da exclusão. Certos grupos, como mulheres, indígenas, já sofrem exclusão no mundo analógico, e a inteligência artificial pode ampliar isso. Por exemplo, a IA pode amplificar vieses e prejudicar certos grupos na análise de concessão de liberdade condicional no sistema judicial, na seleção para empregos, vagas em escolas. Outro perigo é o potencial da IA para aumentar a escala da desinformação. Não apenas pela quantidade e facilidade de criar conteúdo sintético com IA, de reduzir o custo dos robôs, de personalizar e sofisticar a desinformação. A IA pode causar uma mudança radical na nossa percepção da realidade. Uma quantidade tão grande de tudo o que vemos, ouvimos e com que interagimos será mediada por algoritmos, que isso acrescentará muitas camadas de opacidade, a ponto de não sabermos o que é verdade e o que é manipulado. Isso pode ser usado por governos autoritários ou pelo capitalismo de vigilância, pelas empresas, ou uma combinação dos dois. O terceiro é a transformação do mercado de trabalho e da economia e como a IA pode impactar a desigualdade. Nossas instituições não estão preparadas para lidar com essas mudanças, a geração anterior sofreu com a globalização, e isso levou ao populismo nos EUA. Agora pode ser muito pior. A quarta preocupação é a concentração de poder, de tecnologia, de informação. Existe uma concentração em alguns poucos locais, principalmente Estados Unidos e China, onde ficam 90% dos datacenters e das empresas com alto valor de mercado. O que isso significa em termos de oportunidades para o resto do mundo? É como se tivéssemos uma nova cadeia alimentar, com esses grande predadores no topo e o resto, que são grama ou bichos pequenos. Isso tudo tem implicações para a desigualdade digital, as aspirações do Sul Global de alcançar um maior nível de desenvolvimento. E a última preocupação é a guerra, o uso da IA por países e grupos em conflitos. Sempre tivemos muito medo de terroristas conseguirem material nuclear para fabricar uma " bomba suja" ou desenvolver armas biológicas, e a IA pode ampliar essas oportunidades. Sem mencionar as armas cibernéticas, claro. Mas há também oportunidades. A IA pode nos ajudar a atingir as Metas de Desenvolvimento Sustentável. Pode acelerar pesquisa e desenvolvimento em áreas-chave como agricultura e segurança alimentar e proteção da Amazônia. É o caso dos sensores que puseram na floresta amazônica, a IA pode identificar o som de uma motosserra, mesmo que seja muito fraco, e alertar a comunidade. Na saúde, por exemplo. Não temos radiologistas suficientes no mundo em desenvolvimento e ferramentas baseadas em IA podem facilitar o acesso. Mas eu gostaria de alertar que não há mágica da IA para as MDS. Essas coisas não se espalharão automaticamente. É necessário criar ecossistemas em torno da capacidade humana, recursos computacionais, fluxos e colaboração de dados, para que cientistas e empreendedores em todos os lugares possam se beneficiar da IA. Seis ou sete empresas não vão resolver os problemas dos ODS, mas talvez seis a sete milhões, ou 60 milhões, consigam.


O senhor acha que países do Sul global, como Índia e Brasil, correm o risco de perder a soberania de seus dados, e de não usá-los para desenvolver sua própria IA nativa?

Acredito que grandes países em desenvolvimento como Índia, Indonésia, Brasil e África do Sul têm uma oportunidade significativa, mas precisam agir rápido para criar uma infraestrutura pública digital em grande escala, como a Índia fez com o Aadhaar (sistema de identificação biométrico) e o Brasil está fazendo com o PIX. Mas é necessário criar os fluxos de dados e espaço para inovação, porque a IA não acontece sem dados. Não se trata apenas de infraestrutura como antigamente, é preciso ter um espaço de inovação inclusivo, com estruturas de proteção de dados, que dê aos cidadãos a confiança de concederem acesso a suas informações. Isso não vai acontecer automaticamente, mas sou razoavelmente otimista de que esses grandes países conseguirão. Mas e os países menores? Nenhum dos países africanos está entre os 50 primeiros em termos de capacidades de IA. Será necessário um esforço muito maior, porque hoje os governantes dizem: "Ah, eu não tenho espaço fiscal. Não tenho dinheiro para pagar salários de professores, para fazer campanhas de imunização, e você quer que eu construa um grande modelo de linguagem próprio e tenha muitos doutores em IA e infraestrutura de computação?". Talvez, o que possa funcionar seja o aspecto da diversidade. No final das contas, todos nos importamos com nossas próprias culturas, nossas línguas, que vieram com milhares de anos de civilização. Não queremos que nossa cultura seja usurpada por um conjunto limitado de dados ou modelos de IA.


A ONU acaba de lançar um órgão consultivo para analisar regulação de inteligência artificial. Como vai funcionar?

Trata-se de um órgão consultivo, global, com poder de fazer recomendações, não vinculantes. Essas recomendações seriam feitas aos Estados membros que participam das negociações sobre o Pacto Digital Mundial. Eles avaliarão se incorporam as recomendações ao Pacto Digital Global, de caráter vinculante, que será assinado na Cúpula do Futuro, em setembro do ano que vem. Um relatório parcial deve ser entregue ao Secretário-Geral da ONU, Antonio Guterres. Outro objetivo do órgão consultivo é reunir todas as diferentes iniciativas. Entender qual é a infraestrutura por trás da Cúpula de Segurança de IA do Reino Unido, da ordem executiva dos EUA, do que a China está fazendo e o Brasil, em seu parlamento. Entender como reunir tudo isso e alinhar com nossos valores universais, com os direitos humanos, com a carta da ONU. E terceiro, e o mais importante, é como institucionalizar isso. Que tipo de funções uma futura instituição de governança da IA precisa ter? Seria semelhante ao IPCC, uma função de avaliação científica? Ou é uma função de normas de segurança como a Organização Internacional da Aviação Civil Internacional? É uma função multidimensional tipo Agência Internacional de Energia Atômica? O que a comunidade internacional deve considerar ao começar a pensar em uma instituição ou uma rede de instituições de governança da IA. É isso que o conselho consultivo vai analisar.


O jurista Tim Wu, ex-conselheiro da Casa Branca, acaba de publicar um ensaio no jornal americano The New York Times dizendo que "as redes sociais eram um lobo em pele de cordeiro e a IA está mais para um lobo vestido de cavaleiro do apocalipse". O senhor acha que podemos estar exagerando, porque nos arrependemos de não ter regulado as redes sociais e agora estamos em pânico?

A regulamentação é importante e deve acontecer em diferentes níveis. Existe um nível regulatório nacional, em que os estados-nação criam leis e órgãos reguladores independentes, há espaço para ação da indústria, com códigos de conduta, revisões entre pares, esquemas de certificação. E há uma camada importante de governança internacional, com princípios, padrões e avaliação científica, para que todos saibam de forma transparente o que está acontecendo. Nós nem sequer entendemos para onde está indo a tecnologia hoje. Temos que acreditar em certas pessoas, será que os LLMs são capazes disso tudo, realmente? Eu não sei. Então, há um papel para essas três camadas. O que temos que fazer é juntá-las em um tipo de estrutura ágil e colaborar. Precisamos ser sábios. Não existe uma solução simples. Respostas fáceis devem ser evitadas, porque podem ser enganosas.

 


Fonte: Folha de S.Paulo