Copied!

Special Section

Inclusive Digital Transformation

The Brazilian Agenda for Artificial Intelligence within the Scope of the G20

Abstract

This essay presents the contributions made within the scope of the T20, based on the work of Task Force 5, which primarily addressed the themes of Artificial Intelligence (AI) and data governance. The text outlines the recommendations made by the group, in dialogue with geopolitical dynamics in the digital agenda, and theoretical approaches that underpinned the task force’s work, such as the concept of data justice.

Keywords

digital transformation; inclusion; artificial intelligence; T20 Brasil; G20 Brasil
5th Digital Economy Working Group Meeting Room. Photos: Audiovisual G20 Brasil.

A Transformação Digital tem sido um tópico cada vez mais prioritário na agenda da governança global, e com o G20 não poderia ser diferente. As mudanças políticas e socioeconômicas provocadas pelas tecnologias e seus potenciais de alto impacto em nível individual e estatal colocaram essa agenda em destaque na presidência brasileira, através de uma perspectiva do Sul Global.

Temas como a conectividade significativa, o governo digital e a inteligência artificial (IA) – que até pouco tempo atrás se restringiam a fóruns nichados de especialistas – hoje estão intrínsecos às políticas de alto nível, se relacionando com pautas de governança global e instituições, segurança, educação, saúde, trabalho, entre outras camadas que já estão transformando as sociedades. Assim, o Grupo de Trabalho de Economia Digital (DEWG) do G20 soube priorizar quatro tópicos altamente relacionados entre si: desde a conectividade significativa como elemento basilar, passando pela transformação do governo digital, até a conexão com o uso da inteligência artificial e os desafios da integridade informacional.

O Brasil desfrutou de uma conjuntura propícia para debater governança global e diretrizes estratégicas em nível estatal, ao mesmo tempo que a ONU negociava o Pacto Global Digital, também trazendo um capítulo dedicado à governança de IA. Nesse sentido, a presidência do G20 possibilitou catalisar o tópico em nível doméstico, reformulando o Plano Brasileiro e criando assim o Plano "IA para o Bem de Todos" (PBIA).

Dessas quatro prioridades, a IA teve um destaque significativo, tanto interna quanto externamente. O Brasil desfrutou de uma conjuntura propícia para debater governança global e diretrizes estratégicas em nível estatal, ao mesmo tempo que a Organização das Nações Unidas (ONU) negociava o Pacto Global Digital (United Nations 2024b), também trazendo um capítulo dedicado à governança de IA. Nesse sentido, a presidência do G20 possibilitou catalisar o tópico em nível doméstico, reformulando o Plano Brasileiro e criando assim o Plano "IA para o Bem de Todos" (PBIA) (Brasil 2024b). Com foco em desenvolvimento, com proteção aos direitos humanos, integridade da informação e direitos autorais, o Plano se insere em uma estratégia internacional de redes colaborativas, ao mesmo tempo que investe nas capacidades nacionais, desde a formação de profissionais, pesquisa e desenvolvimento, até a construção de um arcabouço de governança robusto.

Esse resultado está claramente refletido na Declaração Final de Líderes, na qual a IA ganhou dois parágrafos dedicados, além de uma continuidade com a presidência sul-africana pela criação de uma Força-Tarefa exclusiva (G20 Brasil 2024). A Declaração do Rio de Janeiro constrói sobre os esforços da ONU para uma cooperação internacional voltada ao desenvolvimento sustentável, em que exista construção coletiva de capacidades e recursos entre nações, e o uso da tecnologia seja pautado de maneira ética, conforme as recomendações da UNESCO (Unesco 2022).

O documento do G20 ainda vai além e aponta questões específicas relacionadas ao uso da IA, como a necessidade de endereçar políticas a grupos vulneráveis, citando o mercado de trabalho e a inclusão e empoderamento das mulheres. As habilidades digitais e a recolocação no mercado são pontos cruciais trazidos pela presidência brasileira durante as negociações e que transmitem as demandas da sociedade civil e de sindicatos de trabalhadores. Ao mesmo tempo, a Declaração cita preocupações sobre privacidade, proteção de dados e segurança – reforçando assim a agenda das habilidades digitais e da necessidade de uma conectividade que seja realmente significativa, ou seja, uma em que as pessoas possuam a infraestrutura necessária, capacidades e conhecimentos para fazerem um bom e seguro uso dessas ferramentas.

[...] o trabalho do Think 20 (T20), na Força-Tarefa de Transformação Digital Inclusiva (FT5), trouxe uma perspectiva holística sobre como o uso dos dados fomenta outras políticas para privacidade, usos da inteligência artificial, integridade informacional e fluxo de informações de modo seguro e confiável.

Todas essas demandas e muitas outras surgiram em inúmeros debates dentro do processo do G20, para além do Grupo de Economia Digital. Os grupos de engajamento possibilitaram uma troca efetiva com setores da sociedade, que puderam então levar suas demandas e suas recomendações à Trilha dos Sherpas. Especialmente, o trabalho do Think 20 (T20), na Força-Tarefa de Transformação Digital Inclusiva (FT5), trouxe uma perspectiva holística sobre como o uso dos dados fomenta outras políticas para privacidade, usos da inteligência artificial, integridade informacional e fluxo de informações de modo seguro e confiável. Indo além das recomendações previstas, o T20 se uniu a outros três grupos para uma Declaração Conjunta sobre Inteligência Artificial (T20 Brasil 2024b), ao lado do Civil 20 (C20), Labor 20 (L20) e Women 20 (W20).

GOVERNANÇA E JUSTIÇA DE DADOS

No âmbito do T20, a agenda digital foi muito pautada pela temática de governança de dados, partindo de uma compreensão dos dados como um aspecto fundacional do debate sobre transformação digital. O trabalho da FT5 foi orientado pela abordagem da justiça de dados (Taylor 2022), um conceito que aplica a noção de justiça ao modo como dados são produzidos e utilizados, atentando ao modo como indivíduos e grupos são visibilizados/invisibilizados, representados e tratados. Assim, as recomendações elaboradas pela força-tarefa visam reduzir as assimetrias informacionais e de poder, enquanto focam consistentemente em aspectos de inclusão/exclusão de diferentes grupos sociais, trazendo implicações diretas para a governança de novas tecnologias, como a IA (Gillwald et al. 2024). Essa visão alinha-se com outros esforços e demandas por governança global da IA e de dados, com o objetivo de avançar e acelerar os Objetivos de Desenvolvimento Sustentável (ODS). 

Diferentes documentos liderados pelo T20, como a Declaração de São Luís e o próprio comunicado final do grupo, oferecem uma visão abrangente do ciclo de vida dos dados e seus impactos no trabalho decente, justiça climática e outros aspectos da transformação digital em curso. A grande mudança proposta para essa governança, partindo da abordagem de justiça de dados, é que o interesse público deve orientar o uso de dados e tecnologias emergentes, como a IA, em contraposição a interesses privados ou exclusivamente econômicos. Desse modo, o grupo defende que os países do G20 reconheçam a necessidade de uma posição colaborativa sobre governança de dados e conjuntos de dados representativos, adotando uma estrutura comum para ponderar os potenciais benefícios e danos dos ciclos de vida dos dados. 

Essa discussão se conecta com uma das principais recomendações do T20 – a proposta do Data20 (D20), um fórum de coordenação sobre governança de dados no G20 (Bioni, Diepeveen & Kapoor 2024)[1]. A proposta visa promover a convergência de temas transversais relacionados a dados oriundos de diferentes grupos da sociedade, incluindo governos. Portanto, em vez de um novo grupo de engajamento, o D20 funcionaria como um elo entre a Trilha dos Sherpas e os grupos de engajamento existentes que lidam com dados, promovendo encontros entre os diferentes stakeholders para unificar as agendas relacionadas aos dados. A recomendação busca unificar as discussões fragmentadas sobre governança de dados, a fim de coordenar ações sobre preocupações compartilhadas em relação ao uso de dados e promover usos que gerem valor público, aproveitando o diálogo entre países em desenvolvimento e desenvolvidos no G20 para avançar em uma economia de dados justa e equitativa.  

Esse debate conecta-se com outras discussões desenvolvidas ao longo da presidência brasileira do G20, como a que envolve a ideia de solidariedade de dados, um conceito também integrado no Comunicado do T20 (T20 Brasil 2024a). A ideia refere-se à promoção do compartilhamento ético de dados e de uma governança para o benefício coletivo da sociedade, afastando-se do modelo individualista e explorador de propriedade de dados, em direção a um modelo que enfatiza a colaboração, o controle comunitário e a distribuição equitativa do valor dos dados. É uma abordagem que reconhece a importância dos propósitos e contextos de uso dos dados, avançando em direção a práticas mais justas e confiáveis para gerar valor público significativo por meio da transformação digital (Prainsack, Medhora & Holly 2024), complementando, assim, a perspectiva de justiça de dados. 

Por isso, uma abordagem baseada na solidariedade pode estimular práticas que gerem conjuntos de dados inclusivos e diversos a serem utilizados no treinamento de sistemas de IA. Reconhecendo isso, a Declaração de São Luís também recomenda a implementação de políticas que promovam essas práticas, como iniciativas de dados abertos e dados gerados por cidadãos (Vieira 2018). Essa última, especialmente, representa uma medida estratégica contra a invisibilização de comunidades marginalizadas em conjuntos de dados e sua inclusão no codesenvolvimento de tecnologias.  

Como reconhecido na Declaração Ministerial do G20 para a redução das desigualdades (Brasil 2024a), publicada durante a presidência brasileira, o debate sobre questões transversais na governança de dados também pode influenciar no desenvolvimento de sistemas de Inteligência Artificial mais transparentes e justos. Portanto, como observado nos desenvolvimentos recentes dentro do ecossistema do G20, fomentar a cooperação na governança de dados para maximizar os benefícios do uso de dados – por meio de abordagens baseadas em solidariedade e justiça – pode ter um impacto positivo na complexa discussão sobre a governança de IA e a transformação digital de modo mais amplo. 

ABORDAGEM INTERSECCIONAL SOBRE DESIGUALDADES

O desenvolvimento e a implementação de sistemas de IA, dependendo de sua finalidade, levam a uma série de violações de direitos, especialmente os direitos de comunidades social e economicamente vulneráveis. Tais violações são amplamente documentadas na literatura desenvolvida por estudiosos e ativistas no campo dos direitos digitais, que apontam para o fato de que sistemas de inteligência artificial podem reproduzir, por exemplo, violência racial e de gênero, devido à forma como os seus algoritmos são treinados, geralmente com conjuntos de dados enviesados (Danesi & Jarrin 2024), e ao propósito de sua utilização, como tecnologias de reconhecimento facial (Silva 2019; Costa & Kremer 2022).

O desenvolvimento e a implementação de sistemas de IA, dependendo de sua finalidade, levam a uma série de violações de direitos, especialmente os direitos de comunidades social e economicamente vulneráveis.

Em razão dos riscos potenciais e da diferenciação dos impactos de tecnologias emergentes como aquelas baseadas em sistemas de inteligência artificial a grupos de vulnerabilidade politicamente induzida (Machado, Negri & Giovanini 2020), a FT5 optou, desde a sua concepção, por uma abordagem interseccional, considerando-a como o horizonte teórico-metodológico mais adequado para lidar com o desenvolvimento e a implementação de tecnologias digitais. Essa moldura teórico-metodológica é, também, replicada no processo de construção coletiva da Declaração de São Luís, cujo foco está relacionado ao desenvolvimento de tecnologias de inteligência artificial.

Cabe destacar que, resumidamente, a interseccionalidade pode ser considerada uma abordagem teórica e metodológica que reconhece a interdependência entre opressões sociais, como racismo, sexismo e LGBTQIA+fobia, e o sistema econômico que possibilita tais opressões (Akotirene 2019; 2018). Nesse sentido, somente ao reconhecer as assimetrias de fato entre os sujeitos – e entre desenvolvedores de sistemas de IA, tomadores de decisão, comunidades vulneráveis e corporações – podemos desenvolver as ferramentas corretas para lidar com os riscos e impactos da implementação de sistemas de IA, especialmente aqueles considerados intrusivos e potencialmente prejudiciais aos sujeitos. Esse reconhecimento está diretamente atrelado à necessidade de compatibilizar as abstrações jurídicas e de governança com contextos sociais marcados por diferentes formas de discriminações estruturais, de modo a incorporar elementos de justiça e equidade em uma moldura regulatória baseada em direitos e em riscos.  

A partir dessas construções, tem-se que o modelo multissetorial de governança digital, já estabelecido em campos como o da Governança da Internet, necessita de uma qualificação interseccional, de modo que, para além de atores interessados (stakeholders), os processos de governança incluam grupos vulneráveis diretamente impactados pelo desenvolvimento e implementação de sistemas de inteligência artificial, para que possam desempenhar um papel ativo no desenvolvimento e governança dessas tecnologias. Nesse contexto, vale ressaltar a Declaração Multissetorial do NetMundial+10 (CGI.br 2024), construída e publicada em 2024, cujo enfoque está na defesa de participação efetiva de distintos setores, mas também de diferentes populações marginalizadas, como um horizonte possível para balizar futuras abordagens de governança de novas tecnologias.

Assim, orientada pelo imperativo de se qualificar o modelo multissetorial de governança, a Declaração de São Luís aborda a necessidade de: desenvolver ferramentas para prevenir e mitigar a Violência de Gênero Facilitada por IA; empoderar os trabalhadores no contexto de implementação massiva de sistemas de IA; bem como fortalecer a participação multissetorial, a fim de garantir que diferentes setores e, portanto, diferentes visões sejam consideradas de forma significativa no processo de desenvolvimento de modelos de IA. Ela também clama por abordagens que sejam sensíveis a questões de raça e gênero, enfatizando a necessidade de aumentar a representatividade dos bancos de dados e da força de trabalho técnica, para proteger a diversidade cultural e linguística.  

IMPLICAÇÕES DA IA NA VIOLÊNCIA DE GÊNERO E PARA O FUTURO DO TRABALHO 

De modo mais específico, o impacto da IA sobre as questões de gênero é classificado como um dos impactos mais significativos que emergem do desenvolvimento e implementação de sistemas de IA, especialmente no que diz respeito à aplicação de tecnologias intrusivas, como tecnologias de reconhecimento facial, e ao aumento do número de relatos sobre deep nudes e violência política de gênero que utiliza IA.  Esta última pode ser descrita como um tipo de violência de gênero facilitada por tecnologias, que, segundo o relatório da UNESCO (2023), se refere ao uso de tecnologias para perpetrar ou mediar violência contra mulheres e meninas. Nesse relatório, a violência de gênero facilitada por tecnologias foi classificada como um problema social em escala global, já que se estima que 58% das mulheres e meninas ao redor do mundo tenham sofrido assédio online em sua vida digital.  

Tais práticas ganham novos contornos com o uso generalizado de sistemas de IA generativa, tendo em vista que esses sistemas são capazes de criar vídeos e imagens falsos com alto grau de fidedignidade, em grande escala e velocidade. Esse uso destaca a necessidade de que os países em geral, e especialmente aqueles que compõem o G20, busquem maneiras de lidar com essa questão estabelecendo marcos e ferramentas para combater a violência de gênero facilitada pela IA. 

Juntamente com o impacto sobre questões de gênero, o mundo do trabalho pode ser considerado como outra área da vida impactada pelo desenvolvimento de sistemas de IA (Mehrota, Agarwal, Barman & Giri 2024). O rápido avanço dessas tecnologias, associado à redução de custos e facilidade em sua adoção, já está modificando as relações produtivas e de trabalho, o que pode resultar em um cenário de desemprego massificado em várias áreas, devido à potencial automação de rotinas de trabalho, bem como a uma situação de intensa precarização do trabalho dentro da cadeia de produção de IA, a qual depende do trabalho humano precarizado em funções classificadas como microtrabalhos. Segundo Braz, Tubaro e Casilli (2023, p. 4): 

O microtrabalho é uma forma de trabalho online feita em plataformas digitais, que envolve a realização de microtarefas de baixa complexidade, repetitivas, feitas sob demanda, reduzidas a um serviço e pagas por tarefa. Para cada microtarefa realizada, o trabalhador recebe alguns centavos de reais ou dólares. Trata-se de um trabalho informal, disperso globalmente, sem proteções sociais e trabalhistas, porém que cumpre papel central no desenvolvimento tecnológico de nossa sociedade, sobretudo no que diz respeito à cadeia de produção de Inteligência Artificial.

Nesse sentido, como uma tentativa de defesa por melhores condições e dignidade de trabalho, a Declaração de São Luís postula a preservação do valor do trabalho em um contexto de intensa adoção de sistemas de IA como um elemento fundamental para a integridade do mundo do trabalho, visando diminuir as assimetrias nessas relações, além de advogar pela garantia de remuneração adequada, segurança, equidade e uma vida digna aos trabalhadores e às trabalhadoras. Além disso, o documento destaca a necessidade de garantir o direito à negociação coletiva, bem como a participação dos trabalhadores tanto no desenvolvimento de modelos de IA quanto na criação de políticas públicas relacionadas a essas tecnologias, com o objetivo de garantir políticas que melhorem a qualidade do trabalho e respeitem os direitos humanos.  

IA ENTRE O LOCAL E O GLOBAL

A governança global da IA é um aspecto particularmente desafiador na agenda digital. Enquanto uma questão transversal que envolve múltiplos setores, bem como dinâmicas geopolíticas complexas, o debate sobre como a governança dos sistemas de IA poderia ser usada para promover o seu uso ético avançou muito nos últimos anos. Nesse sentido, o debate sobre a governança ética da IA tem abarcado movimentos políticos que envolvem tanto uma discussão sobre princípios que devem governar essas tecnologias, como movimentações políticas pró-regulação a fim de garantir que existam mecanismos para além de princípios, para gerir os riscos dos usos da IA e promover efetivamente o valor público no desenvolvimento e na aplicação dela (Mittelstadt 2019).

Ao longo da presidência brasileira do G20, o DEWG dedicou-se a pensar como iniciativas regulatórias locais, regionais e globais poderiam ser integradas para garantir que o desenvolvimento da IA promova equidade social. A discussão alinha-se com a atuação brasileira no G20 de forma mais ampla, particularmente considerando o foco no desenvolvimento de países do Sul Global, uma vez que há o risco de que o estabelecimento de normas e padrões técnicos globais ignorem as necessidades locais, particularmente as das comunidades marginalizadas (Adegoke et al. 2024).

O debate reflete o argumento de Milton Santos (2000) sobre a interdependência entre dinâmicas locais e globais: em sua obra proeminente sobre globalização, o intelectual brasileiro argumenta que a geopolítica pode favorecer a exclusão de comunidades específicas, com base nas características e potencialidades de determinados grupos em detrimento de outros. Nesse contexto, o trabalho do T20 sobre IA, conforme consolidado em conjunto com os demais grupos de engajamento autores da Declaração de São Luís (C20, L20 e W20), defende que a governança da IA reconheça o potencial do desenvolvimento tecnológico para exacerbar desigualdades existentes, o que exige um foco na interoperabilidade entre iniciativas regulatórias (Lara & Rossini 2024) e na coordenação além-fronteiras para mitigar os riscos globais desses sistemas.

Desse modo, a Declaração baseia-se nas iniciativas de governança da IA que estão sendo desenvolvidas em fóruns globais como o G20, o G7 e a ONU. O documento faz referência aos Princípios de IA da OCDE (OECD 2019), adotados inicialmente em 2019 como o primeiro padrão intergovernamental sobre IA e atualizados em 2024; aos Princípios de IA do G20 de 2019 (Japan 2019), que derivam desses primeiros; e ao Processo de Hiroshima para a IA (Japan 2023), iniciado durante a presidência do Japão no G7 em 2023. As recomendações, assim como a Declaração de Líderes do Rio de Janeiro, também afirmam o papel das Nações Unidas na promoção da cooperação internacional sobre o tema.

A Declaração de São Luís dialoga especificamente com o trabalho do Órgão Consultivo de Alto Nível sobre Inteligência Artificial e o Pacto Digital Global (GDC) (United Nations 2024b), que expressam a necessidade de aprimorar a cooperação para promover o monitoramento global dos riscos do uso da IA e permitir a participação de países em desenvolvimento. O relatório final do Órgão Consultivo (United Nations 2024a) defende especificamente "uma abordagem de governança em rede, ágil e flexível para a governança da IA". Alinhado a essas movimentações do campo, o trabalho do T20 defende a coordenação entre iniciativas em andamento como fundamental para evitar a discriminação e superar assimetrias de poder globalmente, relacionadas à redução da brecha digital entre países desenvolvidos e em desenvolvimento e à já mencionada necessidade de uma posição colaborativa sobre governança de dados e conjuntos de dados representativos.  

Reconhecendo a assimetria de poder entre sujeitos – e entre corporações e sujeitos – como um elemento central na discussão sobre IA, os posicionamentos do T20 sobre a regulação desses sistemas defendem uma estrutura baseada em direitos e em riscos. Ou seja, conforme explicitado na Declaração de São Luís, o grupo se alinha às iniciativas globais sobre a governança de IA ao defender regulações que equilibrem o estímulo à inovação com a proteção dos direitos fundamentais dos sujeitos e que possibilitem a avaliação e o compartilhamento equitativo dos benefícios e riscos decorrentes do desenvolvimento e da implementação de sistemas de IA.

Em um contexto de uso massivo de dados pessoais para o desenvolvimento de novas tecnologias, como a IA, as assimetrias sociais tendem a se aprofundar. Com isso, surge a necessidade de garantir o devido processo informacional, que pode ser caracterizado como uma consequência lógica do estado democrático de direito.

Em um contexto de uso massivo de dados pessoais para o desenvolvimento de novas tecnologias, como a IA, as assimetrias sociais tendem a se aprofundar. Com isso, surge a necessidade de garantir o devido processo informacional, que pode ser caracterizado como uma consequência lógica do estado democrático de direito. Isso implica o estabelecimento de instrumentos para limitar as assimetrias de poder e de informações, como o direito à ampla defesa e ao contraditório, a fim de afirmar e garantir os direitos fundamentais (Sarlet & Sarlet 2022). Um dos instrumentos jurídicos para garantir o direito ao devido processo informacional no caso do uso de sistemas de IA são as avaliações de impacto, mais especificamente as avaliações de impacto sobre os direitos humanos (Mantelero & Fanucci 2024). 

As avaliações de impacto sobre os direitos humanos podem ser descritas como uma ferramenta de responsabilização e prestação de contas que combina modelos tradicionais de gestão de riscos com participação multissetorial e uma abordagem centrada no ser humano, levando em consideração, no processo de análise, a existência de direitos humanos relevantes, a definição de valores éticos e sociais, e as necessidades específicas de uma determinada localidade ou comunidade (Mantelero 2022). Esse modelo também considera a transparência e a participação social como valores centrais para as avaliações de impacto, de modo que a simples condução delas não é suficiente, sendo necessária a sua submissão ao escrutínio público para permitir uma participação social efetiva no processo de garantia, proteção e afirmação dos direitos.

A Declaração de São Luís segue essa mesma direção, uma vez que defende a publicização das capacidades e limitações dos modelos e sistemas avançados de IA, bem como a divulgação das avaliações de impacto sobre os direitos humanos por parte dos desenvolvedores e tomadores de decisão. Concomitantemente, para alcançar padrões significativos de transparência no desenvolvimento de sistemas de IA, especialmente daqueles que podem ser considerados como tecnologias intrusivas, a FT5 pautou a garantia do acesso de acadêmicos credenciados aos conjuntos de dados usados para treinar os modelos de IA (Gurumurthy, Sen & Rielli 2024), a fim de aumentar a participação e o controle sociais no processo de desenvolvimento dessas tecnologias, buscando evitar resultados enviesados e permitir uma maior supervisão social sobre o desenvolvimento e a governança de tecnologias que possam, potencialmente, violar os direitos humanos.

OBJETIVOS DE DESENVOLVIMENTO SUSTENTÁVEL (ODS)

À medida que nos aproximamos de 2030, o ano-alvo para o cumprimento dos Objetivos de Desenvolvimento Sustentável (ODS) das Nações Unidas, cresce a preocupação com o progresso global em relação a eles. Essa percepção foi recentemente observada durante a Cúpula do Futuro da ONU, por meio do discurso do Secretário-Geral, António Guterres (United Nations 2024c), que destacou a falta de ação global frente a problemas complexos como as mudanças climáticas e as guerras. No mesmo evento, o presidente brasileiro, Luiz Inácio Lula da Silva, referiu-se à possibilidade de os ODS se tornarem um fracasso coletivo (Brasil 2024c), dado o ritmo lento de sua implementação, com a estimativa de que apenas 17% deles serão alcançados até 2030 – fato também reconhecido na Declaração de Líderes do Rio de Janeiro.

As oportunidades para acelerar os ODS com o auxílio de tecnologias digitais são diversas: a IA, por exemplo, pode favorecer a redução das desigualdades, a otimização de serviços de saúde (Dsouza et al. 2024), promoção do trabalho decente e crescimento econômico, além de ser decisiva para estratégias de mitigação das mudanças climáticas.  No âmbito do T20, a FT5 dedicou uma das suas trilhas especificamente sobre a relação entre o digital, os ODS e as questões do trabalho decente, dois tópicos que surgiram de modo notório no documento final do G20 Brasil.

Com base nas abordagens apresentadas anteriormente, especialmente a da interseccionalidade, a FT5 apresentou recomendações políticas perante tanto as oportunidades como os riscos da adoção de tecnologias digitais nas áreas mencionadas. No caso da IA, juntamente com a conciliação de abordagens regulatórias baseadas em riscos e direitos, que podem ajudar a equilibrar os potenciais riscos e benefícios do uso desses sistemas, o T20 fez recomendações específicas para o avanço dos ODS, como o reconhecimento dos impactos da economia de plataforma para os trabalhadores ao redor do mundo, instando o G20 a se comprometer com a promoção do diálogo social, com iniciativas educacionais e de capacitação, a fim de promover trabalho decente.

Na Declaração de São Luís, também há um forte foco no papel da IA na promoção da justiça climática, decorrente do reconhecimento do paradoxo ambiental da IA (Oxford Analytica 2024), que explora a complexa relação entre desenvolvimento tecnológico e impacto ambiental. A Declaração destaca os grandes impactos que essas tecnologias podem ter no consumo de energia e água, ao mesmo tempo que chama por investimentos em larga escala que colham os benefícios desses sistemas para a produção de energia limpa. Assim, a Declaração recomenda o compartilhamento de metodologias para avaliação de impactos ambientais entre os países do G20, destacando o potencial da IA para aprimorar modelos climáticos e processos de otimização.

Essas iniciativas podem facilitar a identificação de padrões e tendências na gestão ambiental e de recursos, oferecendo dados acionáveis para combater o desmatamento e fornecer alertas precoces de possíveis eventos climáticos. No entanto, em relação às mudanças climáticas e outras áreas, o desenvolvimento ético e responsável da IA, que maximize os benefícios dessas tecnologias para o interesse público, depende do fortalecimento da cooperação internacional e de parcerias multissetoriais, além de estar alinhado às necessidades sociais e infraestruturais das comunidades vulneráveis.

CONSIDERAÇÕES FINAIS

A IA é protagonista de uma grande transformação não só digital, mas com potencial para transformar o próprio sistema capitalista, além do próprio sistema internacional. Ela pode exacerbar as desigualdades existentes entre países e dentro dos próprios países, ou trabalhar favoravelmente à redução dessas desigualdades, contribuindo também para os Objetivos de Desenvolvimento Sustentável. Com essa agenda prioritária e transversal, a governança global busca garantir que os benefícios da IA sejam acessíveis a todos e que não se agravem as disparidades sociais, ao menos em teoria. Nos últimos cinco anos, diversas iniciativas de nível internacional surgiram com intuitos comuns de desenvolvimento e uso ético da IA, elencando prioridades em diferentes áreas como trabalho, educação e meio ambiente.

O G20, unindo as maiores economias do mundo, incluindo dois grandes blocos econômicos (União Europeia e União Africana), se mostra como um fórum propício para debater e colocar na agenda global o desenvolvimento e uso da IA e de como ocorre a própria transformação digital para países desenvolvidos e em desenvolvimento. Assim, um dos diferenciais da abordagem do G20 é o foco em desigualdades. O G20 reconhece que a IA tem o potencial de aumentar as desigualdades globais se seu acesso e benefícios forem concentrados em poucos países ou empresas. Por isso, o grupo enfatiza a importância de promover a inclusão digital, colocando na agenda a capacitação em IA, especialmente em países em desenvolvimento, e garantindo que a revolução digital e os benefícios da IA sejam amplamente distribuídos. 

[U]m dos diferenciais da abordagem do G20 é o foco em desigualdades. (...) Por isso, o grupo enfatiza a importância de promover a inclusão digital, colocando na agenda a capacitação em IA, especialmente em países em desenvolvimento, e garantindo que a revolução digital e os benefícios da IA sejam amplamente distribuídos.

Soma-se a essa conjuntura a proximidade da Agenda 2030 e como os ODS estão cada vez mais intrínsecos à transformação digital, além da transição verde (twin transition)[2]. No meio ambiente, as tecnologias emergentes e a IA podem ser poderosas aliadas na luta contra as mudanças climáticas e na promoção da sustentabilidade. Assim, pensar a governança global para as transformações digitais e ambientais é pensar o uso das tecnologias de forma holística e como seus impactos podem ser sentidos na sociedade como um todo. Mais ainda, é pensar no uso dos dados e em todo seu ciclo de vida e potencial (governança de dados). Uma IA justa depende da transparência sobre como os dados são coletados, armazenados e utilizados. A governança de dados ajuda a prevenir o uso indevido das informações e a garantir que os usuários e outros stakeholders possam, em tese, auditar as decisões algorítmicas. O estabelecimento dessas políticas de governança também pode assegurar que os conjuntos de dados sejam diversificados, representativos e de alta qualidade. Isso é essencial para evitar o viés algorítmico, que ocorre quando a IA é treinada a partir de base de dados limitada ou enviesada, o que pode levar a discriminações injustas ou ineficazes. Com dados bem gerenciados, as IAs têm mais chances de oferecer resultados equilibrados e inclusivos, beneficiando todos os grupos da sociedade.

O Brasil, na qualidade de presidente do G20 em 2024, definitivamente aprofundou o debate, trazendo para a agenda global questões de desenvolvimento sustentável inclusivo e redução de desigualdades; capacidades governamentais para entregar serviços de qualidade, com base em soluções de IA; e como reduzir a desigualdade entre países, especialmente em infraestrutura. Os grupos de engajamento então foram além, comprovando a importância de processos multissetoriais para que políticas verdadeiramente inclusivas sejam pensadas e dialogadas, de modo também multinível. Exercendo então essa conexão entre o local e o global, os grupos sintetizaram na Declaração de São Luís as abordagens de justiça de dados e de interseccionalidade – o que em certa medida se refletiu na Declaração Ministerial do Grupo de Economia Digital e na Declaração Final de Líderes. A expectativa é que o debate continue com a presidência da África do Sul, em 2025, que já elencou IA e inovação como um dos temas prioritários – o que deve então manter a pauta na alta política internacional, sem perder os impactos e desenvolvimentos de governança locais, especialmente pelo Sul Global.

Notas

[1]Texto originalmente publicado no site do G20 Brasil.

[2]O termo twin transition trata justamente de uma transição dupla: a verde e a digital. A transição verde está relacionada à mudança para uma economia mais sustentável, com foco na redução dos impactos ambientais e na promoção de práticas que combatam as mudanças climáticas. Já a transição digital envolve a adoção de tecnologias digitais em diversos setores da economia, desde a indústria até os serviços, para melhorar a eficiência e a competitividade.

Referências Bibliográficas

Adegoke, Adeboye, Bruno Bioni, Fernanda K. Martins, Júlia Mendonça, Paula Guedes & Tainá Junquilho. 2024. “Governança da inteligência artificial (IA): a interação entre o local, o regional e o global em direção a uma solidariedade transnacional”. PoliTICs 38. https://politics.org.br/pt-br/outros-assuntos-news/governanca-da-inteligencia-artificial-ia-interacao-entre-o-local-o-regional-e

Akotirene, Carla. 2019. O que é Interseccionalidade? São Paulo: Editora Pólen.

Bioni, Bruno, Stephanie Diepeveen & Astha Kapoor. 2024. “Porque o G20 precisa do Data20. Data Privacy Brasil”. DataPrivacyBR Research, 13 de junho de 2024https://www.dataprivacybr.org/porque-o-g20-precisa-do-data20/.

Braz, Matheus V., Paola Tubaro & Antonio A. Casilli. 2023. “Microtrabalho no Brasil: quem são os trabalhadores por trás da inteligência artificial?” Relatório de pesquisa DiPLab & LATRAPShttps://diplab.eu/?p=2833.

Brasil. 2024a. “Leaving No One Behind: G20 Development Ministerial Declaration for Reducing Inequalities”. MRE Brasil. https://www.gov.br/mre/en/contact-us/press-area/press-releases/documents-resulting-from-the-g20-development-ministerial-meeting-rio-de-janeiro-22nd-and-23rd-of-july-2024/en-dwg_-_compact_inequalities_-consolidated-version-20jul24.pdf.

Brasil. 2024b. “IA para o bem de todos”. Ministério da Ciência, Tecnologia e Inovação Brasília. https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/noticias/2024/07/plano-brasileiro-de-ia-tera-supercomputador-e-investimento-de-r-23-bilhoes-em-quatro-anos/ia_para_o_bem_de_todos.pdf/view.

Brasil. 2024c. “Discurso do presidente Lula na abertura da Cúpula do Futuro, em Nova York”. Planalto Brasil, 22 de setembro de 2024. https://www.gov.br/planalto/pt-br/acompanhe-o-planalto/discursos-e-pronunciamentos/2024/09/discurso-do-presidente-lula-na-abertura-da-cupula-do-futuro-em-nova-york

CGI. 2024. “NETmundial+10 Multistakeholder Statement: Strengthening Internet Governance and Digital Policy Processes”. Brazilian Internet Steering Committee, 30 de abril de 2024. https://netmundial.br/netmundial-10-multistakeholder-statement-strengthening-internet-governance-and-digital-policy-processes.

Chowdhury, Rumman & Dhanya Lakshmi. 2023. “‘Your Opinion Doesn’t Matter, Anyway’: Exposing Technology-Facilitated Gender-Based Violence in an Era of Generative AI”. In World Trends in Freedom of Expression and Media Development. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000387483

Costa, Ramon & Bianca Kremer. 2022. “Inteligência artificial e discriminação: desafios e perspectivas para a proteção de grupos vulneráveis diante das tecnologias de reconhecimento facial”. Direitos Fundamentais & Justiça 16 (número especial): 145-167. https://dfj.emnuvens.com.br/dfj/article/view/1316/1065

Danesi, Cecília & Mario T. Jarrín. 2024. “Auditing Algorithms as a Way to Prevent Algorithmic Bias”. T20 Brasil Policy Briefhttps://t20brasil.org/media/documentos/arquivos/TF05_ST_05_Auditing_algorithms66e080b615311.pdf    

Dsouza, Viola S., Philip Hines, Jestina R. Kurian, Elstin A. Raj S., Angela Brand, Sarah Rickwood & Helmut Brand. 2024. “Ethical Governance of Artificial Intelligence in Healthcare: Balancing Innovation with Ensuring Ethical Integrity and Gender Equity”. T20 Brasil Policy Brief. https://www.t20brasil.org/media/documentos/arquivos/TF05_ST_05_Ethical_Governance66cf676c93645.pdf.

G20 Brasil. 2024. Declaração de Líderes do Rio de Janeiro. Rio de Janeiro. https://www.gov.br/planalto/pt-br/acompanhe-o-planalto/g20-rio-de-janeiro-leaders-em-portugues.pdf

Gillwald, Alison, Carla Rodrigues, Jai Vipra, Jamie Fuller & Mariana Rielli. 2024. “Equitable Data Governance in the Age of AI: A Data Justice Perspective”. T20 Brasil Policy Briefhttps://t20brasil.org/media/documentos/arquivos/TF05_ST_05_Equitable_Data_Gove66d5d7413a57e.pdf

Gurumurthy, Anita, Shreeja Sen & Mariana Rielli. 2024. “Private Algorithms and Public Interest: Overhauling the Trade Secrets Regime for Equitable AI Futures”. T20 Brasil Policy Brief. https://t20brasil.org/media/documentos/arquivos/TF05_ST_05_Private_Algorithms66cf69c5d2971.pdf

Japan. 2019. “G20 AI Principles”. Ministry of Foreign Affairs. https://www.mofa.go.jp/policy/economy/g20_summit/osaka19/pdf/documents/en/annex_08.pdf

Japan. 2023. “Ministry of Internal Affairs and Communication”. Hiroshima AI Process. https://www.soumu.go.jp/hiroshimaaiprocess/en/documents.html

Lara, J. Carlos & Carolina Rossini. 2024. “Enhancing Legal and Jurisdictional Interoperability for Artificial Intelligence: A Global South Perspective”. T20 Brasil Policy Briefhttps://www.t20brasil.org/media/documentos/arquivos/TF05_ST_05_Enhancing_Legal_and66ec322c8fc88.pdf.

Machado, Joana de Souza, Sergio M. C. A. Negri & Carolina F. R. Giovanini. 2020. “Nem invisíveis, nem visados: inovação, direitos humanos e vulnerabilidade de grupos no contexto da Covid-19”. Liinc em Revista 16 (2): e5367. https://doi.org/10.18617/liinc.v16i2.5367

Mantelero, Alessandro. 2022. Beyond Data Human Rights, Ethical and Social Impact Assessment in AI. The Hague: Springer.

Mantelero, Alessandro & Francesca Fanucci. 2024. “Governing AI: From Principles to Implementation in a Global World”. T20 Brasil Policy Briefhttps://t20brasil.org/media/documentos/arquivos/TF05_ST_05_Governing_AI_166f304ff71980.pdf

Mehrotra, Santosh, Sanjna Agarwal, Arpit Barman & Tuhinsubhra Giri. 2024. “Artificial Intelligence Spring: Implications on Labour Market”. T20 Brasil Policy Briefhttps://t20brasil.org/media/documentos/amehrorquivos/TF05_ST_05_Artificial_Intellig66cdcacc54191.pdf 

Mittelstadt, Brent. 2019. "Principles alone cannot guarantee ethical AI." Nature Machine Intelligence 1: 501-507. https://doi.org/10.1038/s42256-019-0114-4.

OECD. 2024. AI Principles. Organisation for Economic Co-operation and Development. OECD. AI Policy Observatory. https://www.oecd.org/en/topics/ai-principles.html

Oxford Analytica. 2024. “AI Global Surge Creates Environmental Paradox”. Emerald Expert Briefings, 6 de fevereiro de 2024. https://dailybrief.oxan.com/Analysis/DB285037/AI-global-surge-creates-environmental-paradox.

Prainsack, Barbara, Rohinton Medhora & Louise Holly. 2024. “Enacting a Solidarity-Based Approach to AI and Data Governance”. T20 Brasilhttps://www.t20brasil.org/media/documentos/arquivos/TF05_ST_05_Enacting_a_solidari66cf66c87d5b7.pdf.

Santos, Milton. 2000. Por uma outra globalização: do pensamento único à consciência universal. Rio de Janeiro: Editora Record.

Silva, Tarcísio. 2019. “Racismo algorítmico em plataformas digitais: microagressões e discriminação em código”. VI Simpósio Internacional LAVITS. https://lavits.org/wp-content/uploads/2019/12/Silva-2019-LAVITSS.pdf

Sarlet, Ingo Wolfgang & Gabrielle B. S. Sarlet. 2022. Separação informacional de poderes no Direito Constitucional brasileiro. São Paulo: Associação Data Privacy Brasil. https://www.dataprivacybr.org/wp-content/uploads/2022/09/DataPrivacy.-Separacao-Informacional-de-Poderes.-2022.pdf.

T20 Brasil. 2024a. T20 Brasil: Communiqué and Implementation Roadmaps. Rio de Janeiro: CEBRI, IPEA & FUNAG. https://t20brasil.org/en/communique.

T20 Brasil. 2024b. “Joint Statement from Engagement Groups to the G20 States on Artificial Intelligence”. São Luís Declaration T20 Brasil, 19 de setembro de 2024. https://www.t20brasil.org/en/news/82/sao-luis-declaration-a-joint-statement-from-engagement-groups-to-the-g20-states-on-artificial-intelligence.

Taylor, Linnet. 2022. “O que é justiça de dados? Conectando direitos digitais e liberdades globalmente”. In Construindo caminhos para a justiça de dados no Brasil: o papel das Defensorias Públicas na proteção de dados pessoais, Bruno Bioni et al. São Paulo: Editora Data Privacy Brasil. https://www.dataprivacybr.org/documentos/construindo-caminhos-para-a-justica-de-dados-no-brasil-o-papel-das-defensorias-publicas-na-protecao-de-dados-pessoais/

UNESCO. 2022. “Recommendation on the Ethics of Artificial Intelligence”. UNESDOC Digital Library. https://unesdoc.unesco.org/ark:/48223/pf0000381137.

UN. 2024a. “Governing AI for Humanity: Final Report”. United Nations AI Advisory Board. https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf

UN. 2024b. Global Digital Compact. https://www.un.org/global-digital-compact/sites/default/files/2024-09/Global%20Digital%20Compact%20-%20English_0.pdf

UN. 2024c. “Secretary-General's Remarks at the Opening Segment of the Summit of the Future Plenary”. United Nations, 22 de setembro de 2024. https://www.un.org/sg/en/content/sg/statement/2024-09-22/secretary-generals-remarks-the-opening-segment-of-the-summit-of-the-future-plenary-bilingual-delivered-scroll-down-for-all-english-and-all-french

Vieira, Gilberto. 2018. “Geração cidadã de dados: um fazer político”. Medium, 11 de setembro de 2018. https://medium.com/data-labe/gera%C3%A7%C3%A3o-cidad%C3%A3-de-dados-um-fazer-pol%C3%ADtico-c6b0450babfa.

Recebido: 6 de dezembro de 2024

Aceito para publicação: 11 de dezembro de 2024

Copyright © 2024 CEBRI-Revista. Este é um artigo em acesso aberto distribuído nos termos da Licença de Atribuição Creative Commons, que permite o uso irrestrito, a distribuição e reprodução em qualquer meio, desde que o artigo original seja devidamente citado.

PUBLICAES RELACIONADAS