Menu Close
Escultura no formato de uma cabeça humana com a parte interna do crânio exposta, onde se vê engrenagens mecânicas no lugar do cérebro
Escultura de metal representando a interação do homem com a Inteligência Artificial, em exposição em Essen, na Alemanha: regulação da influência da IA, incluindo a criação de santuários livres da sua presença, é fundamental para proteger nossa capacidade cognitiva e privacidade. (AP Photo/Martin Meissner)

Regulamentação da Inteligência Artificial: possível, necessária e urgente

No clássico de ficção científica Hyperion, de Dan Simmons, de 1989, os protagonistas do romance estão permanentemente conectados a uma rede de inteligência artificial conhecida como “Datasphere”, que alimenta instantaneamente as informações diretamente em seus cérebros. Embora o conhecimento esteja disponível imediatamente, a capacidade de pensar por si mesmo é perdida.

Mais de 30 anos após a publicação do romance de Simons, o impacto crescente da IA em nossas habilidades intelectuais pode ser pensado em termos semelhantes. Para mitigar esses riscos, ofereço uma solução que pode conciliar o progresso da IA e a necessidade de respeitar e preservar nossas capacidades cognitivas.

Os benefícios da IA para o bem-estar humano são amplos e bem divulgados. Entre eles está o potencial da tecnologia para promover a justiça social, combater o racismo sistêmico, melhorar a detecção de câncer, e mitigar a crise ambiental.

No entanto, os aspectos mais obscuros da IA também estão ficando em evidência, incluindo o racismo, sua capacidade de aprofundar as disparidades socioeconômicas e manipular nossas emoções e nosso comportamento.

O primeiro código de conduta de IA do Ocidente?

Apesar dos riscos crescentes, ainda não há regras nacionais ou internacionais obrigatórias que regulamentem a IA. É por isso que a proposta da Comissão Europeia para uma regulamentação sobre inteligência artificial é tão relevante.

A proposta de Lei de IA da CE, cuja última versão foi aprovada pelos dois comitês do Parlamento Europeu no começo de setembro de 2023, examina os possíveis riscos inerentes ao uso da tecnologia e os classifica de acordo com três categorias: “inaceitável”, “alto” e “outro”. Na primeira categoria, as práticas de IA que seriam proibidas são aquelas que:

  • Manipulem o comportamento de uma pessoa de forma que cause ou possa causar danos físicos ou psicológicos a essa pessoa ou a outra pessoa.
  • Explorem as vulnerabilidades de um grupo específico de pessoas (por exemplo, idade, deficiências) de modo que a IA distorça o comportamento dessas pessoas e possa causar danos.
  • Avaliem e classifiquem pessoas (por exemplo, pontuação social).
  • Empreguem o reconhecimento facial em tempo real em espaços públicos para fins de fiscalização, exceto em casos específicos (por exemplo, ataques terroristas).

Na Lei de IA, as noções de riscos e danos “inaceitáveis” estão intimamente relacionadas. Esses são passos importantes e revelam a necessidade de proteger atividades específicas e espaços físicos da interferência da IA. Juntamente com minha colega Caitlin Mulholland, mostramos a necessidade de uma regulamentação mais forte sobre IA e reconhecimento facial para proteger os direitos humanos básicos, como a privacidade.

Isso é particularmente verdadeiro em relação aos recentes desenvolvimentos em IA que envolvem a tomada de decisões automatizadas nos campos judiciais e seu uso para o gerenciamento de migração. Os debates sobre ChatGPT e OpenAI também levantam preocupações sobre seu impacto em nossas capacidades intelectuais.

Santuários livres de IA

Esses casos demonstram preocupação com a implantação de IA em setores em que os direitos humanos, a privacidade e as habilidades cognitivas estão em jogo. Eles também apontam para a necessidade de espaços onde as atividades de IA devem ser fortemente regulamentadas.

Defendo que essas áreas podem ser definidas por meio do antigo conceito de santuários. Em seu livro “A Era do capitalismo de vigilância”, Shoshana Zuboff se refere prescientemente ao direito de santuário como um antídoto para o poder, levando-nos a um passeio por locais sagrados, igrejas e mosteiros onde comunidades oprimidas encontravam refúgio. Contra a disseminação da vigilância digital, Zuboff insiste no direito de refúgio por meio da criação de uma regulamentação digital robusta para que possamos desfrutar de um “espaço de refúgio inviolável”.

A ideia de “santuários livres de IA” não implica a proibição de sistemas de IA, mas uma regulamentação mais rigorosa das aplicações dessas tecnologias. No caso da Lei de IA da UE, isso implica uma definição mais precisa da ideia de dano. Entretanto, não há uma definição clara de dano na legislação proposta pela UE nem em nível dos estados-membros. Como argumenta Suzanne Vergnolle, uma possível solução seria encontrar critérios compartilhados entre os estados-membros europeus que descrevessem melhor os tipos de danos resultantes de práticas manipuladoras de IA. Os danos coletivos com base na raça e no histórico socioeconômico também devem ser considerados.

Para implementar santuários livres de IA, devem ser aplicadas normas que nos permitam preservar nossos danos cognitivos e mentais. Um ponto de partida consistiria na aplicação de uma nova geração de direitos - “neurorights” - que protegeria nossa liberdade cognitiva em meio ao rápido progresso das neurotecnologias. Roberto Andorno e Marcello Ienca sustentam que o direito à integridade mental - já protegido pelo Tribunal Europeu de Direitos Humanos - deve ir além dos casos de doença mental e abordar intrusões não autorizadas, inclusive por sistemas de IA.

Um manifesto para os santuários

De antemão, gostaria de sugerir o direito de “santuários livres de IA”. Ele engloba os seguintes artigos (provisórios):

  • O direito de não participar. Todos os indivíduos têm o direito de optar por não receber tipos de suporte de IA em áreas sensíveis que possam ser escolhidas durante o período de tempo que for decidido. Isso implica a não interferência completa do dispositivo de IA e/ou uma interferência moderada.
  • Sem sanções. Optar por não receber suporte de IA nunca acarretará nenhuma desvantagem econômica ou social.
  • O direito à determinação humana. Todos os indivíduos têm o direito a uma determinação final feita por uma pessoa humana.
  • Áreas e pessoas sensíveis. Em colaboração com a sociedade civil e com agentes privados, as autoridades públicas definirão áreas particularmente sensíveis (por exemplo, educação, saúde), bem como grupos humanos/sociais, como crianças, que não devem ser expostos/ou moderadamente expostos à IA intrusiva.

Santuários livres de IA no mundo físico

Até agora, os “espaços livres de IA” têm sido aplicados de forma desigual, de um ponto de vista estritamente espacial. Algumas escolas norte-americanas e europeias optaram por evitar telas nas salas de aula - o chamado movimento “low-tech/no-tech education”. Muitos programas de educação digital dependem de designs que podem favorecer o vício, enquanto as escolas públicas e com poucos recursos tendem a depender cada vez mais de telas e ferramentas digitais, o que aumenta a exclusão social.

Mesmo fora de ambientes controlados, como salas de aula, o alcance da IA está se expandindo. Para se defender, entre 2019 e 2021, uma dúzia de cidades dos EUA aprovou leis que restringem e proíbem o uso do reconhecimento facial para fins de aplicação da lei. No entanto, desde 2022, muitas cidades estão recuando em resposta à percepção do aumento da criminalidade. Apesar da legislação proposta pela CE, na França, as câmeras de vigilância por vídeo com IA monitorarão os Jogos Olímpicos de Paris em 2024.

Apesar de seu potencial para reforçar as desigualdades, a IA de análise facial está sendo usada em algumasentrevistas de emprego. Alimentada com os dados de candidatos que foram bem-sucedidos no passado, a IA tenderia a selecionar candidatos de origens privilegiadas e a excluir aqueles de origens diversas. Essas práticas devem ser proibidas.

Os mecanismos de busca na Internet baseados em IA também devem ser proibidos, pois a tecnologia não está pronta para ser usada nesse nível. De fato, como Melissa Heikkiläa aponta em um artigo da MIT Technology Review de 2023, “o texto gerado por IA parece confiável e cita fontes, o que pode ironicamente tornar os usuários ainda menos propensos a verificar novamente as informações que estão vendo”. Há também uma medida de exploração, pois “os usuários agora estão fazendo o trabalho de testar essa tecnologia gratuitamente”.

Permitir o progresso, preservando os direitos

O direito a santuários livres de IA permitirá o progresso técnico da IA e, ao mesmo tempo, protegerá as capacidades cognitivas e emocionais de todos os indivíduos. A possibilidade de optar por não usar a IA é essencial se quisermos preservar nossas habilidades de adquirir conhecimento e experiência à nossa maneira e preservar nosso julgamento moral.

No romance de Dan Simmons, um “cíbrido” renascido do poeta John Keats é desconectado da Datasphere e consegue resistir à tomada de controle das IAs. Esse ponto é instrutivo, pois também revela a relevância dos debates sobre a interferência da IA nas artes, na música, na literatura e na cultura. De fato, e juntamente com as questões de direitos autorais, essas atividades humanas estão intimamente ligadas à nossa imaginação e criatividade, e essas capacidades são principalmente a pedra angular de nossas habilidades de resistir e pensar por nós mesmos.

This article was originally published in English

Want to write?

Write an article and join a growing community of more than 182,900 academics and researchers from 4,948 institutions.

Register now