Vigilância digital na fronteira: Federais utilizam IA para investigar mídia sociais

Out 27, 2023 | Imigração

Federais utilizam IA para investigar mídia sociais

Em uma era em que as impressões digitais são examinadas mais do que nunca, uma revelação recente expõe uma nova forma de vigilância na fronteira dos EUA. O Serviço de Imigração e Alfândega (ICE) supostamente contratou uma ferramenta com tecnologia de IA chamada GOST (Giant Oak Search Technology) para examinar publicações de mídias sociais consideradas “depreciativas” para os Estados Unidos. Essa descoberta mostra a conexão entre a tecnologia, as políticas de imigração e as questões de privacidade, gerando dúvidas sobre o uso de algoritmos pelo governo para avaliar os solicitantes de visto.

Principais pontos:

  1. GOST: IA de olhos nas mídias sociais:
    • GOST (Giant Oak Search Technology) é um sistema alimentado por IA que avalia publicações em mídias sociais para identificar conteúdo considerado “depreciativo” para os EUA. Os solicitantes de visto passam por um exame minucioso, pois o GOST atribui pontuações de mídia social com base na relevância percebida para sua missão.
  2. Sistema de pesquisa e classificação do banco de dados:
    • O GOST permite que os analistas pesquisem o banco de dados usando identificadores como nome, endereço, e-mail e cidadania. Ao selecionar um indivíduo, os analistas podem analisar imagens das contas de mídia social da pessoa, atribuir classificações e explorar conexões sociais por meio do “gráfico social”.
  3. Adotada e financiada pelo governo:
    • O GOST está em uso desde 2014 e foi adotado por vários órgãos governamentais, incluindo o Immigration and Customs Enforcement (ICE), o Customs and Border Protection (CBP), o Drug Enforcement Administration (DEA), o Departamento de Estado, a Força Aérea e o Bureau of the Fiscal Service. Só o ICE já pagou mais de US$ 10 milhões à Giant Oak Inc. desde 2017.
  4. Processo FOIA revela detalhes:
    • Uma ação judicial da Lei de Liberdade de Informação (FOIA) movida pela ACLU e pela ACLU do Norte da Califórnia revelou o uso do GOST pelos serviços de imigração e outros órgãos governamentais. A ação judicial esclarece a falta de transparência e responsabilidade na utilização de tais tecnologias pelo governo

Preocupações com privacidade e responsabilidade:

  1. Análise algorítmica e avaliação de risco:
    • Os críticos argumentam contra o uso de algoritmos utilizado pelo governo para avaliar publicações em mídias sociais e determinar quem é considerado “arriscado”. A falta de transparência nesses processos gera preocupações com relação à privacidade, à possível influência e à responsabilidade.
  2. Pedidos de transparência:
    • Patrick Toomey, vice-diretor do Projeto de Segurança Nacional da ACLU, enfatiza a necessidade de transparência. Ele afirma que o público merece uma explicação sobre como os sistemas governamentais determinam o risco e o que acontece com os indivíduos sinalizados por avaliações algorítmicas.
  3. Mudanças políticas e contexto histórico:
    • O governo Trump introduziu regras em 2019 que exigem que os solicitantes de visto divulguem detalhes de mídia social dos últimos cinco anos. O Departamento de Estado e o Departamento de Segurança Interna podem reter e compartilhar essas informações indefinidamente, inclusive divulgando-as a governos estrangeiros em determinadas circunstâncias.

À medida que o cenário digital evolui, também evolui a abordagem do governo à vigilância de fronteiras. O uso de ferramentas baseadas em IA, como o GOST, levanta questões importantes sobre o equilíbrio entre a segurança nacional, os direitos de privacidade e a necessidade de transparência na aplicação de tais tecnologias. Mantenha-se informado enquanto essa questão continua a se desenvolver na interseção de tecnologia e políticas de imigração.