Portal Paraíba-PB

Informação com credibilidade!

Imagens geradas por IA movimentam a guerra de narrativas no conflito Israel x Hamas

Ícone Notícias

A guerra que está em curso no Oriente Médio, desencadeada no último dia 7 de outubro após os ataques do grupo terrorista palestino Hamas contra o Estado de Israel, vem se intensificando com o passar das semanas. O conflito, que completou um mês na última terça-feira (7), não está instalado somente no campo militar, ele também já alcançou a área da informação.

Nesse contexto, as redes
sociais se tornaram um palco para a disputa de narrativas, onde cada lado tenta
mostrar a sua versão dos fatos e sensibilizar a opinião pública mundial. É
neste ponto que entram as imagens geradas por Inteligência Artificial (IA), que
têm desempenhado um papel controverso neste conflito, já que elas estão sendo usadas
em alguns casos como ferramenta de propaganda para manipular a realidade e
criar falsas evidências.

Um exemplo disso é o caso de uma foto onde aparece um homem carregando várias crianças entre os escombros da cidade de Gaza. A imagem foi veiculada por diversos perfis pró-Palestina nas redes sociais, sempre acompanhada de textos que acusavam Israel de assassinar civis palestinos e não poupar nem sequer as vidas das crianças que residem no enclave de seus bombardeios.

Até mesmo o perfil oficial da embaixada da China na França chegou a compartilhar a imagem, de acordo com informações da Agência France-Presse (AFP). O autor dela é desconhecido. No entanto, por ser uma imagem sobre Gaza, é provável que tenha sido desenvolvida por pessoas que apoiam a “resistência palestina”.

Especialistas consultados pela
agência de checagens da France-Presse e pelo jornal francês France 24
disseram que essa imagem do homem caminhando em Gaza com crianças foi gerada
por meio de comandos inseridos em uma ferramenta de Inteligência Artificial.

“Esta imagem é quase certamente
gerada por IA”, disse Hany Farid, professor da Universidade da Califórnia e
especialista em análise forense digital, desinformação e análise de imagens à AFP.

Farid tem sido consultado por
diversos veículos de comunicação de todo o mundo nos últimos meses para
analisar imagens que podem ter sido criadas por IA.

“Além de nossos modelos [softwares desenvolvidos por ele para analisar imagens] classificar esta imagem como IA, há sinais reveladores nela que confirmam isso, como o braço deformado do adulto”, completou o professor.

Um outro exemplo é a imagem de um campo de refugiados israelenses que também foi veiculada por diversas contas nas redes sociais. Segundo análise do professor Farid para o jornal France 24, essa imagem também foi criada usando um comando em uma IA.

Existe ainda uma imagem de torcedores do Atlético de Madrid, clube de futebol da Espanha, levantando uma bandeira da Palestina no meio de um jogo em seu estádio no mesmo dia em que ocorreram os ataques terroristas em Israel. Conforme explicou o professor Farid à France 24, essa imagem também foi desenvolvida por uma IA.

Assim como essas imagens, diversas
outras também geradas por IA foram compartilhadas por milhares de usuários nas
redes sociais sem que houvesse uma verificação ou uma sinalização de que se
tratavam de imagens falsas. Tal movimento tem gerado confusão, desinformação e
manipulação da opinião pública sobre o conflito no Oriente Médio.

“O impacto da IA generativa
[no conflito] vai além da criação do conteúdo falso, ele também lança uma longa
sombra sobre o conteúdo que é real”, afirmou Farid em entrevista à Bloomberg.

Em entrevista ao jornal
americano The New York Times, o professor Farid destacou também a crescente
complexidade na detecção de imagens falsas sobre a guerra. Ele reafirmou seu
ponto abordado na Bloomberg, dizendo que a quantidade de imagens geradas
por IA tornou-se notavelmente “mais significativa” neste momento e isso está
contribuindo apenas para minar a confiança das pessoas nas informações verdadeiras
sobre a guerra.

“Bastam apenas algumas
[imagens falsas] para envenenar toda a informação verdadeira que existe sobre o
conflito”, disse Farid.

A questão das imagens geradas
por IA não é nova, mas ganhou mais relevância com o avanço da tecnologia e a
facilidade de acesso a ferramentas que permitem criar conteúdos falsos com
poucos cliques.

Layla Mashkoor, editora associada do think tank americano Atlantic Council, revelou em uma entrevista ao site Wired uma perspectiva intrigante sobre o uso da desinformação gerada por imagens da IA na guerra de Israel contra o Hamas.

Mashkoor observou que, em muitos casos, essa prática está sendo empregada por ativistas para angariar “torcida” e criar a ilusão no público de que um lado do conflito está contando com um apoio mais amplo da comunidade internacional neste momento.

Os deepfakes e a guerra

Outro risco apresentado neste
contexto de conflito é o de que as imagens geradas por IA sejam usadas para
criar deepfakes – que são vídeos falsos que alteram a fala, o rosto ou o
corpo de uma pessoa. Esses vídeos podem ser usados para criar falsas
declarações, confissões ou provas, que podem ter consequências graves para a
reputação, a segurança e levar até mesmo a uma escalada de uma guerra.

No contexto da guerra entre
Israel e o grupo terrorista Hamas, os deepfakes podem ser usados como
arma para criar falsas acusações, incitar a violência ou influenciar a opinião
pública.

Diante desse cenário, é
fundamental que as pessoas estejam atentas e críticas em relação às imagens que
consomem e compartilham nas redes sociais, especialmente sobre temas sensíveis
e complexos como os que estão relacionados com a guerra em curso no Oriente
Médio.

Algumas orientações repassadas
por especialistas, como o professor Farid, para identificar indícios que possam
mostrar se uma imagem foi gerada por IA ou não são: verificar sempre a fonte da
imagem e ver se ela vem de um site confiável, se tem créditos ou se tem algum
selo de verificação e comparar a imagem com outras para ver se há alguma
inconsistência ou diferença.

Além disso, é importante que as pessoas busquem também por informações sempre em fontes diversas e confiáveis, que apresentem diferentes pontos de vista e que tenham critérios de verificação e transparência, antes de compartilhar qualquer imagem sobre o conflito.

FONTE: Gazeta do Povo