Inteligência Artificial Generativa : riscos que ela representa no combate à desinformação

Justiça condena Gracyanne Barbosa por calote em empresa de Matão
6 de abril de 2023
CMS realiza entrega de lixeiras seletivas para a ETEC de Matão
6 de abril de 2023
Exibir todos

Inteligência Artificial Generativa : riscos que ela representa no combate à desinformação

Com avanços perceptíveis na qualidade dos conteúdos criados por ferramentas de inteligência artificial, imagens falsas como a do papa Francisco trajando um sobretudo branco de matelassê passaram a viralizar nas redes como se fossem reais.
Tanto a foto falsa do papa como outra que também viralizou, do ex-presidente americano Donald Trump sendo preso, foram criadas com o Midjourney, software que utiliza IA para gerar imagens realistas a partir de comandos de texto.
O episódio se juntou a uma série de outras questões que integram o debate sobre as ferramentas de IA, que podem contribuir para a criação e o compartilhamento de desinformação.
Para discutir essas e outras questões relacionadas ao tema, Aos Fatos consultou especialistas na tecnologia, que também forneceram dicas sobre como identificar textos e imagens criados artificialmente.
A INTELIGÊNCIA ARTIFICIAL
A inteligência artificial é uma tecnologia que busca simular a tomada de decisões e o comportamento humano para resolver problemas lógicos. A criação do termo é atribuída ao professor John McCarthy do departamento de matemática da Universidade Dartmouth, nos Estados Unidos, que usou a expressão em 1956 em um convite para um evento sobre automação.
Muito antes das ferramentas generativas que se popularizaram nos últimos anos, a IA já integrava o cotidiano das pessoas em mecanismos como:
*Corretores ortográficos e editores de texto;
*Tradutores de texto;
*Ferramentas de reconhecimento facial;
*Assistentes virtuais;
*Recursos de identificação de spam;
*Sistemas de recomendação de conteúdo (como em plataformas de streaming);
*Testes para o diagnóstico precoce de doenças como Alzheimer e Parkinson.

Dentre as diversas categorias de IA criadas, a mais popular atualmente é a IA Generativa — que leva esse nome, pois é capaz de gerar novas informações, como textos, imagens e obras de arte inéditas.
RISCOS QUE A IA GENERATIVA OFERECE NO CONTEXTO DE DESINFORMAÇÃO
“Temos muito trabalho a fazer em robustez e veracidade”, afirmou um dos criadores do ChatGPT, Sam Altman, em publicação no Twitter no ano passado que encorajava usuários a desconfiarem da ferramenta para consultas factuais.
Esse problema se tornou especialmente visível com o Galactica, modelo de IA lançado no ano passado pela Meta e retirado do ar em apenas três dias. Alimentada por artigos científicos e supostamente capaz de produzir conteúdo acadêmico, a ferramenta gerava conteúdo desinformativo e enviesado e chegou inclusive a inventar artigos acadêmicos que não existiam.
Para além da mera possibilidade de gerar respostas a partir de fontes duvidosas ou inexistentes por falhas tecnológicas, a IA Generativa também tem o potencial de disseminar desinformação, a depender da intenção do usuário. Em reportagem de 2019, especialistas consultados pelo jornal New York Times sinalizaram que, no futuro, as plataformas poderiam substituir humanos na distribuição de propaganda enganosa a serviço de governos, atuando de forma mais sutil e muito mais rápida.
Mesmo conteúdos à primeira vista inofensivos, como as fotos falsas do papa Francisco, podem esconder perigos. “Em uma situação que prejudique a reputação de uma pessoa ou em um contexto eleitoral pode gerar muitos problemas. Muitas vezes, nas bolhas sociais, alguns conteúdos falsos convincentes podem nunca ser desmentidos”, disse Lucas Lattari, professor de Computação no IFSudesteMG (Instituto Federal do Sudeste de Minas Gerais).
Deepfake.
Apesar de serem usadas na maior parte das vezes como ferramentas para gerar conteúdo humorístico, as deepfakes também são exploradas por seu potencial desinformativo. Em 2022, por exemplo, um vídeo em que o presidente da Ucrânia, Volodimir Zelenski, anuncia rendição às tropas russas foi publicado em um site de notícias ucraniano. O portal atribuiu posteriormente a ação a hackers.
Ainda que haja uma série de falhas técnicas que permitem identificar deepfakes atualmente, o potencial de aprimoramento automático do mecanismo pode se tornar um desafio. Como a ferramenta se força a gerar vídeos sempre em qualidade superior aos anteriores, as deepfakes podem se tornar, com o tempo, mais realistas e mais potencialmente enganosas.
Discriminação e questões éticas.
Para além da desinformação, ferramentas de IA generativa também têm sido usadas para disseminar preconceitos. Em janeiro, por exemplo, uma plataforma de áudio foi usada para fazer comentários racistas e homofóbicos com a voz de celebridades. Em 2016, um sistema da Microsoft saiu do ar após usuários ensinarem à IA informações racistas e sexistas.
Também há uma discussão sobre direitos autorais. As empresas criadoras de ferramentas de imagem, por exemplo, foram acusadas de treinar os algoritmos com obras de arte sem o consentimento de seus criadores. Em decisão recente, o Escritório de Direitos Autorais dos Estados Unidos sinalizou que nem todas as obras produzidas por IA estão protegidas por direitos autorais. No Brasil, o Inpi (Instituto Nacional da Propriedade Industrial) se manifestou contra a indicação de IAs como inventoras em pedidos de patente.
A geração de textos, imagens e vídeos inéditos também abre margem para que o conteúdo criado seja usado para fins escusos, como o aprimoramento de programas maliciosos por hackers e ações de lobby.
COMO IDENTIFICAR CONTEÚDOS GERADOS POR IA
Ainda que produzam conteúdos que, ao menos à primeira vista, parecem autênticos, as ferramentas de IA Generativa reproduzem algumas falhas que podem ajudar a atestar sua inautenticidade.
Textos gerados artificialmente costumam repetir palavras, possuir parágrafos demasiadamente longos ou apresentar problemas com fontes bibliográficas, que podem estar ausentes ou serem inseridas em contextos que não fazem sentido. Em alguns casos, também é possível que as ferramentas citem fontes e informações que não existem; por isso, vale checar cada um dos dados citados.
No caso de imagens, tanto Sartori quanto Lattari apontaram que as orelhas, mãos e rostos são elementos que as ferramentas ainda têm dificuldade em reproduzir. Por isso, é importante observar algumas características:
*Rostos borrados, semelhantes entre si ou com aspecto plastificado;
*Orelhas com formatos muito diferentes do rosto;
*Mãos com um número incorreto de dedos ou formatos anatômicos estranhos;
*Membros, como braços, com tamanhos diferentes.

Para identificar deepfakes, Sartori sugere observar a nitidez do rosto, a sincronização das falas e as sombras e as cores do vídeo. Segundo ele, as orelhas também são mantidas durante o processo de criação — ou seja, um rosto inserido em outro corpo terá orelhas diferentes da original. Já Lattari aponta que esse tipo de adulteração pode gerar problemas na textura e na tonalidade da pele, já que nem sempre a cor da região central do rosto coincide com a do restante da cabeça.
Há ainda programas que prometem identificar de maneira automática conteúdos criados por IA, como o AI detector, o GPTZero, o Originality.ai e o Mayachitra. As plataformas, no entanto, ainda não são 100% confiáveis.
É importante ressaltar que o aprimoramento constante dessas ferramentas pode fazer com que algumas dicas atuais sejam obsoletas no futuro. Por isso, “permanece a máxima de sempre pesquisar em outras fontes quando algum conteúdo incomum aparecer na internet e, em muitos casos, esperar antes de compartilhar algo duvidoso”, aconselha Lattari.
Fonte: Associated Press News/ G1/ Época Negócios/ Techtudo/ Tecmundo / Olhar Digital / Instagram/ Twitter/ Tecmasters/ The New York Times/ Poder 360/Veja/ Governo Federal/AOSFATOS.ORG

Deixe uma resposta