IA: avanço da tecnologia eleva risco de golpes, fraudes e desinformação

XV Curitiba
6 Min de leitura

Expansão de vídeos e imagens sintéticas exige novos protocolos de verificação e educação digital; aprenda como evitar golpes e fake news

A evolução acelerada da inteligência artificial na criação de imagens, vídeos e áudios vem redefinindo a produção e a circulação de informação no país. A capacidade de gerar conteúdos sintéticos de alta qualidade, antes restrita a laboratórios e grandes empresas, hoje está disponível ao público geral — um cenário que amplia riscos de golpes, fraudes e manipulação da opinião pública. Para Vinicius Reis, CTO da StaryaAI, o desafio principal está em manter a confiança social em um ambiente em que “o que se vê” já não é garantia de autenticidade.

O especialista afirma que a transformação é profunda e crescente. “A partir de 2023, a sofisticação dos modelos de geração e edição se intensificou, tornando mais difícil distinguir realidade e artifício”, avalia. Segundo ele, mudanças nos padrões de consumo e validação de informação serão inevitáveis para reduzir riscos à população, às empresas e às instituições democráticas. “Precisamos aprender a desconfiar de forma responsável”, reforça.

Para Reis, o avanço da IA é algo muito positivo, mas exige ação coordenada entre sociedade civil, empresas, governos e plataformas digitais. O especialista destaca que regulação, educação midiática e padrões técnicos robustos serão determinantes para preservar a integridade do ecossistema informacional. “Estamos diante de uma mudança estrutural na forma como produzimos e consumimos conteúdo. A IA amplia possibilidades, mas também exige responsabilidade. Se entendermos seus limites e adotarmos práticas de verificação mais rigorosas, conseguimos reduzir riscos sem frear a inovação”, ressalta.

A seguir, o especialista apresenta e comenta os principais pontos de atenção e orientações para evitar golpes e fake news:

  1. Imagens e vídeos como evidência: “A automação na criação de cenas altera a dinâmica de processos jurídicos, investigações jornalísticas e debates públicos. Se provas visuais podem ser fabricadas, seu peso histórico perde solidez. Sempre busque outras fontes além da imagem, como localização, registros, testemunhos. Uma prova visual sozinha já não basta”.
  2. Desinformação política e eleições: “Deepfakes e manipulações elevam o risco de interferência em períodos eleitorais. Protocolos de resposta rápida e comunicação oficial auditável tornam-se essenciais. Em época de eleição, desconfie do que surge de última hora. Conteúdo que aparece na véspera costuma ser o mais crítico para verificação”.
  3. Jornalismo, fact-checking e credibilidade: “Redações precisam equilibrar agilidade e rigor para evitar repercussão de conteúdos adulterados. A pressa não pode superar a checagem. Mesmo uma verificação básica de contexto já evita erros graves”.
  4. Golpes digitais e fraudes financeiras: “Identidades sintéticas, contratos falsos e comprovantes manipulados dificultam a identificação de fraudes. Nunca valide transações apenas por documentos enviados. Consulte sempre a fonte oficial, especialmente em operações de alto valor”.
  5. Reputação pessoal e danos à imagem: “Deepfakes íntimos e campanhas fabricadas podem causar danos irreversíveis. Se surgir um vídeo chocante envolvendo alguém, procure as fontes oficiais antes de reagir. Muitas vezes, o dano ocorre antes da checagem”.
  6. Regulação das plataformas digitais: “A ausência de padronização entre redes facilita a circulação de conteúdos de alto risco. Plataformas precisam de regras claras, mas o usuário também deve estar atento ao tipo de conteúdo que consome e compartilha”.
  7. Detecção, marcação e rastreabilidade: “Nenhuma tecnologia isolada garante autenticidade plena. Combinações de metadados, análise forense e rastreamento são mais eficazes. Ferramentas ajudam, mas não substituem o olhar crítico. A tecnologia não resolve tudo sozinha”.
  8. Educação midiática e cultura de checagem: “A mudança de comportamento do público é decisiva para reduzir desinformação. Antes de compartilhar, faça uma pausa. Um simples ‘vou conferir depois’ já evita a maior parte dos boatos”.
  9. Governança e responsabilidade dos criadores de IA: “Modelos mais poderosos exigem padrões mais rígidos de monitoramento. Quem desenvolve IA precisa assumir responsabilidade, mas o usuário também precisa entender os riscos de uso inadequado”.
  10. Impactos sociais do “nada é confiável”: “A percepção de que tudo pode ser manipulado pode levar ao cinismo e à erosão da confiança social. Desconfiar é saudável; desacreditar de tudo não. Busque fontes estáveis e históricas de credibilidade”.
  11. Segurança corporativa e compliance: “Empresas enfrentam golpes baseados em áudios e vídeos falsos de executivos. Nunca execute ordens urgentes apenas com base em áudio ou mensagem. Sempre valide por um segundo canal oficial”.
  12. Identidade digital e novos selos de confiabilidade: “O futuro da segurança deve incluir credenciais verificáveis e reputação em múltiplas camadas. Quanto mais sensível o conteúdo, maior deve ser a exigência de comprovação da identidade de quem enviou”.

 

 

 

Compartilhe o artigo