Fraudes com IA já assustam até o CEO da OpenAI
Sam Altman se diz aterrorizado com golpes de voz e vídeo criados por inteligência artificial. Veja os riscos e como se proteger.
TECNOLOGIA


O avanço da inteligência artificial (IA) tem impressionado o mundo com soluções criativas, automações poderosas e aplicações em praticamente todos os setores da economia. No entanto, nem tudo são flores. O próprio CEO da OpenAI, Sam Altman, uma das figuras mais influentes da atualidade no campo da IA, fez um alerta grave e preocupante durante um evento com o Federal Reserve, o banco central dos Estados Unidos: as tecnologias de IA já representam um risco iminente para o sistema financeiro global.
Altman foi direto ao ponto. Segundo ele, o uso de tecnologias de clonagem de voz e geração de imagens falsas (os chamados deepfakes) está alcançando um nível tão alto de sofisticação que ameaça a segurança de instituições financeiras que ainda utilizam métodos como autenticação por voz. Ele chegou a usar a palavra “aterrorizante” para descrever o cenário atual.
Neste artigo, vamos detalhar o que foi dito por Sam Altman, por que esse alerta é tão relevante, quais são os riscos reais para o sistema financeiro e o que pode ser feito para evitar que a IA se torne uma ferramenta de fraude em massa.
Um aviso urgente de quem entende do assunto
Durante o evento fechado com representantes do Federal Reserve, Sam Altman não mediu palavras:
“Há instituições financeiras que ainda permitem a movimentação de grandes somas de dinheiro apenas com autenticação por voz. Isso é uma insanidade diante do que a IA já é capaz de fazer hoje.”
Essa declaração, feita diante de autoridades do alto escalão financeiro americano, ecoou rapidamente entre especialistas em segurança digital. Altman afirma que quase todos os métodos de verificação de identidade hoje existentes já foram superados pela inteligência artificial, restando apenas a velha e tradicional combinação de login e senha como forma ainda minimamente segura de autenticação.
A preocupação de Altman não é teórica. Já existem relatos documentados de golpes financeiros cometidos com vozes sintéticas e vídeos falsificados. A tendência, segundo ele, é de aumento drástico desses casos nos próximos meses, já que ferramentas de clonagem de voz e vídeo estão ficando cada vez mais acessíveis — e fáceis de usar por criminosos comuns.
O risco das fraudes com IA: por que o momento é crítico?
A tecnologia de inteligência artificial evoluiu a passos largos, especialmente nos últimos dois anos. Modelos de linguagem como o ChatGPT e sistemas de geração de mídia, como o Sora (da própria OpenAI), permitiram que computadores sintetizassem vozes humanas, criassem vídeos hiper-realistas e até imitassem pessoas com precisão assustadora.
Esses recursos, quando caem em mãos erradas, tornam-se armas poderosas para fraudes. Entre os riscos mais graves, destacam-se:
Golpes com clonagem de voz: criminosos podem clonar a voz de uma pessoa e fazer ligações fingindo ser ela. Em alguns casos, já conseguiram enganar bancos, familiares e até empresas.
Deepfakes em chamadas de vídeo: vídeos falsos extremamente realistas estão sendo usados para enganar funcionários de instituições e validar transações.
Manipulação de áudios e vídeos de líderes políticos e empresariais, criando falsas declarações que podem afetar o mercado e gerar pânico.
Acesso indevido a contas bancárias por meio de autenticação biométrica vulnerável.
O que mais preocupa Altman é o fato de que as instituições financeiras ainda não se adaptaram à nova realidade digital, continuando a depender de métodos de verificação ultrapassados.
O que Sam Altman propôs?
Além de alertar, Sam Altman também sugeriu algumas medidas urgentes:
Fim imediato da autenticação por voz em bancos e plataformas financeiras.
Revisão de protocolos de segurança em empresas, com a substituição de métodos vulneráveis por soluções mais robustas.
Parcerias com governos e entidades reguladoras para definir um novo padrão global de segurança digital.
Investimentos em criptografia avançada e autenticação multifator baseada em dispositivos físicos ou biometria segura.
Educação pública e treinamento de equipes para reconhecer sinais de fraude envolvendo IA.
Altman se mostrou aberto ao diálogo com o Federal Reserve e outras entidades mundiais para desenvolver uma resposta coordenada aos riscos da IA.
Por que esse alerta veio agora?
Especialistas apontam que o momento do alerta de Altman não é por acaso. O ano de 2025 marca a consolidação de modelos de IA multimodal, capazes de processar voz, texto, imagem e vídeo em tempo real. Isso significa que a IA não só pode escrever um e-mail falso como também simular uma videoconferência inteira com um CEO falso — tudo isso de forma quase perfeita.
Além disso, o uso da IA por cibercriminosos tem aumentado. Casos de golpes com deepfakes já ocorreram na Europa, nos EUA e no Brasil. Em um exemplo amplamente divulgado, uma empresa transferiu mais de R$ 4 milhões após seu executivo “aparecer” em vídeo pedindo a transação — mas tudo havia sido falsificado com IA.
A diferença agora é que as ferramentas para isso estão ao alcance de qualquer pessoa com acesso à internet, inclusive por meio de aplicativos gratuitos. Isso amplia drasticamente a superfície de risco e exige uma reação imediata dos setores público e privado.
O que pode ser feito: ações para prevenir fraudes com IA
O alerta de Altman é um chamado para ação em múltiplos níveis. Abaixo, listamos algumas iniciativas que podem (e devem) ser adotadas para mitigar riscos:
Para bancos e empresas
Substituir autenticação por voz por métodos mais seguros.
Implementar autenticação multifator (2FA ou 3FA).
Adotar sistemas de detecção de deepfake em vídeos e áudios.
Atualizar políticas internas de segurança digital e capacitação de funcionários.
Para o governo
Criar leis específicas contra fraudes com uso de IA.
Estabelecer padrões de segurança mínimos para serviços financeiros.
Promover campanhas públicas de conscientização.
Para o usuário comum
Desconfiar de ligações ou vídeos solicitando transferências de dinheiro.
Evitar compartilhar informações pessoais em redes sociais.
Utilizar aplicativos de autenticação confiáveis.
Atualizar senhas com frequência e evitar repeti-las.
Estamos diante de uma nova era de ameaças digitais?
Sim. A inteligência artificial abriu portas para inovações incríveis, mas também criou um terreno fértil para novos tipos de crimes digitais. A fala de Sam Altman é um sinal de que nem mesmo os criadores das IAs se sentem totalmente seguros quanto ao uso descontrolado dessas ferramentas.
O que está em jogo vai muito além de contas bancárias. Trata-se da confiança em sistemas, instituições e até na própria realidade. Se não soubermos distinguir o que é real do que foi criado por uma IA, corremos o risco de mergulhar em um caos informacional e financeiro.
O Brasil está preparado?
Infelizmente, não. Embora algumas fintechs e bancos digitais estejam investindo em segurança de ponta, muitas instituições brasileiras ainda usam sistemas frágeis de autenticação. Isso torna o país um alvo potencial para fraudes com IA, principalmente em períodos sensíveis como eleições, eventos esportivos ou crises financeiras.
O momento exige atenção redobrada de autoridades, empresas e usuários comuns. A tecnologia está avançando mais rápido que a capacidade de regulação — e isso pode custar caro se medidas não forem tomadas agora.
Fontes
Este conteúdo foi inspirado e baseado em informações publicadas pela Digital Trends, além de relatos de veículos como AP News, Windows Central e Business Insider.
Veja também:
Starlink Mini vale a pena? Veja prós e contras do novo modelo portátil
WhatsApp com IA: veja o novo recurso que usa inteligência artificial
Escova de massagem inteligente da Xiaomi surpreende com sensores e app
FAQ
O que Sam Altman disse sobre a IA?
Altman alertou que a IA já é capaz de burlar sistemas de autenticação por voz, o que representa um enorme risco para o sistema financeiro. Ele classificou a situação como "aterrorizante".
Como a IA pode ser usada em fraudes?
Por meio de clonagem de voz, deepfakes em vídeo e outras técnicas, criminosos podem simular identidades e enganar pessoas, empresas e instituições financeiras.
Quais são os métodos de autenticação mais seguros hoje?
A autenticação multifator (2FA), senhas fortes e biometria segura ainda são os métodos mais confiáveis. Autenticação por voz já não é segura.
O Brasil corre risco com esse tipo de golpe?
Sim. Muitas instituições no Brasil ainda não estão preparadas para fraudes com IA. O país precisa acelerar a adoção de medidas de cibersegurança.
Como posso me proteger de fraudes com IA?
Use senhas fortes, desconfie de contatos incomuns, evite fornecer informações por telefone ou redes sociais e mantenha seus dispositivos sempre atualizados.