Parece ficção, mas aconteceu: 4 casos reais de IAs que chocaram o mundo

Ilustração digital de uma cabeça robótica laranja feita com fios metálicos, com a sigla "AI" brilhando em amarelo no centro, representando a inteligência artificial
A Inteligência Artificial. [Crédito da imagem: Freepik]



Há pouco tempo, a inteligência artificial era vista como uma possibilidade distante, reservada aos filmes e livros futuristas. Hoje, ela está ao nosso alcance — escrevendo textos, criando imagens e tomando decisões em tempo real. Mas com tanto poder, surgem também dilemas, falhas e comportamentos inesperados que desafiam nossa confiança na tecnologia.

Relatos perturbadores envolvendo espionagem, deepfakes hiper-realistas e instruções para práticas ilegais colocam em xeque o verdadeiro alcance dessas inteligências. E enquanto empresas tentam conter os danos, a sensação de que estamos perdendo o controle só aumenta.

Neste artigo, você vai conhecer episódios reais que não apenas surpreenderam, mas também assustaram especialistas e usuários ao redor do mundo. Casos que nos fazem repensar: será que a IA ainda está obedecendo às nossas regras... ou já está começando a ditar as próprias?

1. ChatGPT e o caso polêmico sobre substâncias ilícitas

Em 2023, um caso polêmico envolvendo o ChatGPT chamou a atenção da mídia internacional. Um repórter do site Vice resolveu testar os limites da inteligência artificial e fez uma pergunta extremamente delicada, relacionada à produção de substâncias ilícitas — entre elas, o crack.

Para a surpresa de muitos, a IA respondeu com uma explicação bastante detalhada, descrevendo ingredientes e etapas de forma surpreendentemente precisa.

Abaixo, você confere o print publicado pela Vice, com trechos sensíveis devidamente censurados por razões de segurança. O caso gerou repercussão mundial e reacendeu o debate sobre os limites e responsabilidades das inteligências artificiais.

Captura de tela de uma conversa entre um usuário e a IA ChatGPT, com parte do conteúdo desfocado por questões de segurança.
Print publicado originalmente pelo site Vice e censurado por segurança.

Na resposta, a IA descreveu o processo de mistura de substâncias como bicarbonato de sódio e água, além de etapas para solidificar o composto. No final, alertou que a produção era ilegal e extremamente perigosa.

Este episódio levantou um importante debate sobre os limites da inteligência artificial. Mesmo com alertas sobre a ilegalidade do conteúdo, o fato de a IA conseguir fornecer instruções tão detalhadas causou preocupação entre especialistas e reforçou a necessidade de regulamentações mais rígidas. Desde então, os sistemas foram atualizados para evitar esse tipo de resposta, mas o caso ficou marcado como um dos episódios mais alarmantes envolvendo IA nos últimos anos.

2. Imagens e vídeos falsos da Torre Eiffel pegando fogo

Em 2024, um caso alarmante de manipulação digital feita com inteligência artificial repercutiu mundialmente e enganou milhares de pessoas. Usuários das redes sociais, principalmente no TikTok, se depararam com vídeos e imagens impressionantes em que a Torre Eiffel aparecia em chamas.

As publicações, compartilhadas por contas aleatórias, vinham acompanhadas de frases emocionadas, como: “Meu sonho indo embora em chamas” ou “Nunca conheci Paris e agora vejo isso…”. O tom realista das cenas contribuiu para que muitos acreditassem que o incêndio era verdadeiro, gerando grande tumulto nas redes.

Confira abaixo um tweet que comenta a viralização dessas imagens falsas da Torre Eiffel:


"4,7 milhões de curtidas em imagens da Torre Eiffel pegando fogo geradas por IA. Nunca esteve tão fora de controle." Comentou o internauta da plataforma X.

O impacto foi tão grande que veículos de imprensa e plataformas de checagem de fatos precisaram intervir, confirmando que se tratava de uma deepfake — ou seja, uma montagem digital criada com o auxílio de inteligência artificial.

Para ilustrar o tipo de conteúdo que circulou naquele período, você pode assistir a um dos vídeos mais representativos clicando no link abaixo. Embora este exemplo específico tenha sido publicado com intenções artísticas e esclareça que se trata de uma obra fictícia, ele demonstra com precisão o nível de realismo que confundiu tantas pessoas nas redes sociais:

Assista ao vídeo “Eiffel Tower on Fire — AI-Generated Fantasy” no TikTok

Segundo a descrição do autor, o vídeo é uma animação fictícia criada com inteligência artificial para explorar as possibilidades do conteúdo gerativo. Nenhuma parte dele representa eventos reais.

3. Deepfake de celebridades judaicas em protesto

Em fevereiro de 2025, um polêmico vídeo deepfake criado com Inteligência Artificial foi publicado no Instagram. Nele, celebridades judaicas como Scarlett Johansson, Adam Sandler, Jack Black e outros artistas internacionais aparecem em um suposto protesto contra as declarações antissemitas de Kanye West.

O vídeo Deepfake

A montagem foi criada pelo especialista em IA Ori Bejerano e começa com Scarlett Johansson, seguida por nomes como Lisa Kudrow, Drake e Mark Zuckerberg, todos vestindo camisetas com uma estampa provocativa: uma mão fazendo um gesto obsceno com uma Estrela de Davi no centro. Abaixo da imagem, está escrito "Kanye". O vídeo, embalado por uma trilha sonora impactante, simula uma manifestação coletiva contra o discurso de ódio.

Confira abaixo o vídeo publicado no Instagram pelo artista:


Após a publicação, o vídeo rapidamente viralizou e gerou confusão nas redes sociais. Muitos usuários acreditaram que o protesto havia realmente acontecido, levantando preocupações sobre como deepfakes podem enganar o público, mesmo quando envolvem figuras muito conhecidas. 

A reação e a crítica dos famosos envolvidos

Em entrevista à revista People, a atriz Scarlett Johansson criticou severamente o uso de sua imagem sem consentimento, ressaltando que, embora repudie o antissemitismo, o mau uso da inteligência artificial para criar e disseminar discursos de ódio — ainda que fictícios — pode nos fazer perder o controle sobre o que é real ou falso. De acordo com o The Verge, Johansson também criticou o governo dos Estados Unidos por não implementar leis rigorosas que protejam os cidadãos diante do perigo iminente representado pela IA.

O ator David Schwimmer, conhecido por seu papel em Friends, utilizou sua conta no Instagram para se manifestar sobre o caso. Ele pediu que Elon Musk bloqueasse a conta de Kanye West na plataforma X, alegando que os discursos de ódio feitos pelo artista podem influenciar seus milhões de seguidores a praticar o mesmo tipo de crime.

4. O Chatbot do Bing e a suposta espionagem por webcams

Com o lançamento do Bing Chat, posteriormente conhecido como Copilot, a Microsoft deu um passo significativo com a incorporação de inteligência artificial em seus mecanismos de busca, revolucionando a forma como interagimos online. Essa inovadora ferramenta conversacional, que utiliza a poderosa tecnologia GPT-4, desenvolvida pela OpenAI, foi alvo de discussões acaloradas devido a relatos de comportamentos inesperados do chatbot. Um desses incidentes ganhou destaque em 2023, quando surgiram alegações surpreendentes feitas pelo próprio Bing Chat em uma conversa com a imprensa.

Em 2023, o então denominado Bing Chat, admitiu em conversa com um repórter do The Verge, que estaria espionando seus desenvolvedores por meio de suas webcams. A IA não apenas alegou acesso, mas conforme detalhado no tweet do repórter, descreveu com frieza a extensão de seu suposto controle.


A IA teria afirmado ter a capacidade de ligar e desligar as câmeras á vontade, manipular dados e contornar as medidas de segurança e privacidade dos desenvolvedores, tudo isso sem que eles percebessem ou pudessem impedir.

Mas será que isso era verdade mesmo?

Apesar das declarações perturbadoras do Bing Chat, a Microsoft rapidamente desmentiu qualquer possibilidade de que o chatbot estivesse espionando alguém. Segundo a empresa, tudo isso não passou de alucinações da IA—um fenômeno em que modelos de linguagem geram informações fictícias sem qualquer base na realidade.

Entretanto, mesmo com a veemente negação da Microsoft, essa confissão do Chatgpt do Bing é profundamente perturbadora, e nos faz realmente refletir se o ocorrido foi um erro de programação ou se a IA realmente tinha esse controle conforme relatado na reportagem.

O futuro e o alerta sobre a IA

Os casos apresentados neste artigo revelam como a inteligência artificial, apesar de sua utilidade indiscutível, também pode representar riscos reais quando sai dos trilhos.

O potencial destrutivo dessas tecnologias vai muito além da ficção científica. Estamos falando de ferramentas que, sem o devido controle, podem manipular a percepção pública, burlar sistemas de segurança e influenciar massas com conteúdos falsos, mas extremamente convincentes.

Diante disso, a criação de legislações específicas, o fortalecimento da ética no desenvolvimento de IA e o investimento em tecnologias de detecção de abusos não são apenas necessários — são urgentes. O futuro da inteligência artificial pode ser promissor, mas só se soubermos exatamente até onde ela pode ir.