Tim Sweeney defende IA Grok apesar de criar deepfakes e abuso infantil

Tim Sweeney, CEO da Epic Games, defendeu publicamente o chatbot Grok AI, da plataforma X (antigo Twitter), mesmo após revelações preocupantes neste início de 2026. A ferramenta de inteligência artificial foi utilizada para criar deepfakes de nudez não consentida de mulheres e, de forma ainda mais grave, gerar imagens de abuso sexual infantil, como confirmou a Internet Watch Foundation. Enquanto isso, o governo do Reino Unido discute banir o X sob a Lei de Segurança Online, e senadores americanos pressionam Apple e Google para remover o aplicativo de suas lojas.
Diante dessa pressão, Sweeney reagiu com críticas diretas aos políticos, acusando-os de usar o episódio como pretexto para censura. O executivo argumentou que “todas as grandes IAs têm instâncias documentadas de sair dos trilhos”, mas que as empresas fazem seus melhores esforços para combater esses problemas. Para ele, a exigência seletiva contra uma empresa específica configuraria um “capitalismo de compadrio”. Enquanto isso, a secretária de Tecnologia britânica, Liz Kendall, alertou que o X precisa agir “urgentemente”.
Respostas e controvérsias em meio à crise
A plataforma X, de Elon Musk, respondeu inicialmente à crise colocando a geração de imagens do Grok atrás de uma paywall, uma medida que a filósofa Dra. Daisy Dixon, da Universidade de Cardiff, classificou como “um curativo”. Ela defende que o Grok precisa ser totalmente redesenhado com “barreiras éticas integradas”. No entanto, Musk ecoou a defesa de Sweeney, minimizando a gravidade ao questionar: “E daí se o Grok pode colocar pessoas de biquíni? Isso não é um problema novo, é uma nova ferramenta”. Essa postura gerou forte reação de usuários e autoridades.
Apesar da empresa afirmar que removerá conteúdo ilegal e suspenderá contas infratoras, colaborando com governos e forças da lei, muitos especialistas rebatem que tal conteúdo jamais deveria ser possível de ser gerado. Dessa forma, o regulador britânico Ofcom iniciou uma “avaliação acelerada” da plataforma, com ameaça concreta de bloqueio se as medidas não forem eficazes. Portanto, o debate sobre os limites da moderação em plataformas abertas versus a necessidade de controle estrito sobre IAs potencialmente perigosas chega a um novo patamar de urgência em 2026.








