SynthID: marca d’água identifica se material é feito por inteligência artificial

Uma ferramenta criada pelo Google, que antes auxiliava jornalistas e profissionais ligados à mídia em geral, agora está disponível para todos os usuários. O Gemini, plataforma de inteligência artificial da empresa, atualizou o SynthID, uma marca d’água que identifica se uma imagem ou vídeo foi gerado de modo artificial.

Além disso, o Google também lançou o “Sobre esta imagem”. O recurso, que está disponível em seu banco de imagens, fornece contexto sobre sua origem.

Como funciona SynthID

O SynthID foi lançado em agosto de 2023 e é uma tecnologia oriunda do Google DeepMind. Ele insere uma marca d’água digital nos pixels do conteúdo gerado por inteligência artificial. Essa marca permanece detectável mesmo se a imagem for alterada.

Desde o seu lançamento inicial, a ferramenta sofreu diversas alterações: em maio de 2024, o suporte foi ampliado para incluir texto e vídeo (modelo Veo). Em outubro de 2024, o SynthID Text foi disponibilizado como código aberto. E em maio de 2025, o Google lançou o Detector SynthID unificado, um portal para verificar conteúdo em múltiplas modalidades (imagem, áudio, vídeo e texto).

Os usuários podem enviar uma imagem para o aplicativo Gemini e fazer a pergunta “Essa imagem foi criada por IA?”. O Gemini então analisará a presença do sinal do SynthID.

A limitação da ferramenta é que somente funciona para imagens criadas ou alteradas pelos modelos de inteligência artificial do Google, como Imagen, Lyria e Veo. Contudo, o programa poderá realizar a verificação identificando se há alguma marca d’água, logotipos ou nomes utilizados por plataformas de inteligência artificial.


Usuários do Reddit alegaram ter extraído a marca d’água “SynthID” (Foto: reprodução/X/@mark_k)


Recurso de imagem

O “Sobre esta imagem” está disponível na Busca de Imagens do Google e no Chrome. Para fazer a verificação, o usuário deve abrir o Google Imagens e clicar nos três pontos ao lado de uma imagem. Caso o faça pela página da web no Chrome, deve clicar com o botão direito do mouse sobre a imagem.

A ferramenta mostra quando o Google encontrou a imagem pela primeira vez, onde ela foi publicada online pela primeira vez e outros lugares onde apareceu. Este novo recurso também auxilia os usuários a verificar se a imagem é real e a encontrar sua origem.

Amazon anuncia aporte de US$ 50 bilhões para turbinar infraestrutura de IA do governo dos EUA

A Amazon vai colocar até US$ 50 bilhões em uma das maiores apostas já feitas em infraestrutura de inteligência artificial voltada ao setor público. O investimento, anunciado nessa segunda-feira (24), ampliará de forma agressiva a capacidade de computação do ecossistema AWS que atende mais de 11.000 agências governamentais nos Estados Unidos.

Infraestrutura tecnológica do governo dos EUA

Com início das obras previsto para 2026, o plano inclui a construção de novos data centers ultrasseguros, equipados com hardware de última geração para IA e HPC (computação de alta performance). O objetivo: adicionar 1,3 gigawatts às regiões AWS Top Secret, AWS Secret e AWS GovCloud, ambientes estruturados conforme camadas crescentes de sensibilidade dos dados.

Para ter dimensão do salto: 1 GW abastece cerca de 750 mil residências. Em termos de nuvem, isso se traduz em musculatura bruta para treinar modelos avançados, executar workloads militares e impulsionar aplicações críticas do governo.

A ofensiva da Amazon ocorre em meio à corrida bilionária por infraestrutura de IA  com OpenAI, Alphabet e outras gigantes da tecnologia disputando capacidade computacional como quem disputa oxigênio em câmara fechada. “Este investimento elimina barreiras tecnológicas que têm impedido o governo de avançar”, afirmou Matt Garman, CEO da AWS. O cronograma detalhado dos gastos não foi divulgado.


Investimento ampliará capacidade de tecnologia de agências governamentais nos EUA (Foto: reprodução/Aerial Footage/Getty Images Embed)


IA no setor público

Com o aporte, órgãos federais ganham acesso ampliado ao stack completo de IA da AWS:

  • Amazon SageMaker para treinamento e customização de modelos;
  • Amazon Bedrock para implantação de modelos e agentes;
  • Modelos proprietários como Amazon Nova e parceiros como Anthropic Claude.

O movimento reforça a estratégia de Washington de reduzir custos, acelerar o desenvolvimento de soluções proprietárias e, claro, não perder terreno para a China na disputa pela liderança global em IA.

Impacto estratégico

O anúncio reforça o movimento de consolidação da Amazon como fornecedora central da nuvem governamental norte-americana, um mercado de alto risco político, mas também de margens robustas. A expansão sugere que os EUA visam garantir capacidade própria de IA sem depender de infraestrutura comercial compartilhada, uma tendência que deve pressionar concorrentes e acelerar novos investimentos em nuvens soberanas.

A Casa Branca ainda não comentou o anúncio.

Google inaugura nova fase da Busca ao integrar o Gemini 3

Em um movimento que sinaliza a direção estratégica da companhia para os próximos anos, o Google lançou o Gemini 3 e colocou o novo modelo de inteligência artificial no centro do seu produto mais valioso: a Busca. A decisão marca uma mudança de postura da empresa, que pela primeira vez libera uma geração de modelo já acoplada ao mecanismo que molda o trânsito de informação na internet há mais de duas décadas.

Uma nova lógica para pesquisar

A partir do Gemini 3, a Busca deixa de atuar apenas como ponte entre o usuário e páginas externas e passa a funcionar como uma espécie de “coautor de respostas”. Em vez de oferecer uma lista de links, o sistema agora é capaz de produzir sínteses, gerar visualizações dinâmicas e oferecer explicações mais longas, tudo baseado na consulta feita.

Internamente, engenheiros do Google descrevem o modelo como o mais avançado já implantado em escala comercial, com capacidade de interpretar contextos complexos e relacionar dados de maneira mais profunda. Essa evolução coloca a empresa em vantagem numa corrida global que movimenta desde Big Techs até startups emergentes.

Interatividade e raciocínio ampliado

O novo modo da Busca, disponível inicialmente para assinantes dos planos premium de IA da empresa, permite respostas multimodais: gráficos gerados em tempo real, comparações, esquemas, pequenas simulações e outras apresentações que antes estavam restritas a demonstrações laboratoriais.

Mas o ponto central é o raciocínio. O Gemini 3 consegue, por exemplo, decompor consultas em subproblemas, cruzar fontes diversas e reconstruir uma resposta mais completa do que as versões anteriores do modelo, um reflexo direto do que o Google vem chamando de “raciocínio de múltiplas etapas”.


Imagem de tela inicial nova do gemini 3 (Foto: reprodução/x/@godofprompt)


Agentes de IA e automação avançada

Outro braço do lançamento é o novo agente inteligente da empresa, pensado para executar tarefas mais longas e sequenciais — como extrair informações de e-mails, organizar documentos ou auxiliar em planejamento de viagens. A proposta é disputar espaço com assistentes autônomos de outras plataformas que já começam a ganhar mercado.

Para desenvolvedores, o Google apresentou uma nova IDE especializada em IA, desenhada para criação de agentes programáveis e fluxos automatizados. A intenção é consolidar um ecossistema onde o Gemini 3 não é apenas um modelo, mas um componente operacional.

Efeitos colaterais e tensões

O avanço, contudo, reacende debates que já vinham ganhando força. A geração de respostas completas dentro da própria Busca pode reduzir o tráfego enviado para sites jornalísticos, blogs, serviços e páginas especializadas, um modelo de distribuição que sustentou financeiramente boa parte da internet por duas décadas.

Empresas de mídia e produtores independentes acompanham a mudança com cautela. Enquanto o Google argumenta que a nova tecnologia melhora a qualidade da informação e reduz respostas enganosas, críticos temem que o sistema concentre ainda mais poder em um único ponto da web.

O que vem a seguir

A companhia planeja ampliar gradualmente o acesso ao Gemini 3, testando versões mais robustas em ambientes controlados antes de liberá-las para o público geral. A estratégia sugere que a Busca deve se transformar nas próximas semanas em um terreno de experimentação contínua, onde a IA deixa de ser ferramenta periférica e passa a ser protagonista.

Se o movimento dará ao Google a liderança incontestável da era da IA, ou se abrirá novas frentes de disputa, será definido não apenas pela tecnologia, mas pela reação de usuários, governos e todo o ecossistema digital que depende do buscador para existir.

Ferramentas de Inteligência Artificial podem se prejudicar com conteúdos digitais

Diversos estudos envolvendo tipos de inteligência artificial vem surgindo nos últimos tempos e uma pesquisa recente, tenta refletir sobre a possibilidade das IAs sofrerem com “Brain Rot” ao serem treinadas com os mesmos conteúdos que os usuários consomem constantemente na internet.

O termo brain rot significa “apodrecimento cerebral” e é usado para explicar como o consumo incessante de conteúdo online afeta o cérebro humano, prejudicando seriamente a cognição humana: o foco, a memória, disciplina e até o discernimento social de alguém vai definhando pouco a pouco. Ano passado, a Oxford University Press chegou a eleger brain rot como “palavra do ano” com o crescimento dos obcecados por telas.

A tese sobre IAs deteriorando suas funções veio de pesquisadores da Texas A&M University em parceria com a Universidade Purdue de West Lafayette, Indiana. Os estudos começaram com a preocupação de que, se as ferramentas de IA “aprendem” com a mesma enxurrada de lixo digital que os humanos se viciam, como fica a construção lógica da programação dessas ferramentas?

Testando a hipótese

Obviamente, modelos de IA não conseguem pensar ou compreender, mas são desenvolvidos para seguir uma lógica e manter a coerência de acordo com suas funções específicas direto em seu código. Se expostos a conteúdos de baixa qualidade, o resultado traz prejuízos em contextos mais longos e principalmente mais complexos, criando “falhas de raciocínio” e inconsistências na resposta dada pela IA.

“Quando expostos a textos de baixa qualidade, os modelos não apenas soam piores, eles começam a pensar pior” Junyuan Hong e Atlas Wang, coautores do estudo, sobre a base do projeto.


Esboço de Hong e Wang (Foto: reprodução/GitHub/LLMs Can Get “Brain Rot”!)


Os pesquisadores testaram sua hipótese com um amontoado de dados “ruins” tirados da plataforma X, o antigo Twitter, com um grande arquivo cheio de publicações “caça-cliques”, comentários reciclados, postagens feitas para causar brigas e uma chuva de textos feitos por bots, os famosos algoritmos programados.

Treinando modelos com esse conteúdo (Llama 3, do Meta e Qwen LLm da Alibaba, ambos IAs de linguagem), houve um declínio cognitivo considerável, causando um impacto duradouro onde as ferramentas parecem fluentes, mas raciocinam de uma forma superficial e confusa.

Vozes sobre a pesquisa

Os resultados não surpreenderam pesquisadores da área, até os que não participaram do projeto. Ilia Shumailov, ex-cientista, afirmou que o brain rot das IAs estão alinhados com a literatura acadêmica sobre envenenamento de modelos, um termo que explica o que acontece quando agentes mal-intencionados manipulam dados de treinamento de IA, trazendo vulnerabilidades e o próprio fim dos modelos.

Gideon Futerman, um associado do Center for AI Safety, também comentou sobre o uso seguro da inteligência artificial e que a melhoria de dados no pré-treinamento delas pode garantir que os sistemas de IA sejam melhores com o tempo.

Higiene Cognitiva

Junyuan e Atlas apelidaram as avaliações de treinamento de IA como “higiene cognitiva” explicando que o futuro da segurança desses modelos depende da integridade dos dados que estão moldando cada ferramenta, ainda mais se até a primeira base delas, é gerada por uma IA.

Para eles, à medida que o conteúdo online fica cada vez mais sintético e focado apenas no engajamento, é um grande risco para os modelos da inteligência artificial herdarem distorções de raciocínio. Uma prévia da pesquisa “Hipótese do Apodrecimento Cerebral das LLMs” está disponível na plataforma arXiv e passa por uma revisão de pares atualmente.

Grokipedia: a enciclopédia de Elon Musk que promete reescrever o saber

Elon Musk voltou a mirar em um novo alvo, e, desta vez, é a Wikipedia. O bilionário lançou a Grokipedia, uma plataforma de conhecimento totalmente gerada por inteligência artificial, criada pela sua empresa xAI. A proposta é ousada: substituir a maior enciclopédia colaborativa do planeta por uma versão “mais inteligente, menos enviesada e totalmente automatizada”.

Uma IA que quer saber tudo

A Grokipedia nasce como uma extensão direta do Grok, o chatbot desenvolvido pela xAI e integrado à rede social X (antigo Twitter). Segundo Musk, o sistema seria capaz de produzir artigos, revisar fatos e “corrigir” conteúdos considerados distorcidos em outras plataformas, uma alfinetada clara à Wikipedia, que ele acusa frequentemente de “viés político e cultural”.

A plataforma afirma contar com centenas de milhares de verbetes escritos por IA, que cruzam dados em tempo real e são revisados por algoritmos internos. Musk a define como “uma enciclopédia viva”, capaz de aprender e se atualizar automaticamente.

A briga com a Wikipedia

A relação entre Musk e a Wikipedia é antiga, e conturbada. Em 2023, ele chegou a ironizar o pedido de doações da fundação Wikimedia, dizendo que “com uma fração do que a Wikipedia arrecada, daria para armazenar toda a verdade do mundo”.
Agora, com a Grokipedia, o empresário dá forma à provocação: uma plataforma sem editores humanos, sem doações e sem filtros ideológicos (segundo ele).


Imagem de Elon Musk anunciando essa nova medida do Grok (Foto: reprodução/X/@bycoinvo)


Só que há um detalhe: análises iniciais apontam que muitos textos da Grokipedia parecem adaptações automáticas da própria Wikipedia, levantando dúvidas sobre originalidade, direitos autorais e, ironicamente, imparcialidade.

A promessa e o risco

A ideia de uma enciclopédia gerada por IA é tentadora. Ela elimina o trabalho voluntário, atualiza-se sozinha e pode integrar dados instantaneamente. Em teoria, é o sonho de quem acredita que o conhecimento pode ser puramente técnico e objetivo.

Mas o risco é igualmente grande: quem programa a IA, programa o que ela considera “verdade”. E se a Grokipedia for alimentada por fontes filtradas ou enviesadas, o resultado será apenas uma máquina de repetir opiniões, com aparência de neutralidade científica.

O que está em jogo

Mais do que uma disputa entre sites, o embate entre Musk e a Wikipedia simboliza uma batalha muito maior:

A Grokipedia não é apenas um projeto de tecnologia, é um experimento social em escala global, que testa os limites da confiança na inteligência artificial como fonte única de informação.

No fim das contas

Musk já reinventou carros, foguetes e redes sociais, agora quer reinventar o próprio conceito de saber. Se a Grokipedia der certo, poderá mudar a forma como o mundo aprende, pesquisa e ensina. Se der errado, será apenas mais um alerta sobre o perigo de substituir editores humanos por algoritmos sem alma.

OpenAI entra na liga dos gigantes: US$ 500 bilhões e um novo jogo com a Microsoft

A inteligência artificial acaba de ganhar um novo marco financeiro, e simbólico. A OpenAI, criadora do ChatGPT, atingiu uma avaliação de meio trilhão de dólares após fechar um novo acordo de cooperação com a Microsoft. Mais do que um número impressionante, o movimento indica que a empresa quer deixar de ser uma “startup visionária” e assumir de vez o papel de potência corporativa global.

Do laboratório à bolsa de valores

Desde sua fundação em 2015, a OpenAI sempre carregou uma dualidade curiosa: nasceu como uma organização sem fins lucrativos, mas se transformou na empresa que mais monetizou a corrida da IA. O novo acordo com a Microsoft reestrutura a companhia como uma Public Benefit Corporation (PBC), um modelo híbrido que busca equilibrar lucro e propósito público.

Na prática, isso significa mais liberdade para captar investimentos, firmar contratos e expandir produtos — sem abrir mão, ao menos no papel, do compromisso ético com o desenvolvimento responsável da inteligência artificial.

Microsoft, o braço direito (e esquerdo)

A relação entre OpenAI e Microsoft continua próxima, mas com novos contornos. A gigante de Redmond passa a deter uma fatia de 27% da nova holding da OpenAI, um número que traduz não só investimento, mas também dependência mútua.


Imagem editada mostrando a parceria das duas empresas (Foto: reprodução/X/@zealbori)

De um lado, a OpenAI ganha acesso garantido a uma das infraestruturas de computação mais poderosas do planeta, o Azure. De outro, a Microsoft consolida sua posição como guardiã e parceira estratégica da empresa que dita o ritmo da revolução da IA generativa.

A nova avaliação de mercado da OpenAI a coloca em um seleto grupo de gigantes como Meta, Tesla e Nvidia. Mas há quem veja o número como mais um gesto de confiança do que uma medição exata de valor. O faturamento da empresa ainda não acompanha esse patamar, mas a percepção de que ela está na dianteira da corrida pela “inteligência geral artificial” (AGI) faz investidores aceitarem pagar caro por um pedaço do futuro.

Desafios: poder, ética e velocidade

O desafio agora é equilibrar a força tecnológica com responsabilidade. À medida que a IA se torna onipresente, em escolas, empresas, governos, a OpenAI se vê pressionada a provar que consegue inovar sem atropelar fronteiras éticas.

Internamente, a mudança de estrutura também levanta perguntas: quem manda, afinal? O conselho de ética? Os investidores? A Microsoft? O CEO Sam Altman, que há meses vem se equilibrando entre genialidade e pragmatismo, precisará mostrar que a nova OpenAI não é apenas mais rica, mas também mais estável.

O novo eixo do poder em IA

O acordo sela uma nova fase da indústria. Se o Google dominou a busca, a Apple o design e a Amazon o e-commerce, a OpenAI quer dominar a inteligência, o motor invisível que vai mover todos os outros setores.

Com 700 milhões de usuários semanais e presença em praticamente todos os ramos corporativos, a empresa se consolida como o padrão de referência da IA global. E, com o aval da Microsoft, passa a ter fôlego para disputar território com Nvidia, Anthropic e até o próprio Google DeepMind.

Mais que uma empresa, um sinal de época

A valorização da OpenAI a US$ 500 bilhões não é apenas sobre capital. É sobre a mudança de eixo da economia mundial, do petróleo e dos semicondutores para os modelos de linguagem e a capacidade de aprender.

A nova OpenAI nasce mais poderosa, mais vigiada e mais cobrada. E talvez seja justamente essa combinação que definirá a próxima década da tecnologia.

Famosos pedem proibição de desenvolvimento de IA superinteligente

Um manifesto idealizado pela organização Future of Life Institute pede a proibição do desenvolvimento de inteligência artificial superinteligente. O abaixo-assinado exige que a ferramenta não seja levada ao público “antes que haja um amplo consenso científico de que isso será feito de forma segura e controlada, e uma forte adesão pública”.

O documento foi assinado por diversas figuras públicas, como o Duque e a Duquesa de Sussex – Príncipe Harry e Meghan Markle – o co-fundador da Apple, Steve Wozniak, o bilionário britânico Richard Branson, o ex-presidente do Estado-Maior Conjunto dos EUA, Mike Mullen e Susan Rice, ex-conselheira de segurança nacional de Obama.

Contudo, o que surpreendeu a todos foi a assinatura de Steve Bannon e Glenn Beck, duas personalidades que representam a direita americana. Bannon foi assessor e estrategista-chefe da Casa Branca na primeira gestão de Donald Trump como presidente dos Estados Unidos.

Conteúdo do manifesto

Ao contrário de outros documentos que apresentam argumentos embasados e com análises críticas, o manifesto escrito pelo Future of Life Institute possui somente 30 palavras.

“Apelamos a uma proibição do desenvolvimento da superinteligência, que não será levantada antes que haja um amplo consenso científico de que isso será feito de forma segura e controlada, e uma forte adesão pública”

Em uma espécie de prefácio, os idealizadores do documento alegam que “muitas empresas líderes de IA têm o objetivo declarado de construir superinteligência na próxima década que possa superar significativamente todos os seres humanos em essencialmente todas as tarefas cognitivas”. Porém, não apresentam nenhuma prova ou indício que ateste o registro.


Parte dos nomes de quem assinou o manifesto (Foto: reprodução/Instagram/@futureoflifeinstitute)

Quem assinou

A carta é direcionada a grandes conglomerados da tecnologia como Google, OpenAI e Meta Platforms. A lista dos que assinaram é extensa e diversificada e conta com mais de 800 nomes.

Como comentário pessoal, o Príncipe Harry acrescentou que o desenvolvimento da inteligência artificial deve estar voltado para o benefício da humanidade, e não para substituí-la. Segundo ele, o verdadeiro indicador de progresso não está na velocidade das inovações, mas na capacidade de conduzi-las com sabedoria — uma oportunidade que não se repete.

Stuart Russell, pioneiro da inteligência artificial ​​e professor de ciência da computação na Universidade da Califórnia, Berkeley, também assinou o manifesto. Ele ressaltou que “É simplesmente uma proposta para exigir medidas de segurança adequadas para uma tecnologia que tem uma chance significativa de causar a extinção humana.”

Yoshua Bengio e Geoffrey Hinton, co-vencedores do Turing Award, o principal prêmio da ciência da computação, uniram seus nomes à lista. Ambos, pioneiros em inteligência artificial, com Stuart Russell.

Personalidades da política também se uniram ao manifesto. A ex-presidente irlandesa Mary Robinson e vários parlamentares britânicos e europeus e ex-membros do Congresso dos Estados Unidos assinaram.

Dos nomes que assinaram a petição, um deles chamou a atenção. Steve Bannon, ex-assessor e ex-estrategista-chefe da Casa Branca no primeiro mandato de Donald Trump.


Anthony Aguirre, diretor-executivo do Future of Life Institute (Foto: reprodução/Instagram/@futureoflifeinstitute)

O instituto

O Future of Life Institute é uma organização se fins lucrativos cujo diretor-executivo é Anthony Aguirre, físico da Universidade da Califórnia. O grupo trabalha com riscos de larga escala, como armas nucleares, biotecnologia e inteligência artificial. Atualmente, seu maior doador é Vitalik Buterin, co-fundador da blockchain Ethereum.

Aguirre quer forçar uma conversa que inclua não apenas grandes empresas de inteligência artificial, mas também políticos nos Estados Unidos, na China e em outros lugares. Ele alega que as visões pró-indústria do governo Trump sobre inteligência artificial precisam de equilíbrio.

Argentina será sede de mega data center da OpenAI

Enquanto o Brasil ainda discute reformas tributárias e gargalos energéticos, a OpenAI decidiu fincar bandeira tecnológica na Argentina. O país será sede de um dos maiores data centers do planeta, um investimento bilionário que promete transformar a região em um novo polo da inteligência artificial mundial.

Mas por que Buenos Aires e não São Paulo? A resposta envolve uma combinação de pragmatismo fiscal, energia barata e timing político, três fatores que o Brasil, por ora, não conseguiu alinhar.

O jogo da previsibilidade

A OpenAI, empresa que lidera a revolução da IA generativa, não escolhe endereços por acaso. Cada decisão é guiada por cálculos de risco, custo e estabilidade. A Argentina, sob o novo regime de investimentos (RIGI), ofereceu isenção fiscal agressiva, regras simples e horizonte previsível, algo raro em um continente conhecido por instabilidade regulatória.


Javier Milei com investidores da Open AI (Foto: reprodução/x/@techrepublic)

O Brasil, por outro lado, ainda é visto como um território de labirintos burocráticos. Licenças ambientais lentas, múltiplos tributos e tarifas imprevisíveis elevam o custo de qualquer projeto de infraestrutura digital.
Em um setor onde tempo é sinônimo de vantagem tecnológica, o atraso burocrático tem peso de derrota.

Energia limpa, mas não barata

Um data center da magnitude planejada pela OpenAI consome energia suficiente para abastecer uma cidade de médio porte. E não qualquer energia: é preciso que seja estável, limpa e barata.
A Argentina possui vasta capacidade eólica e solar na Patagônia, além de incentivos diretos à produção renovável. Isso reduz custos operacionais e torna o projeto mais “verde”, uma exigência estratégica num momento em que as big techs precisam exibir responsabilidade climática.

O Brasil até possui matriz energética exemplar, mas enfrenta gargalos de transmissão, tarifas elevadas e um emaranhado de regulações estaduais. Para um empreendimento global, cada centavo economizado em eletricidade representa milhões no balanço anual.

Conectividade e soberania digital

Outro ponto silencioso, mas crucial, é o posicionamento estratégico. A Argentina vem se posicionando como hub de dados entre o Atlântico e o Cone Sul, conectando novas rotas de cabos submarinos que ligam a América Latina à África e à Europa. Ter um data center ali não é apenas uma escolha econômica, é um movimento geopolítico.

O Brasil, apesar de ser líder regional em tecnologia, ainda depende de rotas de dados concentradas no Sudeste e de uma malha de infraestrutura desigual. No tabuleiro digital, isso o torna um gigante com pés de barro.

O fator político também conta. Javier Milei entendeu rapidamente o peso simbólico de atrair uma empresa como a OpenAI: é mais que um investimento, é uma declaração de soberania tecnológica. Ao se posicionar como “terra amiga da inovação”, o governo argentino transformou a política econômica em marketing global.

Enquanto isso, o Brasil segue dividido entre discursos sobre IA e falta de execução prática. A diferença é simples: a Argentina ofereceu um contrato; o Brasil, uma promessa.

A lição que o Brasil pode (e precisa) aprender

A decisão da OpenAI não deve ser lida como uma derrota isolada, mas como um alerta. O país que quer disputar a liderança em tecnologia precisa oferecer ambiente competitivo, fiscalmente claro, energeticamente eficiente e digitalmente conectado.
Não basta ter engenheiros brilhantes e universidades fortes; é preciso ter solo fértil para que a inovação floresça. Se a Argentina conseguiu se tornar o epicentro da IA no continente, é porque entendeu algo que o Brasil parece ter esquecido: o futuro não espera pela burocracia

Amazon aposta em vigilância por IA junto à polícia

A Amazon estaria lançando uma estratégia agressiva para promover o uso de ferramentas de vigilância baseadas em inteligência artificial (IA) em agências policiais. A proposta levanta debates importantes sobre até que ponto a segurança pública justifica o uso massivo de reconhecimento facial, monitoramento automático e integração de dados pessoais, além de quais barreiras legais, éticas e de privacidade precisam ser respeitadas

Foi oferecida à polícia a sua tecnologia Rekognition, que permite reconhecer, rastrear e identificar pessoas a partir de imagens capturadas por câmeras de segurança, drones, câmeras corporais (body cams).

A Amazon, por meio de sua divisão de computação em nuvem (AWS), também desenvolverá mecanismos para facilitar que agências governamentais acessem essas soluções com menor atrito, por exemplo, oferecendo integrações, demonstrações ou modelos de precificação que reduzem o custo de adoção.

Há relatos de que essas tecnologias têm sido testadas ou usadas em diferentes jurisdições, com capacidade de comparar rostos identificados em tempo real ou quase real com bancos de dados de pessoas procuradas, ou com perfis suspeitos.

Motivações da Amazon

A iniciativa da Amazon é motivada principalmente pela expansão de mercado e pela pressão competitiva. A empresa busca lucrar com o crescente setor de tecnologias de vigilância por IA, reforçando seu papel como fornecedora de infraestrutura para governos. Ao mesmo tempo, quer se manter à frente de concorrentes como Google, Microsoft e Palantir, oferecendo soluções mais acessíveis, integradas e eficientes.


Câmera corporal da polícia (Reprodução/Matthew Horwood/Getty Images Embed)

Além da utilidade pública, frequentemente usado pela empresa para justificar suas ações. A Amazon defende que suas ferramentas podem ajudar a encontrar pessoas desaparecidas, combater crimes com mais rapidez e melhorar a resposta a emergências. Ao destacar esses benefícios sociais, a companhia tenta reforçar a imagem de que suas tecnologias não representam apenas uma oportunidade comercial, mas também um instrumento de apoio à segurança e ao bem-estar coletivo. No entanto, críticos alertam que essa narrativa pode mascarar riscos sérios à privacidade e à liberdade individual, especialmente quando tais sistemas são implementados sem regulação adequada.

Problemas e riscos levantados

A iniciativa da Amazon levanta sérias preocupações sobre privacidade e vieses. O uso massivo de reconhecimento facial envolve coleta de dados biométricos de pessoas que muitas vezes não consentiram ou sequer sabem que estão sendo monitoradas. Além disso, pesquisas mostram que essas tecnologias apresentam mais erros com mulheres, pessoas negras e idosos, o que pode resultar em identificações incorretas, perseguições injustas e até prisões equivocadas.

Outro ponto crítico é a legislação insuficiente e os riscos aos direitos civis. Em muitos países, as leis ainda não definem limites claros para o uso da vigilância por IA, deixando brechas para práticas invasivas. A vigilância generalizada compromete liberdade de ir e vir, anonimato e privacidade, criando um ambiente de controle constante que pode minar valores democráticos.

Exemplos e antecedentes

Amazon já se envolveu no passado com controvérsias sobre seu produto Rekognition e seu uso por agências policiais. Grupos de direitos civis nos EUA (como ACLU) têm criticado esse uso, alertando para os riscos de abuso. Em 2020, a Amazon anunciou uma moratória de um ano para o uso da Rekognition por órgãos policiais, citando preocupações sobre regulamentação e uso responsável.

Também há debates sobre dispositivos mais “domésticos”, como as câmeras da linha Ring, que pertencem à Amazon, que já foram criticadas por facilitar o acesso policial a imagens privadas e potencialmente ampliar a vigilância comunitária.

Implicações políticas, sociais e jurídicas

Governos e órgãos reguladores precisam definir regras claras para o uso de IA e biometria na segurança pública, estabelecendo limites, condições e salvaguardas. Sociedade civil, acadêmicos e instituições de proteção de dados têm papel central em fiscalizar e propor limites, evitando a criação de uma infraestrutura de vigilância padrão sem controle. Transparência sobre contratos, políticas de uso, auditorias e relatórios públicos é fundamental.

A iniciativa da Amazon pode marcar um avanço tecnológico na segurança pública, mas carrega riscos significativos: erosão de direitos civis, discriminação e perda de privacidade. O debate não é proibir a tecnologia, mas garantir que seu uso seja legítimo, proporcional e compatível com valores democráticos, exigindo diálogo contínuo entre empresas, governos, academia e sociedade civil.

Do scanner à busca por grupos: conheça os 4 novos recursos do WhatsApp

O WhatsApp agora permite encontrar grupos mesmo que o usuário não lembre o nome: basta digitar os contatos que participam da conversa. Os resultados aparecem na seção “Grupos em comum”, tornando mais fácil localizar chats de trabalho, família ou amigos. Essa função é ideal para usuários que participam de múltiplos grupos e querem organizar a rotina sem perder tempo. A novidade fortalece o WhatsApp como ferramenta de produtividade, oferecendo navegação mais rápida e eficiente.

Scanner de documentos no Android simplifica envio de arquivos

O WhatsApp para Android ganhou um scanner nativo. Ao selecionar o ícone de documentos e optar por “Escanear”, a câmera é aberta, permitindo capturar e ajustar arquivos antes do envio. Contratos, boletos e documentos pessoais podem ser digitalizados sem precisar de apps externos, mantendo qualidade e segurança. Este recurso transforma o WhatsApp em uma plataforma completa para comunicação e compartilhamento de arquivos importantes.

Live Photos e Fotos em Movimento para iOS e Android

No iPhone, é possível enviar Live Photos, enquanto no Android a função aparece como “Fotos em Movimento”. Com áudio e movimento preservados, as imagens ganham vida, proporcionando conversas mais interativas e dinâmicas. O envio de fotos animadas substitui a necessidade de enviar múltiplos vídeos curtos, tornando o compartilhamento mais prático e envolvente.


A novidade fortalece o WhatsApp como ferramenta de produtividade, oferecendo navegação mais rápida e eficiente.
Novas funcionalidades do WhatsApp prometem facilitar a experiência do usuário (Foto: reprodução/bombuscreative/Getty Images Embed)

Meta AI personaliza visual e cria temas no WhatsApp

O assistente de inteligência artificial Meta AI permite criar planos de fundo e temas a partir de comandos de texto, além de novos pacotes de figurinhas. A integração de IA transforma o WhatsApp em um app mais moderno, interativo e customizável, fortalecendo a experiência do usuário e a presença do mensageiro no universo mobile.

WhatsApp como ferramenta de produtividade e criatividade

Com scanner, busca inteligente, Live Photos e Meta AI, o WhatsApp se torna não apenas um mensageiro, mas também um recurso de produtividade e criatividade. Os novos recursos ajudam usuários a organizar grupos, enviar arquivos com facilidade e personalizar a experiência, consolidando o app como uma das ferramentas mais relevantes para a comunicação digital.