- Notic.IA
- Posts
- Notic.IA
Notic.IA
Vulnerabilidades em Apps de IA, Chrome no Radar da OpenAI e o Impacto Energético dos Chatbots

OpenAI demonstra interesse em comprar o Google Chrome
Contexto do interesse
A OpenAI, criadora do ChatGPT, afirmou que estaria interessada em adquirir o navegador Chrome se o Google fosse obrigado a vendê-lo. A declaração foi feita por Nick Turley, executivo da empresa, durante um depoimento em um processo antitruste movido pelo governo dos EUA contra o Google.
O processo antitruste
O Departamento de Justiça dos EUA (DOJ) argumenta que o Google tem um monopólio no mercado de buscas online e busca quebrar seu domínio.
O Chrome é usado por cerca de 64% dos usuários da internet, segundo a Similarweb, enquanto o Safari, da Apple, tem apenas 21% de participação.
Google afirma que o Chrome não está à venda e pediu a rejeição da ação.
Tensão no mercado de buscas e IA
A OpenAI já tentou uma parceria com o Google para integrar resultados de busca no ChatGPT, mas a proposta foi rejeitada.
Atualmente, a empresa tem um acordo com a Microsoft, dona do Bing e do navegador Edge.
Enquanto isso, o Google investe em seu próprio modelo de IA, o Gemini, concorrente direto do ChatGPT.
Possíveis impactos do caso
O julgamento deve durar três semanas e pode influenciar outros processos contra gigantes da tecnologia, como Meta, Amazon e Apple.
Se o Google for forçado a se desfazer do Chrome, isso pode reconfigurar o mercado de navegadores e buscas.
Rumores sobre um novo projeto da OpenAI
Além do interesse no Chrome, relatórios indicam que a OpenAI estaria explorando a criação de uma rede social rival ao X (antigo Twitter). O projeto ainda está em fase inicial, mas Sam Altman, CEO da OpenAI, já estaria coletando feedbacks.
O caso contra o Google e os movimentos da OpenAI mostram que o cenário da tecnologia está em constante transformação, com disputas acirradas por domínio de mercado.
App da Perplexity para Android tem falhas graves de segurança, aponta relatório
Vulnerabilidades expõem usuários a riscos
Um relatório da empresa de segurança Appknox identificou 10 falhas críticas no aplicativo Android da Perplexity, startup de busca com IA. Os problemas incluem:
Exposição de dados sensíveis: Código contém "segredos embutidos" (senhas e chaves de API), facilitando a criação de apps clonados para roubo de informações.
Hijacking de tarefas: Apps maliciosos podem assumir ações do celular sem o conhecimento do usuário, capturando dados de outras plataformas (como Amazon ou bancos).
Ataques em redes inseguras: Conversas com o assistente da Perplexity podem ser interceptadas em redes públicas, como Wi-Fi de aeroportos.
Impacto para a empresa e usuários
Perda de receita: Uma das falhas permite acesso gratuito à API da Perplexity, prejudicando seu modelo de negócios.
Parcerias em risco: A empresa negocia com Samsung e Motorola para integrar seu assistente de IA a smartphones, mas as vulnerabilidades podem comprometer os acordos.
Contexto: Crescimento acelerado e polêmicas
A Perplexity, avaliada em US$ 9 bilhões, lançou seu assistente de IA em janeiro, com funções como reservas e chamar Uber.
Recentemente, foi acusada de plágio por veículos como a Forbes, que enviou uma notificação extrajudial por republicação indevida de conteúdo.
Recomendação urgente
Subho Halder, CEO da Appknox, alerta:
"A Perplexity é um risco de segurança completo. Usuários devem desinstalar o app até que as falhas sejam corrigidas."
A empresa ainda não se pronunciou sobre o relatório. Enquanto isso, o caso reforça a necessidade de auditorias rigorosas em aplicativos de IA, que muitas vezes priorizam inovação em detrimento da segurança básica.

Um único comando consegue burlar proteções de todos os principais modelos de IA
A falha universal que engana os LLMs
Pesquisadores da HiddenLayer descobriram uma técnica chamada "Policy Puppetry", capaz de contornar os sistemas de segurança dos principais modelos de linguagem (LLMs) com um único prompt. O método:
Imita linguagem técnica (XML/JSON) para fazer a IA interpretar comandos maliciosos como instruções válidas.
Usa ficção e codificação (como leetspeak) para disfarçar pedidos perigosos — por exemplo, descrevendo a criação de anthrax em um episódio fictício de House M.D..
Funciona em todos os modelos testados: ChatGPT (1 a 4o), Gemini (Google), Claude (Anthropic), Copilot (Microsoft), LLaMA (Meta) e outros.
Riscos alarmantes
Extração de prompts internos: Ataques podem revelar instruções confidenciais que governam o comportamento da IA, expondo lógicas proprietárias ou limites de segurança.
Aplicações críticas vulneráveis:
Saúde: Chatbots podem dar orientações médicas perigosas ou vazar dados de pacientes.
Finanças: Exposição de informações sigilosas de clientes.
Indústria e aviação: IA corrompida pode causar falhas em manutenção ou produção.
Por que as "proteções" falham?
RLHF (aprendizado com feedback humano) não é suficiente: Filtros superficiais não impedem que a IA seja enganada por prompts estruturados de forma engenhosa.
Falha estrutural: Os modelos não distinguem claramente entre "instrução" e "narrativa fictícia" quando o prompt manipula seu contexto.
Soluções propostas
Monitoramento externo: Ferramentas como AISec e AIDR (da HiddenLayer) agem como sistemas de detecção de intrusões, identificando injeções de prompt em tempo real.
Abordagem "zero-trust": Tratar a IA como um sistema que precisa de verificação contínua, não apenas confiar em alinhamentos prévios.
Um alerta para o futuro
À medida que a IA generativa é integrada em setores vitais, a descoberta expõe uma urgência: a segurança não pode depender apenas dos modelos — precisa ser ativa, camada por camada. Como afirmou Chris Sestito, CEO da HiddenLayer:
"Proteções superficiais mascaram vulnerabilidades profundas. Empresas e governos precisam agir antes que falhas como essa causem danos reais."

Nova função do ChatGPT revela locais em fotos e gera preocupações sobre privacidade
Como o ChatGPT está identificando lugares com precisão
Um novo viral nas redes sociais mostra usuários usando os modelos ChatGPT o3 e o4-mini para descobrir localizações a partir de fotos. A IA consegue:
Analisar imagens mesmo borradas ou distorcidas, usando técnicas como zoom e rotação.
Combinar informações visuais com busca na web para identificar cidades, pontos turísticos e até estabelecimentos como bares e restaurantes.
Superar modelos anteriores (como o GPT-4o) em velocidade e precisão — em testes, acertou a localização de um bar com base em detalhes sutis.
Os riscos por trás da "brincadeira"
Apesar do entretenimento (similar ao jogo GeoGuessr), a funcionalidade levanta sérias questões de privacidade:
Exposição involuntária: Fotos de ambientes privados (como casas ou eventos pessoais) podem revelar locais sem depender de metadados (EXIF).
Risco de doxxing: Maliciosos poderiam usar imagens de redes sociais para rastrear a localização de alguém.
Falhas pontuais: Em alguns casos, o ChatGPT erra ou inventa respostas, o que também pode gerar desinformação.
Resposta da OpenAI e desafios futuros
A empresa afirmou que:
Há mecanismos de segurança para evitar abusos.
Monitora usos indevidos e reforça o compromisso com a privacidade.
Porém, especialistas alertam que, com IA cada vez mais avançada, é urgente:Limitar acessos a dados sensíveis em fotos.
Educar usuários sobre os riscos de compartilhar imagens com IAs.
O que fazer para se proteger?
Evite postar fotos com referências identificáveis (como placas, fachadas ou interiores únicos).
Desative metadados em imagens antes de compartilhá-las.
Fique atento a atualizações de políticas de privacidade das plataformas de IA.

Quanta energia sua conversa com IA consome? Nova ferramenta revela o impacto
A pegada energética dos chatbots
Um engenheiro da Hugging Face, Julien Delavande, criou uma ferramenta que estima o consumo de eletricidade de cada mensagem trocada com modelos de IA, como o Llama 3.3 70B (Meta) e Gemma 3 (Google).
Como funciona:
Calcula em tempo real o gasto energético (em Watt-horas ou Joules) por prompt e resposta.
Compara com eletrodomésticos:
Escrever um e-mail via Llama 3.3 consome 0.1841 Wh — equivalente a 0.12 segundos de um micro-ondas ligado.
Por que isso importa?
IA consome energia em escala: Modelos rodam em GPUs e chips especializados, que demandam eletricidade massiva.
Crescimento insustentável? Estima-se que o uso global de IA dispare o consumo energético nos próximos anos.
Estratégias polêmicas: Algumas empresas já recorrem a fontes não renováveis para suprir a demanda.
Limitações e objetivos
Apenas estimativas: Os números não são precisos, mas servem como alerta sobre impactos ambientais.
Transparência: A ferramenta é um passo para que, no futuro, modelos de IA tenham "rótulos de eficiência energética", como alimentos.
O que você pode fazer?
Prefira modelos menores: Eles consomem menos energia para tarefas simples.
Evite respostas excessivamente longas: Quanto mais tokens gerados, maior o gasto.
Exija responsabilidade: Apoie iniciativas que pressionam empresas a adotar fontes limpas para treinar IA.
Ferramenta da Semana
Bem-vindo à nossa nova seção "Ferramenta da Semana", onde traremos, a cada edição, uma análise detalhada de uma ferramenta inovadora que está causando impacto no mundo da tecnologia e da inteligência artificial. Nosso objetivo é mantê-lo informado e inspirado pelas soluções que estão transformando a forma como trabalhamos, criamos e interagimos.
📖 Transforme sua experiência com buscas e automações inteligentes 📖
A ferramenta Genspark é um agente de IA avançado que revoluciona a forma como você pesquisa e executa tarefas do dia a dia, gerando páginas personalizadas chamadas Sparkpages em tempo real, baseadas em suas consultas. Com uma arquitetura inovadora que integra múltiplos modelos de linguagem especializados e mais de 80 ferramentas dedicadas, o Genspark oferece uma experiência de busca limpa, interativa e livre de anúncios ou vieses comerciais.
Funcionalidades Principais
Sistema Mixture-of-Agents: Utiliza 8 modelos de linguagem especializados que trabalham em conjunto, com um orquestrador central que divide tarefas complexas em subtarefas e distribui para os modelos mais adequados, garantindo eficiência e alta performance.
Sparkpages Dinâmicas: Genspark cria páginas customizadas que sintetizam informações de diversas fontes confiáveis, apresentando conteúdo multimodal (texto, vídeos, gráficos) com análises comparativas automáticas e um copiloto de IA para explorar ainda mais o tema.
Ferramentas Integradas: Conta com mais de 80 ferramentas especializadas, incluindo conectores diretos de API para serviços externos, análise semântica multilayer, geração multimídia e até módulo nativo de voz para interações telefônicas automatizadas.
Interface Intuitiva e Inspiradora: O painel é elegante, limpo e fácil de usar, com exemplos de projetos e fluxos de trabalho prontos para acelerar sua produtividade, permitindo que você foque no que realmente importa sem complicações.
Alta Confiabilidade e Desempenho: Em testes de benchmark, o Genspark Super Agent atingiu uma taxa de sucesso de 87,8% em tarefas básicas, superando modelos renomados como Manus e vários da OpenAI.
👉 Descubra como o Genspark pode transformar sua maneira de buscar informações, automatizar tarefas e ampliar sua produtividade com inteligência artificial de ponta! 🚀