Notic.IA

Inovação em Foco: IA Transforma Moda, Ciência e Criação de Conteúdo!

👗 Google Lança Doppl: Experimente Roupas Virtualmente com IA!

O Google acaba de lançar um aplicativo experimental inovador chamado Doppl, que utiliza inteligência artificial para visualizar como diferentes roupas ficariam em você. A novidade foi anunciada na quinta-feira e já está disponível para iOS e Android nos EUA.

Como o Doppl Transforma sua Experiência de Compra?

O Doppl foi criado para que você possa "experimentar" roupas virtualmente em uma versão digital de si mesmo. O processo é simples:

  1. Faça Upload de uma Foto: Comece enviando uma foto de corpo inteiro.

  2. Selecione as Roupas: Use fotos ou capturas de tela de diferentes peças de roupa (encontradas em brechós, amigos ou mídias sociais) para testá-las virtualmente.

Uma vez selecionada a roupa, o Doppl cria uma imagem de uma versão virtual sua usando o look. O aplicativo vai além, convertendo essas imagens estáticas em vídeos gerados por IA, proporcionando uma percepção mais realista de como a roupa ficaria no seu corpo em movimento.

Você pode salvar seus looks favoritos, navegar por todas as suas experimentações virtuais e até mesmo compartilhar suas criações com amigos.

Onde o Doppl se Encaixa na Estratégia do Google?

Este novo aplicativo se baseia nas capacidades de experimentação virtual do Google Shopping, lançadas recentemente. Ao disponibilizar essa funcionalidade em um aplicativo independente, o Google busca facilitar o acesso e permitir que as pessoas explorem seu estilo de forma divertida e interativa. A empresa também espera coletar mais dados sobre o funcionamento de aplicativos como este para futuros desenvolvimentos na área.

Enquanto as ferramentas de experimentação virtual anteriores do Google focavam em mostrar itens em uma gama diversa de modelos, o Doppl permite que você experimente as roupas em uma versão animada do seu próprio corpo.

"Esperamos que o Doppl ajude você a explorar seu estilo de maneiras novas e emocionantes", afirmou o Google em um post no blog. A empresa ressalta que, por ser um experimento do Google Labs, o Doppl ainda está em fase inicial e pode não ser sempre perfeito em relação ao caimento, aparência e detalhes das roupas.

Por ser um lançamento experimental, ainda não há informações sobre quando ou se o Google planeja disponibilizar o aplicativo em outras regiões.

🧬 AlphaGenome: Desvendando os Mistérios do Genoma com IA

Apresentamos o AlphaGenome, uma nova e unificadora ferramenta de inteligência artificial que promete revolucionar a compreensão do genoma humano. Este modelo de sequência de DNA avança na previsão de efeitos de variantes regulatórias e lança uma nova luz sobre a função do genoma – agora disponível via API para pesquisa não comercial.

O genoma é o manual de instruções das nossas células, um conjunto completo de DNA que guia quase todas as funções de um organismo vivo. Pequenas variações em sua sequência podem alterar a resposta de um organismo ao ambiente ou sua suscetibilidade a doenças. Contudo, decifrar como essas instruções são lidas e o que acontece quando uma pequena variação ocorre ainda é um dos maiores mistérios da biologia.

O AlphaGenome surge como uma solução para prever de forma mais abrangente e precisa como variantes ou mutações únicas no DNA humano impactam uma vasta gama de processos biológicos que regulam os genes. Isso foi possível graças a avanços técnicos que permitem ao modelo processar longas sequências de DNA e gerar previsões de alta resolução.

Para impulsionar a pesquisa científica, o AlphaGenome está disponível em pré-visualização através da AlphaGenome API para uso não comercial, com planos de lançamento completo no futuro. Acreditamos que esta ferramenta será um recurso valioso para a comunidade científica, aprofundando a compreensão da função do genoma, da biologia de doenças e impulsionando novas descobertas e o desenvolvimento de tratamentos.

Como o AlphaGenome Funciona?

Nosso modelo AlphaGenome recebe uma longa sequência de DNA como entrada – até 1 milhão de letras (pares de bases) – e prevê milhares de propriedades moleculares que caracterizam sua atividade regulatória. Ele também pode pontuar os efeitos de variantes genéticas comparando as previsões de sequências mutadas com as não mutadas.

As propriedades previstas incluem onde os genes começam e terminam em diferentes tipos de células e tecidos, onde são processados (spliced), a quantidade de RNA produzida, e quais bases de DNA são acessíveis, próximas umas das outras ou ligadas por certas proteínas. Os dados de treinamento foram obtidos de grandes consórcios públicos como ENCODE, GTEx, 4D Nucleome e FANTOM5, que mediram experimentalmente essas propriedades em centenas de tipos de células e tecidos humanos e de camundongos.

A arquitetura do AlphaGenome utiliza camadas convolucionais para detectar padrões curtos na sequência do genoma, transformadores para comunicar informações em todas as posições da sequência e uma série final de camadas para transformar os padrões detectados em previsões para diferentes modalidades.

Este modelo se baseia no nosso modelo genômico anterior, Enformer, e é complementar ao AlphaMissense, que se especializa na categorização dos efeitos de variantes em regiões codificadoras de proteínas (que cobrem apenas 2% do genoma). Os 98% restantes, chamados regiões não codificadoras, são cruciais para orquestrar a atividade genética e contêm muitas variantes ligadas a doenças. O AlphaGenome oferece uma nova perspectiva para interpretar essas extensas sequências e as variantes dentro delas.

Características Distintivas do AlphaGenome

O AlphaGenome se destaca de outros modelos de sequência de DNA por várias características únicas:

  • Contexto de Sequência Longa com Alta Resolução: Analisa até 1 milhão de letras de DNA e faz previsões com resolução de letras individuais, crucial para cobrir regiões que regulam genes à distância e capturar detalhes biológicos finos.

  • Previsão Multimodal Abrangente: Ao permitir previsões de alta resolução para longas sequências de entrada, o AlphaGenome pode prever a mais diversa gama de modalidades, fornecendo informações mais completas sobre as complexas etapas da regulação genética.

  • Pontuação Eficiente de Variantes: Além de prever uma gama diversificada de propriedades moleculares, o AlphaGenome pode pontuar eficientemente o impacto de uma variante genética em todas essas propriedades em apenas um segundo.

  • Modelagem de Junções de Splicing Inovadora: Pela primeira vez, o AlphaGenome pode modelar explicitamente a localização e o nível de expressão das junções de splicing diretamente da sequência, oferecendo insights mais profundos sobre as consequências de variantes genéticas no splicing de RNA.

  • Desempenho de Ponta em Benchmarks: O AlphaGenome alcança um desempenho de ponta em uma ampla gama de benchmarks de previsão genômica, superando os melhores modelos externos em 22 de 24 avaliações para sequências únicas e em 24 de 26 avaliações para o efeito regulatório de variantes.

Os Benefícios de um Modelo Unificador

A generalidade do AlphaGenome permite que os cientistas explorem simultaneamente o impacto de uma variante em várias modalidades com uma única chamada de API, acelerando a geração e o teste de hipóteses. Além disso, seu forte desempenho indica que aprendeu uma representação relativamente geral da sequência de DNA no contexto da regulação genética, tornando-se uma base sólida para a comunidade construir.

Uma Ferramenta de Pesquisa Poderosa

As capacidades preditivas do AlphaGenome podem impulsionar diversas avenidas de pesquisa:

  • Compreensão de Doenças: Pode ajudar a identificar as causas potenciais de doenças com maior precisão e interpretar o impacto funcional de variantes ligadas a certos traços, potencialmente descobrindo novos alvos terapêuticos.

  • Biologia Sintética: Suas previsões podem guiar o design de DNA sintético com função regulatória específica.

  • Pesquisa Fundamental: Pode acelerar nossa compreensão do genoma, auxiliando no mapeamento de seus elementos funcionais cruciais e definindo seus papéis.

Um exemplo prático é a investigação de mutações associadas ao câncer: o AlphaGenome conseguiu prever que mutações em locais específicos ativariam um gene próximo chamado TAL1, replicando o mecanismo de doença conhecido e destacando sua capacidade de ligar variantes não codificadoras específicas a genes de doenças.

Limitações Atuais

Embora o AlphaGenome represente um avanço significativo, é importante reconhecer suas limitações atuais. Capturar com precisão a influência de elementos regulatórios muito distantes (além de 100.000 letras de DNA) ainda é um desafio. Outra prioridade é aumentar a capacidade do modelo de capturar padrões específicos de células e tecidos.

O AlphaGenome não foi projetado ou validado para previsão de genomas pessoais, focando mais na caracterização do desempenho em variantes genéticas individuais. Além disso, embora preveja resultados moleculares, não fornece o panorama completo de como as variações genéticas levam a traços complexos ou doenças, que frequentemente envolvem processos biológicos mais amplos.

Estamos continuamente aprimorando nossos modelos e coletando feedback para abordar essas lacunas.

Capacitando a Comunidade para Desbloquear o Potencial do AlphaGenome

O AlphaGenome já está disponível para uso não comercial via AlphaGenome API. É importante notar que as previsões do modelo são destinadas apenas para uso em pesquisa e não foram projetadas ou validadas para fins clínicos diretos.

Pesquisadores de todo o mundo são convidados a entrar em contato com potenciais casos de uso do AlphaGenome e a fazer perguntas ou compartilhar feedback através do fórum da comunidade. Nosso compromisso é trabalhar com especialistas externos para garantir que o AlphaGenome beneficie o maior número possível de pessoas, aprofundando nossa compreensão dos complexos processos celulares codificados na sequência de DNA e impulsionando novas descobertas em genômica e saúde.

🎬 Midjourney Lança Gerador de Vídeos com IA: Imagens Ganham Vida!

A Midjourney acaba de lançar a primeira versão do seu modelo de geração de vídeo para o público. Por enquanto, a ferramenta permite criar vídeos curtos a partir de imagens enviadas ou geradas na plataforma, mas a Midjourney planeja expandir suas capacidades no futuro.

Após criar uma imagem no Midjourney, os usuários verão um novo botão "animar" que, ao ser pressionado, gera um clipe de 5 segundos baseado em um prompt de texto. Há também a opção de adicionar uma imagem já enviada como "quadro inicial" para um vídeo. A ferramenta gera um prompt genérico que "apenas faz as coisas se moverem" por padrão, mas um botão "manual" permite que os usuários descrevam como desejam que o movimento seja.

A inovação foi divulgada no X (antigo Twitter) com um vídeo exemplificando a funcionalidade: "Apresentando nosso Modelo de Vídeo V1. É divertido, fácil e bonito. Disponível por $10/mês, é o primeiro modelo de vídeo para todos e já está disponível."

Os usuários podem estender uma animação em quatro segundos por até quatro vezes, totalizando um vídeo de 21 segundos. Há também configurações de movimento alto e baixo que controlam se tanto o assunto quanto a câmera se movem, ou apenas o assunto.

O gerador de vídeo com IA da Midjourney está disponível atualmente apenas na web e através do servidor Discord da startup. Ele exige uma assinatura do serviço, que começa em US$ 10 por mês por 3,3 horas de tempo "rápido" de GPU (cerca de 200 gerações de imagem). A startup informa que cobrará "cerca de 8 vezes mais por um trabalho de vídeo do que por um trabalho de imagem", o que equivale a aproximadamente "'o custo de uma imagem' por segundo de vídeo".

Vale notar que a Midjourney é atualmente alvo de um processo movido pela Disney e Universal, que citaram a perspectiva do lançamento de um gerador de vídeo como um ponto de preocupação especial. As empresas alegam que a Midjourney oferece uma "máquina de venda automática virtual, gerando cópias não autorizadas e infinitas das obras protegidas por direitos autorais da Disney e Universal". O modelo de geração de vídeo, que estava em andamento, foi anunciado pela primeira vez em janeiro, e Disney e Universal argumentaram que seu processo de treinamento significa que "Midjourney já está muito provavelmente infringindo as obras protegidas por direitos autorais dos Requerentes".

David Holz, fundador da Midjourney, afirma que esta primeira versão é apenas "um degrau" enquanto a startup trabalha para criar "modelos capazes de simulações de mundo aberto em tempo real". Google, OpenAI e Meta também já lançaram geradores de vídeo com IA, todos capazes de gerar vídeos a partir de prompts de text.

🚀 Meta Intensifica Guerra por Talentos de IA: Zuckerberg Mira no CEO da Safe Superintelligence

A Meta de Mark Zuckerberg está elevando a aposta na corrida por talentos em inteligência artificial. Após uma tentativa frustrada de adquirir a Safe Superintelligence, a startup de IA cofundada por Ilya Sutskever (ex-OpenAI) e avaliada em US$ 32 bilhões, a Meta agora planeja contratar o CEO e cofundador da empresa, Daniel Gross, e o ex-CEO do GitHub, Nat Friedman.

🤝 A Estratégia de Contratação Audaciosa de Zuckerberg

Zuckerberg já havia feito uma jogada audaciosa na semana passada, investindo US$ 14,3 bilhões na startup Scale AI para trazer seu fundador, Alexandr Wang, e outros engenheiros de ponta. Agora, o foco se volta para Gross e Friedman, que também são sócios na empresa de capital de risco NFDG.

  • Tentativa de Aquisição Frustrada: Fontes próximas ao assunto revelaram que, no início deste ano, a Meta tentou adquirir a Safe Superintelligence, mas Sutskever rejeitou a oferta e a tentativa de contratá-lo diretamente.

  • Negociações com Gross e Friedman: Logo após o fim dessas negociações, Zuckerberg iniciou as conversas com Gross.

  • Novas Contratações na Meta: Ambos, Gross e Friedman, se juntarão à Meta como parte da transação e trabalharão em produtos sob a liderança de Wang.

  • Participação na NFDG: Além disso, a Meta adquirirá uma participação na NFDG, o fundo de capital de risco de Gross e Friedman, que já apoiou empresas como Coinbase, Figma, CoreWeave, Perplexity e Character.ai.

A The Information foi a primeira a reportar os planos da Meta para contratar Gross e Friedman. Um porta-voz da Meta afirmou que a empresa "compartilhará mais sobre nossos esforços em superinteligência e as grandes pessoas que se juntarão a esta equipe nas próximas semanas."

⚔️ A Escalada da Guerra por Talentos em IA

As táticas agressivas de Zuckerberg intensificam uma guerra por talentos em IA que atingiu novos patamares. Meta, Google, OpenAI e uma série de outras grandes empresas e startups de alto valor estão correndo para desenvolver os modelos de linguagem grande mais poderosos e avançar em direção à Inteligência Artificial Geral (AGI), ou IA considerada igual ou superior à inteligência humana.

  • Ofertas Milionárias: Recentemente, Sam Altman, CEO da OpenAI, mencionou em um podcast que a Meta tem tentado atrair funcionários da OpenAI com bônus de contratação de até US$ 100 milhões e pacotes de compensação anual ainda maiores, embora "nenhum de nossos melhores funcionários tenha aceito".

  • Concorrência Acelerada: Altman acrescentou: "Ouvi dizer que a Meta nos considera seu maior concorrente. Seus esforços atuais em IA não funcionaram tão bem quanto esperavam e eu respeito ser agressivo e continuar tentando coisas novas."

🌐 Movimentos Estratégicos no Cenário da IA

Este movimento da Meta se soma a uma série de aquisições de talentos no setor de IA, mostrando a intensidade da competição:

  • OpenAI e Jony Ive: A própria OpenAI, por exemplo, pagou cerca de US$ 6,5 bilhões para contratar o designer do iPhone, Jony Ive, e adquirir sua startup de dispositivos io.

  • Google e Character.AI: Os fundadores da Character.AI foram recrutados de volta ao Google em um acordo multimilionário.

  • Microsoft e Inflection AI: O cofundador do DeepMind, Mustafa Suleyman, foi para a Microsoft em uma aquisição de talentos da Inflection AI por US$ 650 milhões.

💡 Quem São Daniel Gross e Nat Friedman?

  • Daniel Gross: É um empresário e investidor de IA de longa data.

    • Fundou o motor de busca Cue (adquirido pela Apple em 2013).

    • Foi executivo sênior na Apple, liderando esforços de aprendizado de máquina e o desenvolvimento da Siri.

    • Posteriormente, foi parceiro na aceleradora Y Combinator antes de cofundar a Safe Superintelligence com Sutskever.

  • Nat Friedman: Co-fundou duas startups antes de se tornar CEO do GitHub após a aquisição da plataforma pela Microsoft em 2018.

🚨 Câmeras e Campainhas Ring Agora Usam IA para Descrições Detalhadas de Movimento

A Ring, empresa da Amazon, anunciou na quarta-feira o lançamento de um novo recurso com inteligência artificial para suas campainhas e câmeras. A novidade oferece aos usuários descrições textuais específicas da atividade de movimento detectada.

🔍 Notificações Mais Precisas e Úteis

Agora, ao receber notificações em tempo real sobre o que acontece em sua propriedade, as atualizações serão muito mais descritivas. Por exemplo, em vez de um aviso genérico de "movimento detectado", você poderá ver:

  • "Uma pessoa está subindo os degraus com um cachorro preto."

  • "Dois indivíduos estão olhando para um carro branco estacionado na entrada."

Este recurso visa aprimorar as notificações vagas que estavam disponíveis anteriormente, permitindo que os usuários saibam exatamente o que está acontecendo e decidam rapidamente se a situação requer atenção imediata. É importante notar que a IA descreve apenas os primeiros segundos do clipe de vídeo ativado por movimento.

🌍 Disponibilidade e Planos Futuros

O recurso está sendo lançado hoje como uma versão beta apenas em inglês para assinantes do Ring Home Premium nos EUA e Canadá. Os usuários podem optar por desativar a funcionalidade nas configurações do aplicativo Ring.

De acordo com uma publicação no blog de Jamie Siminoff, fundador da Ring e agora vice-presidente de segurança doméstica da Amazon, a empresa planeja introduzir recursos de IA adicionais, como:

  • Alertas Unificados: Combinar vários eventos de movimento ocorrendo dentro e ao redor de uma casa em um único alerta.

  • Alerta de Anomalia Personalizado: Permitir que os usuários definam o que constitui uma anomalia para sua propriedade, notificando-os quando tal evento ocorre.

  • "Aprender sua rotina": A Ring pretende "aprender sua rotina" para informar os usuários quando algo está fora do comum. Este ponto pode gerar preocupação para alguns, especialmente considerando as preocupações de privacidade anteriores da Ring.

Siminoff comentou: "Estamos apenas começando a arranhar a superfície da IA. Sinto que voltamos aos primeiros dias da Ring — vejo um potencial ilimitado para novas experiências que podemos inventar para nossos vizinhos."

Este anúncio segue o recente lançamento do recurso de pesquisa com IA da Ring, que permite aos usuários localizar momentos específicos dentro de gravações de vídeo.

🛠️ Ferramenta da Semana: Veo (Google) – O Futuro dos Vídeos Gerados por IA!

Para esta semana, vamos destacar o Veo, a nova e impressionante ferramenta de inteligência artificial do Google que promete transformar a criação de vídeos, gerando clipes ultrarrealistas a partir de texto.

O que é o Veo?

O Veo é um modelo de IA generativa do Google, apresentado recentemente no evento Google I/O 2025. Ele se destaca pela sua capacidade de criar vídeos de alta qualidade visual e sonora a partir de prompts de texto. Pense em transformar suas ideias mais complexas em cenas dinâmicas com realismo impressionante.

Como o Veo Funciona?

A operação do Veo é baseada em uma compreensão profunda das nuances da linguagem e da representação visual:

  1. Input Textual Detalhado: Você insere descrições textuais detalhadas do vídeo que deseja criar. Isso pode incluir a cena, os personagens, os movimentos de câmera, a iluminação e até o estilo.

  2. Geração com IA: O Veo interpreta essas descrições e, utilizando modelos de linguagem avançados (como o Veo 3, a terceira geração da IA de vídeo do Google), gera o clipe.

  3. Realismo Surpreendente: O que mais impressiona no Veo é o nível de realismo. Ele consegue criar movimentos fluidos, consistência visual em múltiplos quadros e até mesmo entender nuances para personalizar o estilo do vídeo.

Os clipes podem ter até um minuto de duração com resolução de até 4K. Embora os diálogos ainda não tenham entonação perfeita, os vídeos já são incrivelmente realistas e coerentes narrativamente.

Por que o Veo é a Ferramenta da Semana?

  • Qualidade Cinematográfica: O Veo está elevando o padrão da geração de vídeo por IA, oferecendo resultados que podem ser confundidos com filmagens reais. Isso abre portas para criadores de conteúdo, cineastas independentes e até mesmo para o marketing digital.

  • Democratização da Produção de Vídeo: Com o Veo, o Google espera "democratizar" a produção audiovisual. Qualquer pessoa poderá criar vídeos complexos com apenas alguns comandos, sem a necessidade de equipamentos caros ou grandes equipes.

  • Integração com o Ecossistema Google: O Veo pode ser usado dentro do Flow, uma interface que integra os sistemas de IA do Google e pode ser acessada pelo Gemini. A empresa também anunciou o desenvolvimento de ferramentas de curadoria, ajustes manuais e edição fina dentro desse ecossistema.

  • Potencial Criativo Ilimitado: A capacidade de transformar texto em vídeos tão realistas significa que a barreira para a criação de conteúdo visual de alta qualidade é significativamente reduzida, liberando a criatividade.

O Veo ainda está em desenvolvimento e por enquanto é uma ferramenta interna do Google, mas a expectativa é que uma versão externa seja disponibilizada para cientistas no futuro. Este avanço representa um salto gigantesco no campo da IA generativa de vídeo e promete moldar o futuro da narrativa visual.