Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nav Toor
Ajudando você a dominar a IA diariamente com guias passo a passo de IA, últimas notícias e ferramentas práticas
🚨ÚLTIMA HORA: Esta ferramenta em Python reverte a pixelização e recupera o texto original de capturas de tela "censuradas".
Chama-se Depix. Você pixeliza uma senha. Depix lê mesmo assim.
Sem modelo de IA. Sem GPU. Sem serviço em nuvem. Só matemática.
Veja como funciona:
→ Você alimenta a captura de tela pixelada
→ Gera uma imagem de busca usando uma sequência de De Bruijn
→ Compara cada bloco pixelado com renderizações de caracteres conhecidos
→ Usa proximidade geométrica para eliminar falsos positivos
→ Reconstrói o texto simples caractere por caractere
Aqui está a parte mais louca:
Originalmente, foi criado porque alguém pixelizou uma senha de Administrador de Domínio em uma captura de tela corporativa. O tipo de credencial que controla toda a rede de uma empresa. Depix resolveu isso.
Todas as ferramentas de redação que você já usou. Verde, Gimp, Snagit. Se usar um filtro linear de caixa para pixelação, essa ferramenta pode reverter isso.
O repositório original atingiu 26.152 estrelas no GitHub antes que o criador o resetasse. Foi o quanto isso explodiu.
Pense em cada captura de tela que você já compartilhou com credenciais "censuradas", chaves de API, e-mails ou mensagens privadas.
Se você os pixelasse em vez de usar barras pretas sólidas, eles nunca ficavam escondidos.
Um comando para correr. Python puro.
100% código aberto.

2
🚨ÚLTIMA HORA: A OpenAI disse que cada atualização deixa o ChatGPT mais inteligente.
Stanford provou o contrário.
A precisão do GPT-4 em problemas matemáticos caiu de 97,6% para 2,4% em apenas três meses. E ninguém te contou.
Pesquisadores de Stanford e UC Berkeley acompanharam o desempenho real do ChatGPT ao longo do tempo. Mesmas perguntas. Mesmas tarefas. Resultados diferentes. O modelo que quase tirou nota máxima em questões de matemática em março estava errando 97 de 100 vezes até junho.
A geração de código também entrou em colapso. Em março, mais de 50% do código do GPT-4 rodou perfeitamente na primeira tentativa. Em junho, apenas 10% o faziam. Mesmas perguntas. Respostas dramaticamente piores. Cada atualização silenciosa que a OpenAI lançava deixava o produto pelo qual você paga $20 por mês ainda pior nas coisas que realmente usa.
Os pesquisadores testaram GPT-3.5 e GPT-4 em matemática, programação, exames médicos, raciocínio e questões sensíveis. A deriva era enorme e imprevisível. Algumas tarefas melhoraram. Outros caíram de um penhasco. E não havia como saber qual era qual, porque a OpenAI nunca revelou o que mudou.
É aqui que a coisa fica pessoal. Se você usou o ChatGPT para código em março e funcionou, depois tentou a mesma coisa em junho e quebrou, provavelmente você se culpou. Você achou que tinha provocado errado. Você tentou de novo. Você perdeu horas depurando suas próprias perguntas. Mas não foi você. O modelo mudou silenciosamente sob você.
O vice-presidente de produto da OpenAI foi ao X e disse: "não deixamos o GPT-4 mais burro."
Os dados de Stanford dizem o contrário.
97,6% a 2,4% não é uma questão de opinião.
Cada empresa que está construindo sobre a API do ChatGPT, cada estudante que depende dela para os estudos, cada desenvolvedor que a usa para enviar código está em um terreno que muda sem aviso. Você confiou nisso ontem. Mudou da noite para o dia. Ninguém te contou.
Você não está imaginando. O ChatGPT está ficando mais burro. Stanford provou isso.

32
Melhores
Classificação
Favoritos

