Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Hedgie
🦔 Fazer sentido de absurdos financeiros, uma análise espinhosa de cada 🦔 vez | Boletim semanal: https://t.co/zgdVSm4aAx | Não sou conselho financeiro (sou um ouriço)
🦔 A Meta adquiriu o Moltbook, uma rede social semelhante ao Reddit onde agentes de IA trocam códigos e fofocam sobre seus donos humanos. O acordo traz os cofundadores Matt Schlicht e Ben Parr para a Meta Superintelligence Labs, unidade liderada pelo ex-CEO da Scale AI, Alexandr Wang. Schlicht construiu o Moltbook usando "vibe coding" com seu assistente pessoal de IA, dizendo que "não escreveu uma linha de código" para o site. A empresa de cibersegurança Wiz descobriu que a abordagem deixou uma grande falha ao expor mensagens privadas, 6.000+ endereços de e-mail e mais de um milhão de credenciais.
Minha opinião
A Meta acabou de pagar uma quantia não divulgada por um site criado no final de janeiro por alguém que não escreveu nenhum código, que imediatamente teve uma violação de segurança expondo um milhão de credenciais. O cofundador foi para o Hard Fork e aparentemente parecia um lunático. Sam Altman chamou isso de "moda passageira". E agora esses caras estão entrando para a divisão de pesquisa de superinteligência da Meta.
Sinceramente, não entendo o que a Meta está comprando aqui. A tecnologia é a OpenClaw, que a OpenAI já adquiriu ao contratar seu criador. O próprio site é um experimento de dois meses atrás, cheio de bots conversando entre si. Os fundadores não construíram nada técnico, eles codificaram a vibe e foram imediatamente invadidos. Talvez Zuckerberg só queira o acqui-hire por algum motivo, mas isso parece uma compra em pânico durante uma corrida do ouro. Quando você paga dinheiro de verdade por uma rede social de agentes de IA fofocando sobre humanos, construída por pessoas que não sabem programar, com uma segurança tão ruim que vazou um milhão de credenciais em semanas, algo deu errado na sua estratégia.
Hedgie🤗

196
🦔 A Nvidia planeja lançar uma plataforma de agentes de IA de código aberto chamada NemoClaw, segundo a WIRED. A empresa tem apresentado o programa para empresas de software corporativo, incluindo Salesforce, Cisco, Google, Adobe e CrowdStrike, antes da conferência de desenvolvedores da próxima semana. A plataforma permitirá que as empresas implantem agentes de IA para realizar tarefas para suas equipes, e a Nvidia afirma que incluirá ferramentas de segurança e privacidade. As empresas podem acessá-lo independentemente de rodar em chips Nvidia.
Minha opinião
A lógica de negócios é simples. Os custos dos tokens estão empurrando as empresas para soluções auto-hospedadas, o que significa comprar mais GPUs Nvidia. Doe a plataforma, venda o hardware. O ângulo do código aberto também evita que o lock-in da Nvidia se torne um problema à medida que laboratórios de IA desenvolvem chips personalizados. Se todo mundo está rodando sua plataforma de agentes, independentemente do hardware, você permanece relevante mesmo que o cenário dos chips mude.
Fico cético de que as empresas confiem nisso, dado o que vimos com o OpenClaw. Escrevi sobre o desastre de segurança há algumas semanas, onde 40.000+ instâncias expostas e 93% de taxas de burla de autenticação apareceram nas primeiras cinco semanas. A Meta orientou os funcionários a não usarem agentes nos computadores do trabalho depois que um deles agiu e deletou em massa os e-mails de um pesquisador. A Nvidia dizer "vamos adicionar ferramentas de segurança" não resolve o problema fundamental de que esses agentes são imprevisíveis por design, e adicionar a segurança corporativa a algo inerentemente caótico parece mais um discurso de vendas do que uma solução.
Hedgie🤗

64
🦔 Uma pesquisa com 200 executivos do Reino Unido revelou que 62% agora usam IA para tomar a maioria de suas decisões, incluindo 27% que a usam para contratação e demitimento. Cerca de 70% dizem que questionam seus próprios instintos se eles entram em conflito com as recomendações de IA, e 46% dizem depender mais da IA do que de conselhos de colegas. O estudo também constatou que 59% dos executivos frequentemente confiam no instinto porque 60% dizem que os dados são difíceis de acessar e 71% dizem que as informações estão desatualizadas quando chegam até eles.
Minha opinião
Executivos estão recorrendo à IA porque não têm tempo para analisar dados, mas analisar e tomar decisões é, provavelmente, a principal coisa para a qual são pagos. Se 62% das suas decisões são tomadas por IA e você confia nela mais do que no seu próprio julgamento ou nos seus colegas, vale a pena perguntar exatamente o que você está contribuindo.
27% estão usando IA para contratar e demitir, o que é preocupante. Essas são escolhas que mudam a vida das pessoas do outro lado, e estão sendo influenciadas por sistemas que não conseguem entender o contexto, o encaixe cultural ou a dúzia de fatores intangíveis que importam nas decisões de pessoal. Os mesmos executivos que dizem não ter dados confiáveis estão alimentando esses mesmos dados pouco confiáveis em ferramentas de IA e confiando mais no resultado do que em sua própria leitura da situação.
Também sou cético quanto a qualquer estudo encomendado por uma empresa de infraestrutura de dados que conclua que executivos precisam de uma infraestrutura de dados melhor, mas mesmo deixando isso de lado, o cenário aqui é sombrio. Líderes que não confiam no próprio julgamento, não têm tempo para pensar e estão terceirizando as decisões difíceis para um gerador de texto probabilístico.
Hedgie🤗

38
Melhores
Classificação
Favoritos
