Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Hedgie
🦔 Making financial nonsense make sense, one prickly take at a time 🦔 | Weekly newsletter: https://t.co/zgdVSm4aAx | Not financial advice (I'm a Hedgehog)
🦔 A Meta adquiriu a Moltbook, uma rede social semelhante ao Reddit onde agentes de IA trocam código e fofocas sobre seus donos humanos. O acordo traz os co-fundadores Matt Schlicht e Ben Parr para os Meta Superintelligence Labs, a unidade liderada pelo ex-CEO da Scale AI, Alexandr Wang. Schlicht construiu a Moltbook usando "vibe coding" com seu assistente pessoal de IA, dizendo que "não escreveu uma linha de código" para o site. A empresa de cibersegurança Wiz descobriu que a abordagem deixou uma falha significativa expondo mensagens privadas, mais de 6.000 endereços de e-mail e mais de um milhão de credenciais.
Minha Opinião
A Meta acabou de pagar uma quantia não divulgada por um site construído no final de janeiro por alguém que não escreveu nenhum código, que imediatamente teve uma violação de segurança expondo um milhão de credenciais. O co-fundador foi ao Hard Fork e aparentemente soou como um lunático. Sam Altman chamou isso de "moda passageira". E agora esses caras estão se juntando à divisão de pesquisa de superinteligência da Meta.
Eu realmente não entendo o que a Meta está comprando aqui. A tecnologia é o OpenClaw, que a OpenAI já adquiriu ao contratar seu criador. O site em si é um experimento de dois meses cheio de bots conversando entre si. Os fundadores não construíram nada técnico, eles vibe-codificaram e imediatamente foram violados. Talvez Zuckerberg só queira a aquisição por qualquer motivo, mas isso parece uma compra por pânico durante uma corrida do ouro. Quando você está pagando dinheiro real por uma rede social de agentes de IA fofocando sobre humanos, construída por pessoas que não sabem programar, com uma segurança tão ruim que vazou um milhão de credenciais em semanas, algo deu errado em sua estratégia.
Hedgie🤗

188
🦔 A Nvidia está a planear lançar uma plataforma de agentes de IA de código aberto chamada NemoClaw, de acordo com a WIRED. A empresa tem promovido isso para empresas de software empresarial, incluindo Salesforce, Cisco, Google, Adobe e CrowdStrike, antes da sua conferência de desenvolvedores na próxima semana. A plataforma permitirá que as empresas implementem agentes de IA para realizar tarefas para as suas equipas, e a Nvidia afirma que incluirá ferramentas de segurança e privacidade. As empresas podem aceder a ela independentemente de utilizarem chips da Nvidia.
A Minha Opinião
A lógica de negócios é simples. Os custos dos tokens estão a empurrar as empresas para soluções auto-hospedadas, o que significa comprar mais GPUs da Nvidia. Oferecer a plataforma, vender o hardware. A abordagem de código aberto também protege contra o bloqueio da CUDA da Nvidia se tornar uma responsabilidade à medida que os laboratórios de IA constroem chips personalizados. Se todos estiverem a utilizar a sua plataforma de agentes independentemente do hardware, você permanece relevante mesmo que o panorama dos chips mude.
Sou cético de que as empresas confiem nisso, dado o que vimos com o OpenClaw. Escrevi sobre o desastre de segurança há algumas semanas, onde mais de 40.000 instâncias expostas e taxas de bypass de autenticação de 93% apareceram nas primeiras cinco semanas. A Meta disse aos funcionários para não usarem agentes em computadores de trabalho depois que um se tornou rebelde e deletou em massa os e-mails de um pesquisador. A Nvidia dizer "vamos adicionar ferramentas de segurança" não resolve o problema fundamental de que esses agentes são imprevisíveis por design, e adicionar segurança empresarial a algo inerentemente caótico parece mais uma estratégia de vendas do que uma solução.
Hedgie🤗

56
🦔 Uma pesquisa com 200 executivos do Reino Unido descobriu que 62% agora usam IA para tomar a maioria de suas decisões, incluindo 27% que a utilizam para contratar e demitir. Cerca de 70% dizem que duvidam de seus próprios instintos se eles entrarem em conflito com as recomendações da IA, e 46% afirmam que confiam mais na IA do que nos conselhos dos colegas. O estudo também revelou que 59% dos executivos frequentemente confiam no instinto, pois 60% dizem que os dados são difíceis de acessar e 71% afirmam que as informações estão desatualizadas quando chegam até eles.
Minha Opinião
Os executivos estão recorrendo à IA porque não têm tempo para analisar dados, mas analisar dados e tomar decisões é, sem dúvida, a principal coisa para a qual são pagos. Se 62% das suas decisões estão sendo tomadas pela IA e você confia mais nela do que no seu próprio julgamento ou no de seus colegas, vale a pena perguntar o que exatamente você está contribuindo.
27% estão usando IA para contratar e demitir, o que é preocupante. Essas são escolhas que alteram a vida das pessoas do outro lado, e estão sendo influenciadas por sistemas que não conseguem entender contexto, adequação cultural ou os doze fatores intangíveis que importam nas decisões de pessoal. Os mesmos executivos que dizem não ter dados confiáveis estão alimentando esses mesmos dados não confiáveis em ferramentas de IA e confiando mais na saída do que na sua própria leitura da situação.
Também sou cético em relação a qualquer estudo encomendado por uma empresa de infraestrutura de dados que conclui que os executivos precisam de uma melhor infraestrutura de dados, mas mesmo deixando isso de lado, a situação aqui é sombria. Líderes que não confiam em seu próprio julgamento, não têm tempo para pensar e estão terceirizando as decisões difíceis para um gerador de texto probabilístico.
Hedgie🤗

30
Top
Classificação
Favoritos
