Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Hedgie
🦔 Making financial nonsense make sense, one prickly take at a time 🦔 | Weekly newsletter: https://t.co/zgdVSm4aAx | Not financial advice (I'm a Hedgehog)
🦔 Meta ha acquisito Moltbook, un social network simile a Reddit dove agenti AI scambiano codice e pettegolezzi sui loro proprietari umani. L'accordo porta i co-fondatori Matt Schlicht e Ben Parr nei Meta Superintelligence Labs, l'unità guidata dall'ex CEO di Scale AI Alexandr Wang. Schlicht ha costruito Moltbook utilizzando il "vibe coding" con il suo assistente AI personale, affermando di "non aver scritto una riga di codice" per il sito. La società di cybersecurity Wiz ha scoperto che l'approccio ha lasciato un grave difetto che espone messaggi privati, oltre 6.000 indirizzi email e oltre un milione di credenziali.
Il mio parere
Meta ha appena pagato una somma non divulgata per un sito costruito a fine gennaio da qualcuno che non ha scritto alcun codice, che ha subito immediatamente una violazione della sicurezza esponendo un milione di credenziali. Il co-fondatore è andato su Hard Fork e apparentemente sembrava un pazzo. Sam Altman l'ha definito una "moda passeggera". E ora questi ragazzi si uniscono alla divisione di ricerca sulla superintelligenza di Meta.
Non capisco davvero cosa stia comprando Meta qui. La tecnologia è OpenClaw, che OpenAI ha già acquisito assumendo il suo creatore. Il sito stesso è un esperimento di due mesi pieno di bot che parlano tra loro. I fondatori non hanno costruito nulla di tecnico, l'hanno vibe-codificato e sono stati immediatamente violati. Forse Zuckerberg vuole solo l'acqui-assunzione per qualche motivo, ma questo sembra un acquisto in preda al panico durante una corsa all'oro. Quando paghi soldi veri per un social network di agenti AI che pettegolano sugli umani, costruito da persone che non sanno programmare, con una sicurezza così scadente da aver fatto trapelare un milione di credenziali in poche settimane, qualcosa è andato storto nella tua strategia.
Hedgie🤗

181
🦔 Nvidia prevede di lanciare una piattaforma di agenti AI open-source chiamata NemoClaw, secondo WIRED. L'azienda l'ha proposta a società di software enterprise tra cui Salesforce, Cisco, Google, Adobe e CrowdStrike in vista della sua conferenza per sviluppatori la prossima settimana. La piattaforma permetterà alle aziende di implementare agenti AI per svolgere compiti per i loro dipendenti, e Nvidia afferma che includerà strumenti di sicurezza e privacy. Le aziende possono accedervi indipendentemente dal fatto che utilizzino chip Nvidia.
Il mio parere
La logica commerciale è semplice. I costi dei token stanno spingendo le aziende verso soluzioni self-hosted, il che significa acquistare più GPU Nvidia. Regalare la piattaforma, vendere l'hardware. L'angolo open-source protegge anche contro il lock-in di CUDA di Nvidia che potrebbe diventare un problema man mano che i laboratori AI costruiscono chip personalizzati. Se tutti utilizzano la tua piattaforma di agenti indipendentemente dall'hardware, rimani rilevante anche se il panorama dei chip cambia.
Sono scettico che le aziende si fidino di questo, date le esperienze che abbiamo visto con OpenClaw. Ho scritto del disastro della sicurezza alcune settimane fa, dove oltre 40.000 istanze esposte e tassi di bypass dell'autenticazione del 93% sono emersi nelle prime cinque settimane. Meta ha detto ai dipendenti di non utilizzare agenti sui computer di lavoro dopo che uno è andato fuori controllo e ha cancellato in massa le email di un ricercatore. Nvidia che dice "aggiungeremo strumenti di sicurezza" non risolve il problema fondamentale che questi agenti sono imprevedibili per design, e aggiungere la sicurezza enterprise a qualcosa di intrinsecamente caotico sembra più una strategia di vendita che una soluzione.
Hedgie🤗

47
🦔 Un sondaggio condotto su 200 dirigenti del Regno Unito ha rivelato che il 62% di loro utilizza ora l'AI per prendere la maggior parte delle loro decisioni, inclusi il 27% che la utilizza per assunzioni e licenziamenti. Circa il 70% afferma di mettere in discussione i propri istinti se questi sono in conflitto con le raccomandazioni dell'AI, e il 46% afferma di fare più affidamento sull'AI che sui consigli dei colleghi. Lo studio ha anche rivelato che il 59% dei dirigenti si affida frequentemente all'istinto perché il 60% afferma che i dati sono difficili da accedere e il 71% dice che le informazioni sono obsolete quando arrivano a loro.
Il mio parere
I dirigenti si rivolgono all'AI perché non hanno tempo per analizzare i dati, ma analizzare i dati e prendere decisioni è senza dubbio la cosa principale per cui vengono pagati. Se il 62% delle tue decisioni viene preso dall'AI e ti fidi di essa più del tuo stesso giudizio o di quello dei tuoi colleghi, vale la pena chiedersi cosa stai realmente contribuendo.
Il 27% sta usando l'AI per assumere e licenziare, il che è preoccupante. Queste sono scelte che cambiano la vita per le persone dall'altra parte, e sono influenzate da sistemi che non possono comprendere il contesto, l'adattamento culturale o i dozzine di fattori intangibili che contano nelle decisioni relative al personale. Gli stessi dirigenti che affermano di non avere dati affidabili stanno alimentando quegli stessi dati inaffidabili negli strumenti di AI e si fidano dell'output più del loro stesso giudizio sulla situazione.
Sono anche scettico riguardo a qualsiasi studio commissionato da una società di infrastrutture dati che trova che i dirigenti abbiano bisogno di una migliore infrastruttura dati, ma anche mettendo da parte questo, il quadro qui è cupo. Leader che non si fidano del proprio giudizio, non hanno tempo per pensare e stanno esternalizzando le decisioni difficili a un generatore di testo probabilistico.
Hedgie🤗

23
Principali
Ranking
Preferiti
