Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bo Wang
SVP e Responsabile dell'@Xaira_Thera Biomedical AI; Prof Associato @UofT; Chief AI Officer @UHN; ex dottorato di ricerca, CS @Stanford; opinioni mie. #AI #healthcare #biology
Questo è davvero fantastico (e selvaggio):
Gli scienziati hanno simulato una cellula vivente completa per la prima volta. Ogni molecola, ogni reazione, dalla replicazione del DNA alla divisione cellulare.
Il documento (Luthey-Schulten et al., Cell 2026, ), appena pubblicato oggi, ha utilizzato JCVI-Syn3A — un batterio sintetico minimo con meno di 500 geni. Una simulazione 3D+tempo del ciclo cellulare completo di 105 minuti: replicazione del DNA, traduzione delle proteine, metabolismo, divisione. Ogni gene, proteina, RNA e reazione chimica tracciati attraverso lo spazio fisico.
Ci sono voluti anni per costruirlo. Molteplici GPU. Sei giorni di tempo di calcolo per ogni esecuzione.
E questa è la cellula più semplice possibile.
Una cellula umana ha circa 20.000 geni. Vive nei tessuti. Interagisce con i vicini. Si differenzia. Risponde ai farmaci in modi che dipendono da un contesto che non abbiamo misurato completamente.
La simulazione meccanicistica della cellula minima costa 6 giorni GPU per 105 minuti di biologia. Non puoi scalare questo alle cellule umane. La complessità non è 40 volte più difficile. È esponenzialmente più difficile.
Questo è il motivo per cui il campo si è spostato verso modelli basati sui dati. Non puoi codificare a mano il cablaggio regolatorio di un epatocita umano. Ma puoi apprenderlo — se hai i giusti dati di perturbazione raccolti attraverso contesti biologici abbastanza diversi.
I due approcci non sono in competizione. Documenti come questo generano la verità fondamentale di cui i futuri modelli di ML hanno bisogno per la validazione. Ma il percorso verso una cellula virtuale clinicamente utile passa attraverso modelli fondamentali, non attraverso l'aumento della simulazione meccanicistica.
Lavoro straordinario!
332
Questo è probabilmente il primo lavoro di RL su OpenClaw 🔥
MetaClaw: Basta parlare con il tuo agente e lasciarlo evolvere automaticamente.
Github:
La maggior parte degli agenti AI si blocca nel momento in cui vengono rilasciati. Ogni errore che commettono, lo ripeteranno domani. MetaClaw risolve questo problema.
È uno strato di RL online costruito sopra OpenClaw che consente agli agenti di apprendere dalle proprie interazioni — nessun cluster GPU, nessun dataset offline, nessun team di ingegneri richiesto.
Il ciclo è semplice: ogni conversazione viene registrata come una traiettoria di addestramento. Quando l'agente fallisce, analizza cosa è andato storto e propone una nuova abilità riutilizzabile. Gli aggiornamenti LoRA si addestrano in modo asincrono in background. La prossima volta che si presenta una situazione simile, l'abilità pertinente viene recuperata automaticamente nel prompt.
L'agente non accumula solo conversazioni. Accumula capacità.
Cosa rende questo diverso dal fine-tuning: non c'è pipeline di etichettatura umana, nessun ciclo di addestramento in batch, nessun ciclo di distribuzione. Il miglioramento avviene continuamente, invisibilmente, in produzione. Interazione → apprendimento → miglioramento, in un ciclo.
Nessun dataset offline. Nessuna programmazione richiesta. Nessun cluster GPU.
La parte da tenere d'occhio: questo trasforma ogni interazione dell'utente in un segnale di addestramento. L'agente che distribuisci il giorno uno non è l'agente che hai il giorno trenta. È stato plasmato da tutto ciò che ha sbagliato e corretto.
Ottimo lavoro di @HuaxiuYaoML !
350
Principali
Ranking
Preferiti
