Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bo Wang
vicepresidente sénior y jefe de IA biomédica @Xaira_Thera; Profesor Asociado @UofT; Director de IA @UHN; ex doctorado, CS @Stanford; opiniones mías. #AI #healthcare #biology
Esto es realmente genial (y una locura):
Los científicos simularon por primera vez una célula viva completa. Cada molécula, cada reacción, desde la replicación del ADN hasta la división celular.
El artículo (Luthey-Schulten et al., Cell 2026, ), recién publicado hoy, utilizó JCVI-Syn3A — una bacteria mínima sintética con menos de 500 genes. Una simulación 3D+tiempo del ciclo celular completo de 105 minutos: replicación del ADN, traducción de proteínas, metabolismo, división. Cada gen, proteína, ARN y reacción química rastreada a través del espacio físico.
Tardó años en construirse. Múltiples GPUs. Seis días de tiempo de cálculo por ejecución.
Y esta es la celda más sencilla posible.
Una célula humana tiene ~20.000 genes. Vive en el tejido. Interactúa con los vecinos. Eso diferencia. Responde a los fármacos de formas que dependen del contexto que no hemos medido completamente.
La simulación mecanicista de la celda mínima cuesta 6 días-GPU para 105 minutos de biología. No puedes escalar eso a células humanas. La complejidad no es 40 veces mayor. Es exponencialmente más difícil.
Por eso el campo se orientó hacia modelos basados en datos. No puedes codificar manualmente el cableado regulatorio de un hepatocito humano. Pero puedes aprenderlo — si tienes los datos de perturbación adecuados recogidos en suficientes contextos biológicos diversos.
Los dos enfoques no compiten. Artículos como este generan la verdad fundamental que los futuros modelos de aprendizaje automático necesitan para validarse. Pero el camino hacia una célula virtual clínicamente útil pasa por modelos de fundación, no por la ampliación de la simulación mecanicista.
¡Trabajo increíble!
402
Probablemente este sea el primer trabajo en la vida real sobre OpenClaw 🔥
MetaClaw: Simplemente habla con tu agente y deja que evolucione automáticamente.
Github:
La mayoría de los agentes de IA quedan congelados en el momento en que llegan. Cada error que cometan, lo repetirán mañana. MetaClaw soluciona eso.
Es una capa de RL online construida sobre OpenClaw que permite a los agentes aprender de sus propias interacciones — sin clúster de GPU, sin conjunto de datos offline, sin equipo de ingeniería necesario.
El bucle es sencillo: cada conversación se registra como una trayectoria de entrenamiento. Cuando el agente falla, analiza qué salió mal y propone una nueva habilidad reutilizable. LoRA actualiza el tren de forma asíncrona en segundo plano. La próxima vez que surja una situación similar, la habilidad relevante se recupera automáticamente en el prompt.
El agente no solo acumula conversaciones. Acumula capacidad.
Lo que diferencia esto del ajuste fino: no hay pipeline de etiquetado humano, ni entrenamientos por lotes, ni ciclo de despliegue. La mejora ocurre de forma continua, invisible, en producción. Interacción → aprendizaje → mejora, en bucle.
No hay conjunto de datos offline. No hace falta programar. No hay clúster de GPU.
La parte a la que merece la pena prestar atención: esto convierte cada interacción del usuario en una señal de entrenamiento. El agente que despliegas el primer día no es el agente que tienes el treinta día. Se ha visto moldeada por todo lo que se ha equivocado y arreglado.
¡Gran trabajo de @HuaxiuYaoML!
406
Populares
Ranking
Favoritas
