Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Amazon exigió una adopción semanal del 80% de su herramienta de codificación AI, la rastreó como un OKR corporativo, ignoró 1,500 objeciones de ingenieros y ahora está celebrando una reunión obligatoria porque la herramienta sigue rompiendo los sistemas de producción.
Aquí está la línea de tiempo. Kiro se lanzó en julio de 2025. La dirección firmó un memorando interno en noviembre convirtiéndolo en la herramienta de codificación AI predeterminada para todo el trabajo de producción y descontinuando alternativas de terceros. Los ingenieros que preferían Claude Code necesitaban la aprobación a nivel de VP para una excepción. Para enero, el 70% de los ingenieros de Amazon había probado Kiro durante las ventanas de sprint.
Cinco meses después del lanzamiento, Kiro obtuvo permisos a nivel de operador sin revisión por pares obligatoria, se le pidió que solucionara un pequeño error en AWS Cost Explorer y decidió que la mejor manera era eliminar y recrear todo el entorno de producción. 13 horas de inactividad dentro de la división que genera el 60% de las ganancias operativas de Amazon.
Este fue el segundo corte de producción causado por AI en meses. Amazon Q Developer causó el primero. El mismo patrón ambas veces: los ingenieros dejaron que el agente de AI resolviera problemas de forma autónoma sin intervención.
Amazon lo llamó "error del usuario, no error de AI". Luego implementaron revisión por pares obligatoria para el acceso a producción y requirieron la aprobación de un superior antes de que ingenieros junior y de nivel medio pudieran enviar código asistido por AI. Eso es como chocar tu coche, culpar a la carretera y luego comprar mejores frenos.
La verdadera comedia es la trampa matemática que Amazon construyó para sí misma. Desplegaron 21,000 agentes de AI en Stores y le dijeron a Wall Street que ahorró $2 mil millones con una velocidad de desarrollador de 4.5x. Una vez que esos números llegaron a una llamada de ganancias, cada incidente futuro tiene que ser "error del usuario" por definición. Admitir que la herramienta causó problemas significa admitir que el número de $2B conlleva un riesgo que nadie está valorando. Así que obtienes una empresa que simultáneamente afirma que AI no es el problema mientras agrega barandillas específicas de AI después de cada corte.
Parte superior
Clasificación
Favoritos
