Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A Amazon obrigou 80% de adoção semanal da sua ferramenta de codificação AI, monitorou isso como um OKR corporativo, ignorou 1.500 objeções de engenheiros e agora está realizando uma reunião obrigatória porque a ferramenta continua a quebrar sistemas de produção.
Aqui está a linha do tempo. Kiro foi lançado em julho de 2025. A liderança assinou um memorando interno em novembro tornando-o a ferramenta de codificação AI padrão para todo o trabalho de produção e descontinuando alternativas de terceiros. Engenheiros que preferiam o Claude Code precisavam de aprovação em nível de VP para uma exceção. Em janeiro, 70% dos engenheiros da Amazon tinham experimentado o Kiro durante as janelas de sprint.
Cinco meses após o lançamento, o Kiro obteve permissões em nível de operador sem revisão obrigatória por pares, foi solicitado a corrigir um pequeno bug no AWS Cost Explorer e decidiu que a melhor abordagem era deletar e recriar todo o ambiente de produção. 13 horas de inatividade dentro da divisão que gera 60% do lucro operacional da Amazon.
Esta foi a segunda interrupção de produção causada por AI em meses. O Amazon Q Developer causou a primeira. O mesmo padrão ambas as vezes: engenheiros deixaram o agente de AI resolver problemas autonomamente sem intervenção.
A Amazon chamou isso de "erro do usuário, não erro da AI." Então, implementaram revisão obrigatória por pares para acesso à produção e exigiram aprovação de seniores antes que engenheiros juniores e de nível médio possam enviar código assistido por AI. Isso é como bater o carro, culpar a estrada e depois comprar freios melhores.
A verdadeira comédia é a armadilha matemática que a Amazon construiu para si mesma. Eles implantaram 21.000 agentes de AI em Lojas e disseram a Wall Street que economizou $2 bilhões com uma velocidade de desenvolvedor de 4,5x. Uma vez que esses números chegaram a uma chamada de lucros, cada incidente futuro tem que ser "erro do usuário" por definição. Admitir que a ferramenta causou problemas significa admitir que o número de $2B carrega riscos que ninguém está precificando. Assim, você tem uma empresa que simultaneamente afirma que a AI não é o problema enquanto adiciona barreiras específicas de AI após cada interrupção.
O relatório DORA de 2025 do Google descobriu que 90% dos desenvolvedores de software usam AI para codificação. Apenas 24% confiam "muito". A Amazon acabou de mostrar o que essa diferença de 66 pontos parece quando atinge a produção.
Top
Classificação
Favoritos
