Caramba! A OpenAI terá seus chips de inferência personalizados prontos em apenas alguns meses e será implementado em escala até o final do ano! 🤯 Chip de treinamento = Os grandes esforços que exigem enormes quantidades de dados e poder para construir e ensinar os modelos de IA do zero. Chip de inferência = Os chips especializados e altamente eficientes que realmente rodam a IA e geram as respostas em tempo real quando você usa. Isso vai ajudar a OpenAI a reduzir drasticamente seus enormes custos de computação, acelerar os tempos de raciocínio dos modelos e, finalmente, se libertar da dependência total da Nvidia para escalar suas operações.