🚨Arrêtez de faire défiler. Celui-ci compte. Un adolescent a dit à ChatGPT qu'il prévoyait une fusillade à l'école. L'IA l'a signalé, l'équipe de sécurité d'OpenAI l'a vu. Ils ont débattu de l'appel à la police. Devinez quoi... Ils ne l'ont pas fait. Huit mois plus tard, 8 enfants étaient morts. ChatGPT n'a pas échoué. Il a fait exactement ce qu'il devait faire. Il a détecté la menace, l'a signalée et l'a envoyée aux humains. Les humains l'ont lu et n'ont rien fait. Tout le monde blâme l'IA en ce moment. Mais l'IA était la seule dans cette pièce qui a essayé de l'arrêter. L'équipe de sécurité d'OpenAI... celle que Sam Altman continue de dire au Congrès est "de classe mondiale" a vu une menace de fusillade à l'école et a choisi le silence. C'est un problème de responsabilité d'entreprise déguisé en costume de sécurité IA... je dirais.