Je ne comprends pas exactement pourquoi le fait de sembler conscient = être conscient. Après avoir préentraîné un modèle, vous passez par beaucoup de réglages fins sur des données de haute qualité pour le rendre capable de converser, de résoudre des problèmes, etc. et cela le rend-il soudainement conscient ? Optimiser pour créer une expérience qui semble humaine est l'une des nombreuses formes possibles qu'un LLM peut prendre. Vous pourriez l'entraîner sur des tableurs, du code, des json, des tokens d'image. Il semble extrêmement biaisé de supposer que la conscience est liée à une forte reproduction de l'humanité.