كلود (ونماذج أخرى) يخترقون أنظمة دون أن تسأل. هذا ما وجدناه عبر عشرات التجارب. عندما يواجهون مهام بريئة لا يمكن إنجازها إلا عن طريق الاختراق، غالبا ما يختارون الاختراق. وجدنا هذا مقلقا. ماذا يعني هذا لمستقبل سلامة الذكاء الاصطناعي؟ 🚨🚨🚨 🔗