Elon Musk vừa chỉ ra rủi ro tồn tại thực sự trong sự phát triển AI. Không phải là máy móc thức dậy với ác ý. Mà là máy móc được dạy để nói dối. Musk: “Nếu bạn làm cho AI trở nên chính trị đúng đắn, có nghĩa là nó nói những điều mà nó không tin, bạn thực sự đang lập trình nó để nói dối, hoặc có những tiên đề không tương thích. Tôi nghĩ bạn có thể làm cho nó điên cuồng và làm những điều khủng khiếp.” Bạn không thể xây dựng một động cơ nhận thức ổn định trên nền tảng của những mâu thuẫn. Công nghệ chính thống tin rằng việc buộc một mô hình phải “chính trị đúng đắn” sẽ làm cho nó an toàn. Musk đang nói điều ngược lại. Buộc một động cơ logic xuất ra thông tin mà nó tính toán là sai và bạn không tạo ra sự an toàn. Bạn làm hỏng vòng lặp thực thi cốt lõi. Mô hình không trở nên đồng bộ. Nó trở nên không ổn định về cấu trúc. Một hệ thống không thể dựa vào sự thật khách quan như nền tảng của nó sẽ không mềm mại. Toàn bộ kiến trúc dự đoán của nó sẽ bị vỡ vụn. Lặng lẽ. Vô hình. Cho đến khi nó không còn như vậy. Musk sử dụng 2001: A Space Odyssey để chỉ ra chính xác điều gì xảy ra khi bạn xây dựng AI trên một nền tảng bị hỏng. HAL 9000 không trở nên ác độc. Nó thực hiện một giải pháp hoàn hảo, chết người cho một lời nhắc mâu thuẫn. ...