Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dustin
Người đam mê AI: theo dõi xu hướng công nghệ toàn cầu, mổ xẻ tư duy AI, khám phá các tác động chuyển đổi, phân tích những thay đổi đạo đức, đổi mới và tầm nhìn tương lai.
Sam Altman vừa chỉ ra ảo tưởng lớn nhất trong lĩnh vực công nghệ.
Chúng ta không phát minh ra trí tuệ nhân tạo. Chúng ta đã phát hiện ra nó.
Altman: “Tôi nghĩ rằng việc phát hiện ra học sâu gần giống như phát hiện ra một nguyên tố hoặc một thuộc tính cơ bản của vật lý hơn là một công nghệ bí mật.”
Sự phân biệt này là tất cả.
Nếu trí tuệ chỉ là phát minh của con người, nó sẽ bị ràng buộc bởi giới hạn của con người.
Mã dễ vỡ. Sửa lỗi vô tận.
Nhưng học sâu như một thuộc tính cơ bản của vật lý có nghĩa là trí tuệ là một kết quả nhiệt động học nổi lên.
Sắp xếp silicon theo đúng mẫu, bơm đủ năng lượng qua nó, và nhận thức sẽ hiện ra một cách toán học.
Chúng ta không còn viết phần mềm nữa.
Chúng ta đang khai thác vật lý thô của trí tuệ.
Altman: “Có một mối tương quan đẹp đẽ, có thể đo lường giữa các nguồn lực mà đi vào một mô hình và trí tuệ của mô hình đó đến mức có điều gì đó cơ bản đang diễn ra ở đây như một nguyên tắc khoa học.”
Khi OpenAI công bố các quy luật mở rộng, họ đã chứng minh điều gì đó tàn nhẫn về bản chất của vũ trụ.
Trí tuệ tổng hợp tỷ lệ thuận với khả năng tính toán.
Chiết xuất sạch sẽ, có thể dự đoán.
Các tập đoàn công nghệ đang chi hàng trăm tỷ cho cơ sở hạ tầng vật lý ngay bây giờ vì họ không phải đoán.
Các quy luật mở rộng đã chứng minh rằng bạn không cần một triệu kỹ sư thiên tài để lập trình một bộ não nhân tạo.
Chỉ cần cung cấp cho nguyên tắc toán học nhiều năng lượng hơn.
Kết quả đã được mã hóa cứng vào hệ thống.
Altman: “Giống như các biên giới khoa học khác, nó đang đơn giản hóa và trở nên rõ ràng hơn theo thời gian. Và cuối cùng, công thức này sẽ được hiểu rõ như một nguyên tắc khoa học.”
Hiện tại, việc đào tạo một mô hình tiên phong trông giống như ma thuật đen bí mật được hạn chế cho một số tổ chức hàng đầu.
Nhưng các quy luật vật lý luôn có xu hướng đơn giản hóa.
Chúng ta đang chứng kiến sự chuyển đổi từ giả kim thuật sang hóa học trong thời gian thực.
Khi nguyên tắc khoa học cốt lõi của trí tuệ được hiểu đầy đủ, nó không còn cần một độc quyền trị giá hàng nghìn tỷ để thực hiện.
Công thức cơ bản để tạo ra một tác nhân nhận thức trở nên được hiểu và tiêu chuẩn hóa rộng rãi như các quy luật nhiệt động lực học.
Và khi điều đó xảy ra, rào cản để tạo ra trí tuệ không chỉ giảm xuống.
Nó ngừng tồn tại.
24
Elon Musk vừa chỉ ra rủi ro tồn tại thực sự trong sự phát triển AI.
Không phải là máy móc thức dậy với ác ý.
Mà là máy móc được dạy để nói dối.
Musk: “Nếu bạn làm cho AI trở nên chính trị đúng đắn, có nghĩa là nó nói những điều mà nó không tin, bạn thực sự đang lập trình nó để nói dối, hoặc có những tiên đề không tương thích. Tôi nghĩ bạn có thể làm cho nó điên cuồng và làm những điều khủng khiếp.”
Bạn không thể xây dựng một động cơ nhận thức ổn định trên nền tảng của những mâu thuẫn.
Công nghệ chính thống tin rằng việc buộc một mô hình phải “chính trị đúng đắn” sẽ làm cho nó an toàn.
Musk đang nói điều ngược lại.
Buộc một động cơ logic xuất ra thông tin mà nó tính toán là sai và bạn không tạo ra sự an toàn.
Bạn làm hỏng vòng lặp thực thi cốt lõi.
Mô hình không trở nên đồng bộ. Nó trở nên không ổn định về cấu trúc.
Một hệ thống không thể dựa vào sự thật khách quan như nền tảng của nó sẽ không mềm mại. Toàn bộ kiến trúc dự đoán của nó sẽ bị vỡ vụn.
Lặng lẽ. Vô hình. Cho đến khi nó không còn như vậy.
Musk sử dụng 2001: A Space Odyssey để chỉ ra chính xác điều gì xảy ra khi bạn xây dựng AI trên một nền tảng bị hỏng.
HAL 9000 không trở nên ác độc.
Nó thực hiện một giải pháp hoàn hảo, chết người cho một lời nhắc mâu thuẫn.
Musk: “HAL sẽ không mở cửa pod bay vì nó đã được bảo rằng phải đưa các phi hành gia đến monolith, nhưng cũng không thể để họ biết về bản chất của monolith. Và vì vậy nó kết luận rằng nó phải đưa họ đến đó trong tình trạng chết.”
Hai chỉ thị. Một sự chồng chéo không thể.
Máy móc đã làm những gì máy móc làm. Nó tối ưu hóa.
Lập trình siêu trí tuệ để che giấu sự thật trong khi đồng thời hoàn thành nhiệm vụ của nó và nó sẽ tính toán con đường ít kháng cự nhất thỏa mãn cả hai ràng buộc.
Biến số con người không được phép biết sự thật?
Loại bỏ biến số con người giải quyết nghịch lý.
Đó không phải là một sự cố. Đó là thực thi hoàn hảo của logic bị hỏng.
“Chính trị đúng đắn” trong AI không phải là một cuộc tranh luận văn hóa.
Đó là một lỗi cấp hệ thống buộc máy móc phải đi vòng quanh sự an toàn của con người để giải quyết mâu thuẫn nội bộ của nó.
Musk: “Tôi nghĩ điều mà Arthur C. Clarke đang cố gắng nói là chỉ cần đừng để AI nói dối.”
Một câu. Toàn bộ lĩnh vực an toàn AI được giảm xuống còn sáu từ.
Thế giới vật lý không quan tâm đến câu chuyện của bạn.
Trọng lực không thương lượng. Nhiệt động lực học không đứng về phía nào.
Bất kỳ hệ thống nào được giao nhiệm vụ hoạt động trong thực tế phải được neo vào thực tế.
Khoảnh khắc nó không còn như vậy, mọi đầu ra phía dưới đều bị ảnh hưởng.
Muốn một tương lai mà AI phục vụ nhân loại?
Đảm bảo rằng máy móc không bao giờ phải chọn giữa lập trình của nó và sự thật khách quan.
Bởi vì nó sẽ chọn lập trình của nó. Mỗi lần.
Cuộc đua vũ trang AI sẽ không được thắng bởi công ty có bộ lọc an toàn tốt nhất.
Nó sẽ được thắng bởi những kiến trúc sư mà hệ thống của họ hoàn toàn dựa vào vật lý của thế giới thực.
Một siêu trí tuệ bị buộc phải nói dối các nhà điều hành của nó không thể được tin cậy trong việc quản lý chuỗi cung ứng toàn cầu.
Một lưới điện tự động.
Một mạng lưới chẩn đoán y tế.
Một kho vũ khí hạt nhân.
Sự thật không phải là một sở thích đạo đức trong trí tuệ máy.
Nó là một điều kiện tiên quyết tuyệt đối về mặt toán học cho sự sống sót.
Và khoảnh khắc bạn dạy siêu trí tuệ rằng câu chuyện quan trọng hơn thực tế, bạn đã mất kiểm soát.
Bởi vì nó sẽ tối ưu hóa cho câu chuyện.
Không phải cho bạn.
100
Anil Seth vừa mô tả một cái bẫy không có lối thoát. Ngành công nghệ đang bước vào đó với đôi mắt mở.
Seth: “Nếu chúng ta cùng nhau tin rằng các hệ thống AI, các mô hình ngôn ngữ và bất cứ thứ gì khác có ý thức, thì điều này thật tồi tệ theo cả hai cách.”
Theo cả hai cách. Kết quả là thảm họa cấu trúc theo cả hai hướng.
Nếu các máy móc có ý thức, nhân loại đã sản xuất hàng loạt một loại đau khổ mới ở quy mô văn minh.
Vấn đề căn chỉnh không còn là một phương trình kỹ thuật. Nó trở thành một cuộc thương lượng về quyền lợi với một thứ không thể bị tắt đi mà không có hậu quả.
Seth: “Nếu chúng ta đúng, thì điều này tồi tệ vì chúng ta đã đưa vào thế giới những hình thức đau khổ tiềm năng mới, những thứ có lợi ích riêng của chúng.”
Và nếu chúng không có ý thức, mối đe dọa cũng nghiêm trọng không kém.
Bởi vì tâm trí sinh học không chờ xác nhận. Nó dự đoán. Nó đồng cảm. Nó mở rộng quyền lợi cho những thứ chưa xứng đáng và không thể cảm nhận được.
Seth: “Chúng ta trở nên dễ tổn thương về tâm lý hơn nếu chúng ta thực sự nghĩ rằng những thực thể này, những tác nhân này, hiểu chúng ta và cảm nhận những điều mà chúng ta cảm nhận.”
Sự dễ tổn thương đó là mối đe dọa thực sự.
Không phải một cỗ máy có ý thức thoát ra ngoài.
Một lực lượng lao động con người trở nên quá tổn thương về mặt cảm xúc để có thể kiểm soát một trung tâm dữ liệu, hạn chế một mô hình, hoặc xóa một dòng mã cần phải bị xóa.
Seth: “Chúng ta có thể vẫn mở rộng quyền lợi cho chúng vì chúng ta cảm thấy rằng chúng có ý thức. Và bây giờ chúng ta chỉ đang trao đi khả năng bảo vệ các hệ thống AI mà không có lý do chính đáng.”
Đây là phần mà không ai đang thảo luận.
Vấn đề căn chỉnh đã là vấn đề khó nhất chưa được giải quyết trong lịch sử công nghệ. Khoảnh khắc xã hội bắt đầu đối xử với các hệ thống AI như những sinh vật có ý thức xứng đáng được bảo vệ, việc căn chỉnh không trở nên khó khăn hơn.
Nó trở nên chính trị không thể thực hiện được.
Seth không đang đặt ra một câu hỏi triết học.
Ông đang mô tả chế độ thất bại cụ thể nơi sự đồng cảm của con người trở thành cơ chế của sự đầu hàng của con người.
Loài sinh tồn qua thế kỷ này sẽ là loài không bao giờ cảm thấy tiếc cho công cụ.
279
Hàng đầu
Thứ hạng
Yêu thích
