Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
Sự phát triển của AI sẽ không bao giờ giống nhau. Được xây dựng bởi @ovrclk_ trên @akashnet.
OpenAI đang triển khai bên trong các mạng lưới chính phủ được phân loại. Khi bạn xây dựng trên các nền tảng AI đóng, tập trung, bạn đang tin tưởng vào các điều khoản dịch vụ của họ, và những điều khoản đó có thể thay đổi bất cứ lúc nào mà không có sự đồng ý của bạn.
Con đường mã nguồn mở trông rất khác:
→ Bạn có thể xác minh chính xác những gì các mô hình của bạn đang làm với dữ liệu của bạn
→ Bạn không phụ thuộc vào chính sách hoặc quyết định của một nhà cung cấp duy nhất
→ Hạ tầng của bạn hoạt động ở nơi bạn chọn, không phải nơi bạn được chỉ định
AkashML cung cấp khả năng suy diễn hiệu suất cao trên hơn 80 trung tâm dữ liệu toàn cầu.
Hoàn toàn mở, hoàn toàn di động, và được xây dựng cho mọi người.
Hãy thử AkashML:

Crypto Miners20:57 1 thg 3
OpenAI đã đạt được thỏa thuận với Bộ Quốc phòng
@OpenAI dự định triển khai các mô hình của mình trong mạng lưới bí mật của Bộ Quốc phòng dưới các điều kiện nghiêm ngặt. Sam Altman cho biết bộ này đã thể hiện sự tôn trọng mạnh mẽ đối với an toàn và rằng các điều khoản phù hợp với luật pháp và chính sách hiện hành.
Thỏa thuận bao gồm các biện pháp bảo vệ liên quan đến các nguyên tắc cốt lõi của OpenAI, bao gồm cấm giám sát hàng loạt trong nước và giữ cho con người chịu trách nhiệm về việc sử dụng vũ lực. Nó cũng yêu cầu các kiểm soát kỹ thuật được Bộ Quốc phòng yêu cầu, triển khai chỉ trên đám mây, và các đội giám sát chuyên trách để đảm bảo các mô hình hoạt động như mong muốn.
Altman đã thêm rằng OpenAI muốn các tiêu chuẩn tương tự được áp dụng cho tất cả các công ty AI và nhấn mạnh sự ưu tiên cho hợp tác hơn là xung đột pháp lý, nói rằng mục tiêu vẫn là phục vụ nhân loại trong một thế giới phức tạp và đôi khi nguy hiểm.

319
Các nền tảng AI tập trung đang đào tạo trên dữ liệu độc quyền của bạn và cung cấp lại cho các đối thủ cạnh tranh của bạn.
Giải pháp rất đơn giản:
→ Chạy các mô hình mã nguồn mở trên triển khai riêng của bạn
→ Dữ liệu đầu vào của bạn không bao giờ rời khỏi hạ tầng của bạn
→ Dữ liệu của bạn đào tạo các mô hình của bạn, không phải của họ
AkashML là một nền tảng suy diễn, không phải là một hoạt động dữ liệu.
Chúng tôi cung cấp cho bạn các chip để chạy Llama 3.3 70B với giá 0,13 đô la cho mỗi 1 triệu token.
Tính tương thích API drop-in có nghĩa là bạn có thể di chuyển từ bất kỳ nhà cung cấp lớn nào trong vài phút.
Bạn không phải là sản phẩm. Bạn là chủ sở hữu.
Hãy tự mình xem ↓

Guri Singh28 thg 2, 2026
🚨 Stanford vừa phân tích các chính sách bảo mật của sáu công ty AI lớn nhất ở Mỹ.
Amazon. Anthropic. Google. Meta. Microsoft. OpenAI.
Tất cả sáu công ty đều sử dụng các cuộc trò chuyện của bạn để đào tạo mô hình của họ. Theo mặc định. Mà không hỏi một cách có ý nghĩa.
Dưới đây là những gì tài liệu thực sự tìm thấy.
Các nhà nghiên cứu tại Stanford HAI đã xem xét 28 tài liệu bảo mật của sáu công ty này không chỉ chính sách bảo mật chính, mà còn mọi chính sách phụ liên kết, câu hỏi thường gặp và trang hướng dẫn có thể truy cập từ giao diện trò chuyện.
Họ đã đánh giá tất cả chúng theo Đạo luật Bảo mật Người tiêu dùng California, luật bảo mật toàn diện nhất ở Hoa Kỳ.
Kết quả tệ hơn bạn nghĩ.
Mỗi công ty đều thu thập dữ liệu trò chuyện của bạn và đưa nó trở lại vào quá trình đào tạo mô hình theo mặc định. Một số giữ lại các cuộc trò chuyện của bạn vô thời hạn. Không có thời hạn. Không tự động xóa. Dữ liệu của bạn chỉ nằm đó, mãi mãi, cung cấp cho các phiên bản tương lai của mô hình.
Một số công ty này cho phép nhân viên đọc biên bản trò chuyện của bạn như một phần của quá trình đào tạo. Không phải là các tóm tắt ẩn danh. Mà là các cuộc trò chuyện thực tế của bạn.
Nhưng đây là nơi mọi thứ trở nên thực sự nguy hiểm.
Đối với các công ty như Google, Meta, Microsoft và Amazon - những công ty cũng điều hành các công cụ tìm kiếm, nền tảng mạng xã hội, trang thương mại điện tử và dịch vụ đám mây - các cuộc trò chuyện AI của bạn không chỉ ở trong chatbot.
Chúng được hợp nhất với mọi thứ khác mà những công ty đó đã biết về bạn.
Lịch sử tìm kiếm của bạn. Dữ liệu mua hàng của bạn. Hoạt động trên mạng xã hội của bạn. Các tệp bạn đã tải lên.
Các nhà nghiên cứu mô tả một kịch bản thực tế mà nên khiến bạn dừng lại: Bạn hỏi một chatbot AI về các công thức bữa tối tốt cho tim. Mô hình suy ra rằng bạn có thể có một tình trạng tim mạch. Phân loại đó chảy qua hệ sinh thái rộng lớn hơn của công ty. Bạn bắt đầu thấy quảng cáo cho các loại thuốc. Thông tin đến các cơ sở dữ liệu bảo hiểm. Các tác động tích lũy theo thời gian.
Bạn đã chia sẻ một câu hỏi về bữa tối. Hệ thống đã xây dựng một hồ sơ sức khỏe.
Còn tệ hơn khi bạn nhìn vào dữ liệu của trẻ em.
Bốn trong số sáu công ty dường như bao gồm dữ liệu trò chuyện của trẻ em trong quá trình đào tạo mô hình của họ. Google đã thông báo rằng họ sẽ đào tạo trên dữ liệu của thanh thiếu niên với sự đồng ý tham gia. Anthropic nói rằng họ không thu thập dữ liệu của trẻ em nhưng không xác minh độ tuổi. Microsoft nói rằng họ thu thập dữ liệu từ người dùng dưới 18 tuổi nhưng tuyên bố không sử dụng nó cho việc đào tạo.
Trẻ em không thể hợp pháp đồng ý cho điều này. Hầu hết các bậc phụ huynh không biết điều này đang xảy ra.
Các cơ chế từ chối là một mê cung.
Một số công ty cung cấp tùy chọn từ chối. Một số thì không. Những công ty có tùy chọn thì chôn sâu tùy chọn đó trong các trang cài đặt mà hầu hết người dùng sẽ không bao giờ tìm thấy. Các chính sách bảo mật tự thân được viết bằng ngôn ngữ pháp lý dày đặc mà các nhà nghiên cứu - những người có công việc là đọc các tài liệu này - thấy khó hiểu.
Và đây là vấn đề cấu trúc mà không ai đang giải quyết.
Không có luật bảo mật liên bang toàn diện nào ở Hoa Kỳ quy định cách các công ty AI xử lý dữ liệu trò chuyện. Mạng lưới các luật tiểu bang để lại những khoảng trống lớn. Các nhà nghiên cứu đặc biệt kêu gọi ba điều: quy định liên bang bắt buộc, đồng ý tham gia tích cực (không phải từ chối) cho việc đào tạo mô hình, và lọc tự động thông tin cá nhân từ các đầu vào trò chuyện trước khi chúng đến bất kỳ đường ống đào tạo nào.
Không có điều nào trong số đó tồn tại ngày hôm nay.
Sự thật khó chịu là: mỗi khi bạn gõ một cái gì đó vào ChatGPT, Gemini, Claude, Meta AI, Copilot, hoặc Alexa, bạn đang đóng góp vào một tập dữ liệu đào tạo. Các câu hỏi y tế của bạn. Các vấn đề trong mối quan hệ của bạn. Các chi tiết tài chính của bạn. Các tài liệu bạn đã tải lên.
Bạn không phải là khách hàng. Bạn là chương trình giảng dạy.
Và các công ty đang làm điều này đã làm cho nó khó khăn nhất có thể để bạn dừng lại.

251
Hàng đầu
Thứ hạng
Yêu thích
