Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
Pengembangan AI tidak akan pernah sama. Dibangun oleh @ovrclk_ pada @akashnet.
OpenAI digunakan di dalam jaringan pemerintah rahasia. Saat Anda membangun platform AI tertutup dan terpusat, Anda mempercayai persyaratan layanan mereka, dan persyaratan tersebut dapat berubah sewaktu-waktu tanpa masukan Anda.
Jalur sumber terbuka terlihat sangat berbeda:
→ Anda dapat memverifikasi dengan tepat apa yang dilakukan model Anda dengan data Anda
→ Anda tidak bergantung pada kebijakan atau keputusan penyedia tunggal
→ Infrastruktur Anda berjalan di mana pun Anda memilih, bukan di tempat yang diberitahu
AkashML menghadirkan inferensi berkinerja tinggi di 80+ pusat data global.
Sepenuhnya terbuka, sepenuhnya portabel, dan dibuat untuk semua orang.
Coba AkashML:

Crypto Miners1 Mar, 20.57
OpenAI mencapai kesepakatan dengan Departemen Perang
@OpenAI berencana untuk menyebarkan modelnya di dalam jaringan rahasia DoW di bawah kondisi ketat. Sam Altman mengatakan departemen menunjukkan rasa hormat yang kuat terhadap keselamatan dan bahwa persyaratan tersebut selaras dengan hukum dan kebijakan yang ada.
Kesepakatan itu mencakup perlindungan yang terkait dengan prinsip-prinsip inti OpenAI, termasuk larangan pengawasan massal domestik dan menjaga manusia bertanggung jawab atas penggunaan kekuatan. Ini juga membutuhkan kontrol teknis yang diminta oleh DoW, penerapan khusus cloud, dan tim pengawasan khusus untuk memastikan model berperilaku sebagaimana mestinya.
Altman menambahkan bahwa OpenAI menginginkan standar serupa diterapkan di semua perusahaan AI dan menekankan preferensi untuk kerja sama daripada konflik hukum, dengan mengatakan tujuannya tetap melayani umat manusia di dunia yang kompleks dan terkadang berbahaya.

279
Platform AI terpusat melatih data milik Anda dan memberikannya kembali ke pesaing Anda.
Perbaikannya sederhana:
→ Jalankan model sumber terbuka pada penyebaran pribadi Anda sendiri
→ Masukan Anda tidak pernah meninggalkan infrastruktur Anda
→ Data Anda melatih model Anda, bukan model mereka
AkashML adalah platform inferensi, bukan operasi data.
Kami memberi Anda chip untuk menjalankan Llama 3.3 70B dengan harga $0.13 per 1 juta token.
Kompatibilitas API drop-in berarti Anda dapat bermigrasi dari penyedia utama mana pun dalam hitungan menit.
Anda bukan produknya. Anda adalah pemiliknya.
Lihat sendiri ↓

Guri Singh28 Feb 2026
🚨 Stanford baru saja menganalisis kebijakan privasi dari enam perusahaan AI terbesar di Amerika.
Amazon. Antropis. Google. Meta. Microsoft. Buka AI.
Keenamnya menggunakan percakapan Anda untuk melatih model mereka. Secara default. Tanpa bertanya secara berarti.
Inilah yang sebenarnya ditemukan oleh makalah itu.
Para peneliti di Stanford HAI memeriksa 28 dokumen privasi di enam perusahaan ini tidak hanya kebijakan privasi utama, tetapi setiap subkebijakan tertaut, FAQ, dan halaman panduan yang dapat diakses dari antarmuka obrolan.
Mereka mengevaluasi semuanya terhadap Undang-Undang Privasi Konsumen California, undang-undang privasi paling komprehensif di Amerika Serikat.
Hasilnya lebih buruk dari yang Anda kira.
Setiap perusahaan mengumpulkan data obrolan Anda dan memasukkannya kembali ke pelatihan model secara default. Beberapa mempertahankan percakapan Anda tanpa batas waktu. Tidak ada kedaluwarsa. Tidak ada penghapusan otomatis. Data Anda hanya duduk di sana, selamanya, memberi makan versi model masa mendatang.
Beberapa perusahaan ini mengizinkan karyawan manusia membaca transkrip obrolan Anda sebagai bagian dari proses pelatihan. Bukan ringkasan anonim. Percakapan Anda yang sebenarnya.
Tapi di sinilah itu menjadi benar-benar berbahaya.
Untuk perusahaan seperti Google, Meta, Microsoft, dan perusahaan Amazon yang juga menjalankan mesin pencari, platform media sosial, situs e-niaga, dan layanan cloud, percakapan AI Anda tidak tinggal di dalam chatbot.
Mereka digabungkan dengan semua hal lain yang sudah diketahui oleh perusahaan-perusahaan tersebut tentang Anda.
Riwayat penelusuran Anda. Data pembelian Anda. Aktivitas media sosial Anda. File yang Anda upload.
Para peneliti menggambarkan skenario realistis yang seharusnya membuat Anda berhenti sejenak: Anda meminta chatbot AI untuk resep makan malam yang menyehatkan jantung. Model menyimpulkan Anda mungkin memiliki kondisi kardiovaskular. Klasifikasi itu mengalir melalui ekosistem perusahaan yang lebih luas. Anda mulai melihat iklan untuk obat-obatan. Informasi tersebut mencapai database asuransi. Efeknya bertambah dari waktu ke waktu.
Anda membagikan pertanyaan makan malam. Sistem membangun profil kesehatan.
Itu menjadi lebih buruk ketika Anda melihat data anak-anak.
Empat dari enam perusahaan tampaknya menyertakan data obrolan anak-anak dalam pelatihan model mereka. Google mengumumkan akan melatih data remaja dengan persetujuan keikutsertaan. Anthropic mengatakan tidak mengumpulkan data anak-anak tetapi tidak memverifikasi usia. Microsoft mengatakan mengumpulkan data dari pengguna di bawah 18 tahun tetapi mengklaim tidak menggunakannya untuk pelatihan.
Anak-anak tidak dapat menyetujui hal ini secara hukum. Kebanyakan orang tua tidak tahu itu terjadi.
Mekanisme opt-out adalah labirin.
Beberapa perusahaan menawarkan penolakan. Beberapa tidak. Yang mengubur opsi jauh di dalam halaman pengaturan yang tidak akan pernah ditemukan sebagian besar pengguna. Kebijakan privasi itu sendiri ditulis dalam bahasa hukum yang padat yang sulit ditafsirkan oleh orang-orang peneliti yang pekerjaannya membaca dokumen-dokumen ini.
Dan inilah masalah struktural yang tidak ditangani oleh siapa pun.
Tidak ada undang-undang privasi federal yang komprehensif di Amerika Serikat yang mengatur bagaimana perusahaan AI menangani data obrolan. Tambal sulam undang-undang negara bagian meninggalkan celah besar. Para peneliti secara khusus menyerukan tiga hal: peraturan federal wajib, keikutsertaan afirmatif (bukan opt-out) untuk pelatihan model, dan penyaringan otomatis informasi pribadi dari input obrolan sebelum mereka mencapai saluran pelatihan.
Tak satu pun dari itu ada hari ini.
Kebenaran yang tidak nyaman adalah ini: setiap kali Anda mengetikkan sesuatu ke ChatGPT, Gemini, Claude, Meta AI, Copilot, atau Alexa, Anda berkontribusi pada kumpulan data pelatihan. Pertanyaan medis Anda. Masalah hubungan Anda. Detail keuangan Anda. Dokumen yang Anda upload.
Anda bukan pelanggan. Anda adalah kurikulum.
Dan perusahaan yang melakukan ini telah membuat Anda sesulit mungkin untuk berhenti.

168
Teratas
Peringkat
Favorit
