Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
Dezvoltarea AI nu va mai fi niciodată la fel. Construit de @ovrclk_ pe @akashnet.
OpenAI se implementează în rețele guvernamentale clasificate. Când construiești pe platforme AI închise și centralizate, ai încredere în termenii lor de utilizare, iar acei termeni se pot schimba oricând, fără intervenția ta.
Calea open-source arată foarte diferit:
→ Poți verifica exact ce fac modelele tale cu datele tale
→ Nu depinzi de politicile sau deciziile unui singur furnizor
→ Infrastructura ta funcționează unde dorești, nu unde ți se spune
AkashML oferă inferențe de înaltă performanță în 80+ centre de date globale.
Complet deschis, complet portabil și construit pentru toată lumea.
Încearcă AkashML:

Crypto Miners1 mar., 20:57
OpenAI reached an agreement with the Department of War
@OpenAI plans to deploy its models inside the DoW’s classified network under strict conditions. Sam Altman says the department showed strong respect for safety and that the terms align with existing law and policy.
The deal includes safeguards tied to OpenAI’s core principles, including bans on domestic mass surveillance and keeping humans responsible for use of force. It also requires technical controls requested by the DoW, cloud-only deployment, and dedicated oversight teams to ensure models behave as intended.
Altman added that OpenAI wants similar standards applied across all AI companies and emphasized a preference for cooperation over legal conflict, saying the goal remains serving humanity in a complex and sometimes dangerous world.

241
Platformele AI centralizate se antrenează pe baza datelor tale proprietare și le transmit înapoi concurenților.
Soluția este simplă:
→ Rulează modele open-source pe propria ta implementare privată
→ Intrările tale nu părăsesc niciodată infrastructura
→ Datele tale antrenează modelele, nu ale lor
AkashML este o platformă de inferență, nu o operațiune de date.
Îți oferim jetoanele pentru a rula Llama 3.3 70B la 0.13$ la fiecare 1M token.
Compatibilitatea API-urilor drop-in înseamnă că poți migra de la orice furnizor major în câteva minute.
Tu nu ești produsul. Tu ești proprietarul.
Vezi cu ochii tăi ↓

Guri Singh28 feb. 2026
🚨 Stanford tocmai a analizat politicile de confidențialitate ale celor șase cele mai mari companii de inteligență artificială din America.
Amazon. Anthropic. Google. Meta. Microsoft. OpenAI.
Toți cei șase folosesc conversațiile tale pentru a-și antrena modelele. În mod implicit. Fără să întrebe cu adevărat.
Iată ce a descoperit de fapt ziarul.
Cercetătorii de la Stanford HAI au examinat 28 de documente de confidențialitate din aceste șase companii, nu doar politica principală de confidențialitate, ci și fiecare subpolitică, FAQ și pagina de ghidare accesibilă din interfețele de chat.
Le-au evaluat pe toate în raport cu California Consumer Privacy Act, cea mai cuprinzătoare lege a confidențialității din Statele Unite.
Rezultatele sunt mai rele decât crezi.
Fiecare companie colectează datele tale de chat și le reintroduce implicit în antrenamentul modelelor. Unii îți păstrează conversațiile la nesfârșit. Nu există expirare. Fără ștergere automată. Datele tale stau acolo, la nesfârșit, alimentând versiunile viitoare ale modelului.
Unele dintre aceste companii permit angajaților umani să citească transcrierile chatului tău ca parte a procesului de instruire. Nu sunt rezumate anonime. Conversațiile tale reale.
Dar aici devine cu adevărat periculos.
Pentru companii precum Google, Meta, Microsoft și Amazon, care folosesc și motoare de căutare, platforme de social media, site-uri de comerț electronic și servicii cloud, conversațiile tale AI nu rămân în interiorul chatbotului.
Ele se combină cu tot ce știu deja acele companii despre tine.
Istoricul tău de căutări. Datele tale de achiziție. Activitatea ta pe rețelele sociale. Fișierele tale încărcate.
Cercetătorii descriu un scenariu realist care ar trebui să te facă să te opresc: ceri unui chatbot AI rețete de cină sănătoase pentru inimă. Modelul sugerează că ai putea avea o afecțiune cardiovasculară. Această clasificare trece prin ecosistemul mai larg al companiei. Începi să vezi reclame la medicamente. Informațiile ajung în bazele de date de asigurări. Efectele se acumulează în timp.
Ai împărtășit o întrebare despre cină. Sistemul a construit un profil de sănătate.
Se înrăutățește când te uiți la datele copiilor.
Patru dintre cele șase companii par să includă datele de chat ale copiilor în antrenamentul lor model. Google a anunțat că se va antrena pe baza datelor adolescenților cu consimțământ opt-in. Anthropic spune că nu colectează date despre copii, dar nu verifică vârstele. Microsoft spune că colectează date de la utilizatori sub 18 ani, dar susține că nu le folosește pentru instruire.
Copiii nu pot consimți legal la acest lucru. Majoritatea părinților nu știu că se întâmplă.
Mecanismele de renunțare sunt un labirint.
Unele companii oferă opțiuni de retragere. Altele nu. Cei care o fac ascund opțiunea adânc în paginile de setări pe care majoritatea utilizatorilor nu le vor găsi niciodată. Politicile de confidențialitate sunt scrise într-un limbaj juridic dens, pe care cercetătorii care se ocupă de citirea acestor documente l-au găsit dificil de interpretat.
Și iată problema structurală pe care nimeni nu o abordează.
Nu există o lege federală cuprinzătoare a confidențialității în Statele Unite care să reglementeze modul în care companiile de IA gestionează datele de chat. Mozaicul de legi de stat lasă goluri uriașe. Cercetătorii solicită în mod specific trei lucruri: reglementare federală obligatorie, opt-in afirmativ (nu opt-out) pentru antrenamentul modelului și filtrarea automată a informațiilor personale din inputurile de chat înainte ca acestea să ajungă la un flux de instruire.
Niciuna dintre acestea nu mai există astăzi.
Adevărul inconfortabil este acesta: de fiecare dată când tastezi ceva în ChatGPT, Gemini, Claude, Meta AI, Copilot sau Alexa, contribui la un set de date de antrenament. Întrebările tale medicale. Problemele tale de relație. Detaliile tale financiare. Documentele tale încărcate.
Tu nu ești clientul. Tu ești curriculumul.
Iar companiile care fac asta au făcut cât mai dificil pentru tine să te oprești.

143
Limită superioară
Clasament
Favorite
