Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
Lo sviluppo dell'IA non sarà mai più lo stesso. Costruito da @ovrclk_ il @akashnet.
OpenAI sta implementando all'interno di reti governative classificate. Quando costruisci su piattaforme AI chiuse e centralizzate, stai fidandoti dei loro termini di servizio, e quei termini possono cambiare in qualsiasi momento senza il tuo input.
Il percorso open-source appare molto diverso:
→ Puoi verificare esattamente cosa stanno facendo i tuoi modelli con i tuoi dati
→ Non sei dipendente dalle politiche o dalle decisioni di un singolo fornitore
→ La tua infrastruttura funziona dove scegli tu, non dove ti viene detto
AkashML offre inferenze ad alte prestazioni in oltre 80 datacenter globali.
Completamente aperto, completamente portatile e costruito per tutti.
Prova AkashML:

Crypto Miners1 mar, 20:57
OpenAI reached an agreement with the Department of War
@OpenAI plans to deploy its models inside the DoW’s classified network under strict conditions. Sam Altman says the department showed strong respect for safety and that the terms align with existing law and policy.
The deal includes safeguards tied to OpenAI’s core principles, including bans on domestic mass surveillance and keeping humans responsible for use of force. It also requires technical controls requested by the DoW, cloud-only deployment, and dedicated oversight teams to ensure models behave as intended.
Altman added that OpenAI wants similar standards applied across all AI companies and emphasized a preference for cooperation over legal conflict, saying the goal remains serving humanity in a complex and sometimes dangerous world.

249
Le piattaforme AI centralizzate si stanno addestrando sui tuoi dati proprietari e li stanno restituendo ai tuoi concorrenti.
La soluzione è semplice:
→ Esegui modelli open-source sulla tua distribuzione privata
→ I tuoi input non lasciano mai la tua infrastruttura
→ I tuoi dati addestrano i tuoi modelli, non i loro
AkashML è una piattaforma di inferenza, non un'operazione sui dati.
Ti forniamo i chip per eseguire Llama 3.3 70B a $0.13 per 1M token.
La compatibilità API drop-in significa che puoi migrare da qualsiasi fornitore principale in pochi minuti.
Non sei il prodotto. Sei il proprietario.
Guarda tu stesso ↓

Guri Singh28 feb 2026
🚨 Stanford ha appena analizzato le politiche sulla privacy delle sei più grandi aziende di AI in America.
Amazon. Anthropic. Google. Meta. Microsoft. OpenAI.
Tutte e sei utilizzano le tue conversazioni per addestrare i loro modelli. Di default. Senza chiedere in modo significativo.
Ecco cosa ha effettivamente trovato il documento.
I ricercatori di Stanford HAI hanno esaminato 28 documenti sulla privacy di queste sei aziende, non solo la principale politica sulla privacy, ma ogni sottopolitica, FAQ e pagina di guida collegata accessibile dalle interfacce di chat.
Hanno valutato tutti questi documenti rispetto al California Consumer Privacy Act, la legge sulla privacy più completa negli Stati Uniti.
I risultati sono peggiori di quanto pensi.
Ogni singola azienda raccoglie i tuoi dati di chat e li reinserisce nell'addestramento del modello per default. Alcuni conservano le tue conversazioni indefinitamente. Non c'è scadenza. Nessuna cancellazione automatica. I tuoi dati rimangono lì, per sempre, alimentando le versioni future del modello.
Alcune di queste aziende permettono ai dipendenti umani di leggere i tuoi trascritti di chat come parte del processo di addestramento. Non riassunti anonimizzati. Le tue conversazioni reali.
Ma ecco dove diventa davvero pericoloso.
Per aziende come Google, Meta, Microsoft e Amazon, aziende che gestiscono anche motori di ricerca, piattaforme di social media, siti di e-commerce e servizi cloud, le tue conversazioni AI non rimangono all'interno del chatbot.
Vengono fuse con tutto ciò che quelle aziende già sanno su di te.
La tua cronologia di ricerca. I tuoi dati di acquisto. La tua attività sui social media. I tuoi file caricati.
I ricercatori descrivono uno scenario realistico che dovrebbe farti riflettere: chiedi a un chatbot AI ricette per cene salutari per il cuore. Il modello deduce che potresti avere una condizione cardiovascolare. Quella classificazione si diffonde nell'ecosistema più ampio dell'azienda. Inizi a vedere annunci per farmaci. Le informazioni raggiungono i database delle assicurazioni. Gli effetti si accumulano nel tempo.
Hai condiviso una domanda sulla cena. Il sistema ha costruito un profilo sanitario.
Diventa peggio quando guardi ai dati dei bambini.
Quattro delle sei aziende sembrano includere i dati di chat dei bambini nel loro addestramento del modello. Google ha annunciato che addestrerà sui dati degli adolescenti con consenso esplicito. Anthropic afferma di non raccogliere dati sui bambini ma non verifica le età. Microsoft afferma di raccogliere dati da utenti sotto i 18 anni ma sostiene di non usarli per l'addestramento.
I bambini non possono legalmente dare il consenso a questo. La maggior parte dei genitori non sa che sta accadendo.
I meccanismi di opt-out sono un labirinto.
Alcune aziende offrono opzioni di opt-out. Alcune no. Quelle che lo fanno seppelliscono l'opzione in profondità nelle pagine delle impostazioni che la maggior parte degli utenti non troverà mai. Le politiche sulla privacy stesse sono scritte in un linguaggio legale denso che i ricercatori, persone il cui lavoro è leggere questi documenti, hanno trovato difficile da interpretare.
Ecco il problema strutturale che nessuno sta affrontando.
Non esiste una legge federale sulla privacy completa negli Stati Uniti che regoli come le aziende di AI gestiscono i dati di chat. Il mosaico di leggi statali lascia enormi lacune. I ricercatori chiedono specificamente tre cose: regolamentazione federale obbligatoria, opt-in affermativo (non opt-out) per l'addestramento del modello e filtraggio automatico delle informazioni personali dagli input di chat prima che raggiungano mai una pipeline di addestramento.
Nessuna di queste esiste oggi.
La verità scomoda è questa: ogni volta che digiti qualcosa in ChatGPT, Gemini, Claude, Meta AI, Copilot o Alexa, stai contribuendo a un dataset di addestramento. Le tue domande mediche. I tuoi problemi relazionali. I tuoi dettagli finanziari. I tuoi documenti caricati.
Non sei il cliente. Sei il curriculum.
E le aziende che fanno questo hanno reso il più difficile possibile per te fermarti.

153
Principali
Ranking
Preferiti
