Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
AI-utvikling vil aldri bli det samme. Bygget av @ovrclk_ på @akashnet.
OpenAI implementeres inne i klassifiserte offentlige nettverk. Når du bygger på lukkede, sentraliserte AI-plattformer, stoler du på deres bruksvilkår, og disse vilkårene kan endres når som helst uten din innblanding.
Åpen kildekode-veien ser veldig annerledes ut:
→ Du kan verifisere nøyaktig hva modellene dine gjør med dataene dine
→ Du er ikke avhengig av en enkelt leverandørs retningslinjer eller beslutninger
→ Infrastrukturen din går der du velger, ikke der du blir fortalt
AkashML leverer høyytelses inferenser på tvers av 80+ globale datasentre.
Helt åpen, fullt bærbar, og bygget for alle.
Prøv AkashML:

Crypto Miners1. mars, 20:57
OpenAI inngikk en avtale med Krigsdepartementet
@OpenAI planlegger å plassere modellene sine innenfor DoWs klassifiserte nettverk under strenge betingelser. Sam Altman sier at avdelingen viste sterk respekt for sikkerhet, og at vilkårene samsvarer med gjeldende lover og retningslinjer.
Avtalen inkluderer sikkerhetstiltak knyttet til OpenAIs kjerneprinsipper, inkludert forbud mot innenlandsk masseovervåkning og å holde mennesker ansvarlige for bruk av makt. Det krever også tekniske kontroller som etterspørres av DoW, kun skybasert distribusjon og dedikerte tilsynsteam for å sikre at modellene oppfører seg som tiltenkt.
Altman la til at OpenAI ønsker at lignende standarder skal brukes på tvers av alle AI-selskaper, og understreket en preferanse for samarbeid fremfor juridiske konflikter, og at målet fortsatt er å tjene menneskeheten i en kompleks og tidvis farlig verden.

318
Sentraliserte AI-plattformer trener på dine proprietære data og sender dem tilbake til konkurrentene dine.
Løsningen er enkel:
→ Kjør åpen kildekode-modeller på din egen private distribusjon
→ Dine input forlater aldri infrastrukturen din
→ Dine data trener modellene dine, ikke deres
AkashML er en inferensplattform, ikke en dataoperasjon.
Vi gir deg brikkene til å kjøre Llama 3.3 70B til $0,13 per 1 million tokens.
Drop-in API-kompatibilitet betyr at du kan migrere fra hvilken som helst stor leverandør på få minutter.
Du er ikke produktet. Du er eieren.
Se selv ↓

Guri Singh28. feb. 2026
🚨 Stanford har nettopp analysert personvernreglene til de seks største AI-selskapene i USA.
Amazon. Antropisk. Google. Meta. Microsoft. OpenAI.
Alle seks bruker samtalene dine til å trene modellene sine. Som standard. Uten å spørre meningsfullt.
Her er hva artikkelen faktisk fant.
Forskerne ved Stanford HI undersøkte 28 personverndokumenter på tvers av disse seks selskapene, ikke bare hovedpersonvernerklæringen, men alle tilknyttede underpolicyer, FAQ og veiledningssider som er tilgjengelige via chatgrensesnittene.
De vurderte alle mot California Consumer Privacy Act, den mest omfattende personvernloven i USA.
Resultatene er verre enn du tror.
Hver eneste bedrift samler inn chatdataene dine og sender dem tilbake til modelltrening som standard. Noen beholder samtalene dine på ubestemt tid. Det er ingen utløpsdato. Ingen automatisk sletting. Dataene dine ligger bare der, for alltid, og mater fremtidige versjoner av modellen.
Noen av disse selskapene lar menneskelige ansatte lese chattranskripsjonene dine som en del av opplæringsprosessen. Ikke anonymiserte sammendrag. Dine faktiske samtaler.
Men her blir det virkelig farlig.
For selskaper som Google, Meta, Microsoft og Amazon som også driver søkemotorer, sosiale medieplattformer, netthandelssider og skytjenester, blir ikke AI-samtalene dine liggende inne i chatboten.
De blir slått sammen med alt annet selskapene allerede vet om deg.
Din søkehistorikk. Dine kjøpsdata. Din aktivitet på sosiale medier. Dine opplastede filer.
Forskerne beskriver et realistisk scenario som bør få deg til å stoppe opp: Du ber en AI-chatbot om hjertevennlige middagsoppskrifter. Modellen antar at du kan ha en hjerte- og karsykdom. Den klassifiseringen går gjennom selskapets bredere økosystem. Du begynner å se annonser for medisiner. Informasjonen når forsikringsdatabaser. Effektene bygger seg opp over tid.
Dere delte et middagsspørsmål. Systemet bygde en helseprofil.
Det blir verre når du ser på barnas data.
Fire av de seks selskapene ser ut til å inkludere barnas chat-data i modelltreningen sin. Google kunngjorde at de ville trene på tenåringsdata med frivillig samtykke. Anthropic sier de ikke samler inn barns data, men verifiserer ikke alder. Microsoft sier de samler inn data fra brukere under 18 år, men hevder at de ikke bruker dem til opplæring.
Barn kan ikke lovlig samtykke til dette. De fleste foreldre vet ikke at det skjer.
Opt-out-mekanismene er en labyrint.
Noen selskaper tilbyr opt-outs. Noen gjør det ikke. De som gjør det, begraver valget dypt inne i innstillingssidene som de fleste brukere aldri vil finne. Personvernreglene er skrevet i et tett juridisk språk som forskere, folk hvis jobb er å lese disse dokumentene, har hatt vanskeligheter med å tolke.
Og her er det strukturelle problemet ingen tar tak i.
Det finnes ingen omfattende føderal personvernlovgivning i USA som regulerer hvordan AI-selskaper håndterer chatdata. Det lappeteppet av statlige lover etterlater enorme hull. Forskerne etterlyser spesifikt tre ting: obligatorisk føderal regulering, affirmativ opt-in (ikke opt-out) for modelltrening, og automatisk filtrering av personlig informasjon fra chatinput før de i det hele tatt når en opplæringspipeline.
Ingen av disse eksisterer i dag.
Den ubehagelige sannheten er denne: hver gang du skriver noe inn i ChatGPT, Gemini, Claude, Meta AI, Copilot eller Alexa, bidrar du til et treningsdatasett. Dine medisinske spørsmål. Dine forholdsproblemer. Dine økonomiske detaljer. Dine opplastede dokumenter.
Du er ikke kunden. Du er pensumet.
Og selskapene som gjør dette har gjort det så vanskelig som mulig for deg å slutte.

250
Topp
Rangering
Favoritter
