Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
AI-utveckling kommer aldrig att bli densamma. Byggd av @ovrclk_ på @akashnet.
OpenAI implementeras inom hemligstämplade statliga nätverk. När du bygger på slutna, centraliserade AI-plattformar litar du på deras användarvillkor, och dessa villkor kan ändras när som helst utan din inblandning.
Den öppna källkodsvägen ser väldigt annorlunda ut:
→ Du kan verifiera exakt vad dina modeller gör med din data
→ Du är inte beroende av en enda leverantörs policyer eller beslut
→ Din infrastruktur går dit du väljer, inte där du blir tillsagd
AkashML levererar högpresterande inferenser över 80+ globala datacentra.
Helt öppet, fullt portabelt och byggt för alla.
Prova AkashML:

Crypto Miners1 mars 20:57
OpenAI nådde en överenskommelse med Krigsdepartementet
@OpenAI planerar att placera sina modeller inom DoW:s hemligstämplade nätverk under strikta villkor. Sam Altman säger att avdelningen visade stor respekt för säkerheten och att villkoren stämmer överens med gällande lagstiftning och policy.
Avtalet inkluderar skyddsåtgärder kopplade till OpenAI:s kärnprinciper, inklusive förbud mot inhemsk massövervakning och att hålla människor ansvariga för våldsanvändning. Det kräver också tekniska kontroller som begärs av DoW, molnbaserad distribution och dedikerade tillsynsteam för att säkerställa att modellerna beter sig som de ska.
Altman tillade att OpenAI vill att liknande standarder ska tillämpas på alla AI-företag och betonade en preferens för samarbete framför rättsliga konflikter, och sade att målet fortfarande är att tjäna mänskligheten i en komplex och ibland farlig värld.

324
Centraliserade AI-plattformar tränar på din proprietära data och skickar tillbaka den till dina konkurrenter.
Lösningen är enkel:
→ Kör open source-modeller på din egen privata distribution
→ Dina inmatningar lämnar aldrig din infrastruktur
→ Dina data tränar dina modeller, inte deras
AkashML är en inferensplattform, inte en dataoperation.
Vi ger dig chippen för att köra Llama 3.3 70B till $0,13 per 1 miljon tokens.
Drop-in API-kompatibilitet innebär att du kan migrera från vilken större leverantör som helst på några minuter.
Du är inte produkten. Du är ägaren.
Se själv ↓

Guri Singh28 feb. 2026
🚨 Stanford analyserade precis integritetspolicyn för de sex största AI-företagen i USA.
Amazon. Antropiskt. Google. Meta. Microsoft. OpenAI.
Alla sex använder dina samtal för att träna sina modeller. Som standard. Utan att fråga meningsfullt.
Här är vad artikeln faktiskt fann.
Forskarna vid Stanford HI granskade 28 integritetsdokument från dessa sex företag, inte bara huvudpolicyn utan alla länkade underpolicys, FAQ och vägledningssidor som är tillgängliga via chattgränssnitten.
De utvärderade alla mot California Consumer Privacy Act, den mest omfattande integritetslagen i USA.
Resultaten är värre än du tror.
Varje företag samlar in din chattdata och matar tillbaka den till modellträning som standard. Vissa behåller dina samtal på obestämd tid. Det finns ingen utgångstid. Ingen automatisk radering. Din data ligger bara där, för evigt, och matar framtida versioner av modellen.
Vissa av dessa företag låter mänskliga anställda läsa dina chatttranskriptioner som en del av utbildningsprocessen. Inte anonymiserade sammanfattningar. Dina faktiska samtal.
Men här blir det verkligen farligt.
För företag som Google, Meta, Microsoft och Amazon som också driver sökmotorer, sociala medieplattformar, e-handelssajter och molntjänster stannar inte dina AI-konversationer kvar i chattboten.
De slås ihop med allt annat som företagen redan vet om dig.
Din sökhistorik. Dina köpdata. Din aktivitet på sociala medier. Dina uppladdade filer.
Forskarna beskriver ett realistiskt scenario som borde få dig att stanna upp: Du ber en AI-chatbot om recept på hjärtvänlig middag. Modellen antar att du kan ha en hjärt-kärlsjukdom. Den klassificeringen genomsyrar företagets bredare ekosystem. Du börjar se annonser för mediciner. Informationen når försäkringsdatabaser. Effekterna ökar över tid.
Ni delade en middagsfråga. Systemet byggde en hälsoprofil.
Det blir värre när man tittar på barnens data.
Fyra av de sex företagen verkar inkludera barns chattdata i sin modellträning. Google meddelade att de skulle träna på tonårsdata med frivilligt samtycke. Anthropic säger att de inte samlar in barndata men verifierar inte åldern. Microsoft säger att de samlar in data från användare under 18 år men hävdar att de inte använder den för utbildning.
Barn kan inte lagligt samtycka till detta. De flesta föräldrar vet inte att det händer.
Opt-out-mekanismerna är en labyrint.
Vissa företag erbjuder avhopp. Vissa gör det inte. De som gör det gömmer alternativet djupt inne i inställningarna som de flesta användare aldrig kommer att hitta. Integritetspolicyn är skriven i tätt juridiskt språk som forskare, personer vars jobb är att läsa dessa dokument, har svårt att tolka.
Och här är det strukturella problemet som ingen tar itu med.
Det finns ingen heltäckande federal integritetslag i USA som reglerar hur AI-företag hanterar chattdata. Det lapptäcke av delstatslagar lämnar enorma luckor. Forskarna efterlyser specifikt tre saker: obligatorisk federal reglering, positiv opt-in (inte opt-out) för modellträning, och automatisk filtrering av personlig information från chattens indata innan de ens når en utbildningspipeline.
Ingen av dessa finns idag.
Den obekväma sanningen är denna: varje gång du skriver något i ChatGPT, Gemini, Claude, Meta AI, Copilot eller Alexa, bidrar du till en träningsdatamängd. Dina medicinska frågor. Dina relationsproblem. Dina ekonomiska uppgifter. Dina uppladdade dokument.
Du är inte kunden. Du är läroplanen.
Och företagen som gör detta har gjort det så svårt som möjligt för dig att sluta.

260
Topp
Rankning
Favoriter
