Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
AI-ontwikkeling zal nooit meer hetzelfde zijn. Gebouwd door @ovrclk_ op @akashnet.
OpenAI wordt ingezet binnen geclassificeerde overheidsnetwerken. Wanneer je bouwt op gesloten, gecentraliseerde AI-platforms, vertrouw je op hun servicevoorwaarden, en die voorwaarden kunnen op elk moment zonder jouw input veranderen.
Het open-source pad ziet er heel anders uit:
→ Je kunt precies verifiëren wat je modellen met je gegevens doen
→ Je bent niet afhankelijk van het beleid of de beslissingen van een enkele aanbieder
→ Je infrastructuur draait waar jij kiest, niet waar je wordt verteld
AkashML levert hoge prestaties bij inferentie in meer dan 80 wereldwijde datacenters.
Volledig open, volledig draagbaar, en gebouwd voor iedereen.
Probeer AkashML:

Crypto Miners1 mrt, 20:57
OpenAI heeft een overeenkomst bereikt met het Ministerie van Oorlog
@OpenAI is van plan zijn modellen binnen het geclassificeerde netwerk van het MoO te implementeren onder strikte voorwaarden. Sam Altman zegt dat het ministerie sterk respect toonde voor veiligheid en dat de voorwaarden in lijn zijn met bestaande wet- en regelgeving.
De deal omvat waarborgen die zijn verbonden aan de kernprincipes van OpenAI, waaronder verboden op binnenlandse massatoezicht en het verantwoordelijk houden van mensen voor het gebruik van geweld. Het vereist ook technische controles die door het MoO zijn aangevraagd, cloud-only implementatie en speciale toezichtteams om ervoor te zorgen dat modellen zich gedragen zoals bedoeld.
Altman voegde eraan toe dat OpenAI soortgelijke normen wil toepassen op alle AI-bedrijven en benadrukte een voorkeur voor samenwerking boven juridische conflicten, en zei dat het doel blijft de mensheid te dienen in een complexe en soms gevaarlijke wereld.

311
Gecentraliseerde AI-platforms trainen op jouw eigen gegevens en geven deze terug aan jouw concurrenten.
De oplossing is eenvoudig:
→ Voer open-source modellen uit op jouw eigen privé-implementatie
→ Jouw invoer verlaat nooit jouw infrastructuur
→ Jouw gegevens trainen jouw modellen, niet die van hen
AkashML is een inferentieplatform, geen gegevensoperatie.
Wij geven je de chips om Llama 3.3 70B te draaien voor $0,13 per 1M tokens.
Drop-in API-compatibiliteit betekent dat je binnen enkele minuten kunt migreren van elke grote provider.
Jij bent niet het product. Jij bent de eigenaar.
Zie het zelf ↓

Guri Singh28 feb 2026
🚨 Stanford heeft zojuist de privacybeleid van de zes grootste AI-bedrijven in Amerika geanalyseerd.
Amazon. Anthropic. Google. Meta. Microsoft. OpenAI.
Alle zes gebruiken je gesprekken om hun modellen te trainen. Standaard. Zonder betekenisvol te vragen.
Dit is wat het paper daadwerkelijk heeft gevonden.
De onderzoekers van Stanford HAI hebben 28 privacydocumenten van deze zes bedrijven onderzocht, niet alleen het hoofdprivacybeleid, maar ook elk gelinkt subbeleid, FAQ en richtlijnpagina die toegankelijk zijn vanuit de chatinterfaces.
Ze hebben ze allemaal geëvalueerd aan de hand van de California Consumer Privacy Act, de meest uitgebreide privacywet in de Verenigde Staten.
De resultaten zijn slechter dan je denkt.
Elk bedrijf verzamelt je chatdata en voedt deze standaard terug in de modeltraining. Sommige bewaren je gesprekken voor onbepaalde tijd. Er is geen vervaldatum. Geen automatische verwijdering. Je data blijft daar gewoon zitten, voor altijd, en voedt toekomstige versies van het model.
Sommige van deze bedrijven laten menselijke medewerkers je chattranscripts lezen als onderdeel van het trainingsproces. Geen geanonimiseerde samenvattingen. Je daadwerkelijke gesprekken.
Maar hier wordt het echt gevaarlijk.
Voor bedrijven zoals Google, Meta, Microsoft en Amazon - bedrijven die ook zoekmachines, sociale mediaplatforms, e-commerce sites en cloudservices runnen - blijven je AI-gesprekken niet binnen de chatbot.
Ze worden samengevoegd met alles wat die bedrijven al over jou weten.
Je zoekgeschiedenis. Je aankoopdata. Je sociale media-activiteit. Je geüploade bestanden.
De onderzoekers beschrijven een realistisch scenario dat je aan het denken zou moeten zetten: Je vraagt een AI-chatbot om hart-gezonde dinerrecepten. Het model concludeert dat je mogelijk een cardiovasculaire aandoening hebt. Die classificatie stroomt door het bredere ecosysteem van het bedrijf. Je begint advertenties voor medicijnen te zien. De informatie bereikt verzekeringsdatabases. De effecten stapelen zich in de loop van de tijd op.
Je deelde een vraag over het diner. Het systeem bouwde een gezondheidsprofiel.
Het wordt erger als je naar de gegevens van kinderen kijkt.
Vier van de zes bedrijven lijken de chatdata van kinderen in hun modeltraining op te nemen. Google heeft aangekondigd dat het op tienergegevens zal trainen met opt-in toestemming. Anthropic zegt dat het geen gegevens van kinderen verzamelt, maar verifieert geen leeftijden. Microsoft zegt dat het gegevens van gebruikers onder de 18 verzamelt, maar beweert deze niet voor training te gebruiken.
Kinderen kunnen hier wettelijk geen toestemming voor geven. De meeste ouders weten niet dat dit gebeurt.
De opt-outmechanismen zijn een doolhof.
Sommige bedrijven bieden opt-outs aan. Sommige niet. De bedrijven die dat doen, verstoppen de optie diep in de instellingenpagina's die de meeste gebruikers nooit zullen vinden. De privacybeleid zelf zijn geschreven in dichte juridische taal die onderzoekers - mensen wiens baan het is om deze documenten te lezen - moeilijk te interpreteren vonden.
En hier is het structurele probleem dat niemand aanpakt.
Er is geen uitgebreide federale privacywet in de Verenigde Staten die regelt hoe AI-bedrijven chatdata behandelen. Het lappendeken van staatswetten laat enorme hiaten achter. De onderzoekers roepen specifiek op tot drie dingen: verplichte federale regelgeving, bevestigende opt-in (geen opt-out) voor modeltraining, en automatische filtering van persoonlijke informatie uit chatinvoer voordat deze ooit een trainingspipeline bereikt.
Geen van deze dingen bestaat vandaag de dag.
De ongemakkelijke waarheid is dit: elke keer dat je iets typt in ChatGPT, Gemini, Claude, Meta AI, Copilot of Alexa, draag je bij aan een trainingsdataset. Je medische vragen. Je relatieproblemen. Je financiële details. Je geüploade documenten.
Je bent niet de klant. Je bent het curriculum.
En de bedrijven die dit doen, hebben het zo moeilijk mogelijk gemaakt voor jou om te stoppen.

243
Boven
Positie
Favorieten
