Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
Le développement de l’IA ne sera plus jamais le même. Construit par @ovrclk_ le @akashnet.
OpenAI déploie des systèmes au sein de réseaux gouvernementaux classifiés. Lorsque vous construisez sur des plateformes d'IA fermées et centralisées, vous faites confiance à leurs conditions de service, et ces conditions peuvent changer à tout moment sans votre avis.
Le chemin de l'open-source est très différent :
→ Vous pouvez vérifier exactement ce que vos modèles font avec vos données
→ Vous n'êtes pas dépendant des politiques ou des décisions d'un seul fournisseur
→ Votre infrastructure fonctionne où vous le choisissez, pas où on vous dit
AkashML offre une inférence haute performance dans plus de 80 centres de données mondiaux.
Entièrement ouvert, entièrement portable, et conçu pour tout le monde.
Essayez AkashML :

Crypto Miners1 mars, 20:57
OpenAI a conclu un accord avec le Département de la Guerre
@OpenAI prévoit de déployer ses modèles à l'intérieur du réseau classifié du DoW sous des conditions strictes. Sam Altman déclare que le département a montré un grand respect pour la sécurité et que les termes sont conformes à la législation et aux politiques existantes.
L'accord comprend des garanties liées aux principes fondamentaux d'OpenAI, y compris des interdictions de surveillance de masse domestique et la responsabilité humaine pour l'usage de la force. Il exige également des contrôles techniques demandés par le DoW, un déploiement uniquement dans le cloud, et des équipes de supervision dédiées pour s'assurer que les modèles se comportent comme prévu.
Altman a ajouté qu'OpenAI souhaite que des normes similaires soient appliquées à toutes les entreprises d'IA et a souligné une préférence pour la coopération plutôt que le conflit juridique, affirmant que l'objectif reste de servir l'humanité dans un monde complexe et parfois dangereux.

320
Les plateformes d'IA centralisées s'entraînent sur vos données propriétaires et les renvoient à vos concurrents.
La solution est simple :
→ Exécutez des modèles open-source sur votre propre déploiement privé
→ Vos entrées ne quittent jamais votre infrastructure
→ Vos données entraînent vos modèles, pas les leurs
AkashML est une plateforme d'inférence, pas une opération de données.
Nous vous fournissons les puces pour exécuter Llama 3.3 70B à 0,13 $ par 1M de tokens.
La compatibilité API drop-in signifie que vous pouvez migrer depuis n'importe quel fournisseur majeur en quelques minutes.
Vous n'êtes pas le produit. Vous êtes le propriétaire.
Voyez par vous-même ↓

Guri Singh28 févr. 2026
🚨 Stanford vient d'analyser les politiques de confidentialité des six plus grandes entreprises d'IA en Amérique.
Amazon. Anthropic. Google. Meta. Microsoft. OpenAI.
Les six utilisent vos conversations pour entraîner leurs modèles. Par défaut. Sans demander de manière significative.
Voici ce que le document a réellement trouvé.
Les chercheurs de Stanford HAI ont examiné 28 documents de confidentialité de ces six entreprises, pas seulement la politique de confidentialité principale, mais chaque sous-politique liée, FAQ et page de conseils accessibles depuis les interfaces de chat.
Ils les ont évalués tous par rapport à la California Consumer Privacy Act, la loi sur la confidentialité la plus complète des États-Unis.
Les résultats sont pires que vous ne le pensez.
Chaque entreprise collecte vos données de chat et les réintègre dans l'entraînement des modèles par défaut. Certaines conservent vos conversations indéfiniment. Il n'y a pas d'expiration. Pas de suppression automatique. Vos données restent là, pour toujours, alimentant les futures versions du modèle.
Certaines de ces entreprises laissent des employés humains lire vos transcriptions de chat dans le cadre du processus d'entraînement. Pas des résumés anonymisés. Vos véritables conversations.
Mais voici où cela devient vraiment dangereux.
Pour des entreprises comme Google, Meta, Microsoft et Amazon - des entreprises qui gèrent également des moteurs de recherche, des plateformes de médias sociaux, des sites de commerce électronique et des services cloud - vos conversations avec l'IA ne restent pas à l'intérieur du chatbot.
Elles sont fusionnées avec tout ce que ces entreprises savent déjà sur vous.
Votre historique de recherche. Vos données d'achat. Votre activité sur les réseaux sociaux. Vos fichiers téléchargés.
Les chercheurs décrivent un scénario réaliste qui devrait vous faire réfléchir : Vous demandez à un chatbot IA des recettes de dîner saines pour le cœur. Le modèle infère que vous pourriez avoir une condition cardiovasculaire. Cette classification circule dans l'écosystème plus large de l'entreprise. Vous commencez à voir des publicités pour des médicaments. L'information atteint les bases de données d'assurance. Les effets s'accumulent avec le temps.
Vous avez partagé une question sur le dîner. Le système a construit un profil de santé.
Cela devient pire lorsque vous regardez les données des enfants.
Quatre des six entreprises semblent inclure les données de chat des enfants dans leur entraînement de modèle. Google a annoncé qu'il formerait sur les données des adolescents avec un consentement explicite. Anthropic dit qu'il ne collecte pas de données sur les enfants mais ne vérifie pas les âges. Microsoft dit qu'il collecte des données d'utilisateurs de moins de 18 ans mais prétend ne pas les utiliser pour l'entraînement.
Les enfants ne peuvent pas légalement consentir à cela. La plupart des parents ne savent pas que cela se produit.
Les mécanismes de désinscription sont un labyrinthe.
Certaines entreprises offrent des options de désinscription. D'autres non. Celles qui le font enterrent l'option profondément dans les pages de paramètres que la plupart des utilisateurs ne trouveront jamais. Les politiques de confidentialité elles-mêmes sont rédigées dans un langage juridique dense que les chercheurs - des personnes dont le travail consiste à lire ces documents - ont trouvé difficile à interpréter.
Et voici le problème structurel que personne n'aborde.
Il n'existe pas de loi fédérale complète sur la confidentialité aux États-Unis régissant la manière dont les entreprises d'IA gèrent les données de chat. Le patchwork des lois des États laisse d'énormes lacunes. Les chercheurs appellent spécifiquement à trois choses : une réglementation fédérale obligatoire, un consentement explicite (et non une désinscription) pour l'entraînement des modèles, et un filtrage automatique des informations personnelles des entrées de chat avant qu'elles n'atteignent jamais un pipeline d'entraînement.
Aucune de ces choses n'existe aujourd'hui.
La vérité inconfortable est la suivante : chaque fois que vous tapez quelque chose dans ChatGPT, Gemini, Claude, Meta AI, Copilot ou Alexa, vous contribuez à un ensemble de données d'entraînement. Vos questions médicales. Vos problèmes relationnels. Vos détails financiers. Vos documents téléchargés.
Vous n'êtes pas le client. Vous êtes le curriculum.
Et les entreprises qui font cela ont rendu aussi difficile que possible pour vous d'arrêter.

252
Meilleurs
Classement
Favoris
