Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
O desenvolvimento da IA nunca mais será o mesmo. Construído por @ovrclk_ em @akashnet.
A OpenAI está implantando dentro de redes governamentais classificadas. Quando você constrói plataformas de IA fechadas e centralizadas, confia nos termos de serviço deles, e esses termos podem mudar a qualquer momento sem sua participação.
O caminho do código aberto é bem diferente:
→ Você pode verificar exatamente o que seus modelos estão fazendo com seus dados
→ Você não depende das políticas ou decisões de um único provedor
→ Sua infraestrutura funciona onde você escolhe, não onde você é orientado
O AkashML oferece inferência de alto desempenho em 80+ datacenters globais.
Totalmente aberto, totalmente portátil e feito para todos.
Experimente AkashML:

Crypto Miners1 de mar., 20:57
A OpenAI chegou a um acordo com o Departamento de Guerra
@OpenAI planeja implantar seus modelos dentro da rede classificada do DoW sob condições rigorosas. Sam Altman diz que o departamento demonstrou grande respeito pela segurança e que os termos estão alinhados com a legislação e a política vigentes.
O acordo inclui salvaguardas vinculadas aos princípios centrais da OpenAI, incluindo proibições à vigilância em massa doméstica e responsabilização dos humanos pelo uso da força. Também exige controles técnicos solicitados pelo DoW, implantação apenas na nuvem e equipes de supervisão dedicadas para garantir que os modelos se comportem conforme o previsto.
Altman acrescentou que a OpenAI quer padrões semelhantes aplicados em todas as empresas de IA e enfatizou a preferência pela cooperação em detrimento de conflitos legais, afirmando que o objetivo continua sendo servir à humanidade em um mundo complexo e às vezes perigoso.

255
Plataformas centralizadas de IA treinam com seus dados proprietários e os enviam de volta aos seus concorrentes.
A solução é simples:
→ Rodar modelos open-source na sua própria implantação privada
→ Seus insumos nunca saem da infraestrutura
→ Seus dados treinam seus modelos, não os deles
O AkashML é uma plataforma de inferência, não uma operação de dados.
Nós damos as fichas para rodar Llama 3.3 70B a $0,13 por token de 1M.
Compatibilidade com APIs drop-in significa que você pode migrar de qualquer grande provedor em minutos.
Você não é o produto. Você é o dono.
Veja por si mesmo ↓

Guri Singh28 de fev. de 2026
🚨 Stanford acabou de analisar as políticas de privacidade das seis maiores empresas de IA dos Estados Unidos.
Amazon. Antrópico. Google. Meta. Microsoft. OpenAI.
Todos os seis usam suas conversas para treinar seus modelos. Por padrão. Sem pedir uma pergunta significativa.
Aqui está o que o jornal realmente encontrou.
Os pesquisadores da Stanford HAI examinaram 28 documentos de privacidade dessas seis empresas, não apenas a política principal de privacidade, mas todas as subpolíticas, FAQ e páginas de orientação vinculadas acessíveis pelas interfaces de chat.
Eles avaliaram todos eles em relação à Lei de Privacidade do Consumidor da Califórnia, a lei de privacidade mais abrangente dos Estados Unidos.
Os resultados são piores do que você imagina.
Cada empresa coleta seus dados de chat e os reinsere no treinamento de modelos por padrão. Alguns mantêm suas conversas indefinidamente. Não há validade. Sem exclusão automática. Seus dados ficam ali, para sempre, alimentando versões futuras do modelo.
Algumas dessas empresas permitem que funcionários humanos leiam as transcrições do seu chat como parte do processo de treinamento. Não resumos anonimizados. Suas conversas reais.
Mas é aqui que fica realmente perigoso.
Para empresas como Google, Meta, Microsoft e Amazon, que também operam mecanismos de busca, plataformas de redes sociais, sites de e-commerce e serviços em nuvem, suas conversas com IA não ficam dentro do chatbot.
Eles se fundem com tudo o que essas empresas já sabem sobre você.
Seu histórico de buscas. Seus dados de compra. Sua atividade nas redes sociais. Seus arquivos enviados.
Os pesquisadores descrevem um cenário realista que deve fazer você hesitar: você pede receitas de jantar saudáveis para um chatbot de IA. O modelo sugere que você pode ter uma condição cardiovascular. Essa classificação se estende ao ecossistema mais amplo da empresa. Você começa a ver anúncios de medicamentos. As informações chegam aos bancos de dados de seguros. Os efeitos se acumulam com o tempo.
Você compartilhou uma pergunta sobre o jantar. O sistema construiu um perfil de saúde.
Fica pior quando você olha os dados das crianças.
Quatro das seis empresas parecem incluir dados de chat infantil em seu treinamento modelo. O Google anunciou que treinaria com dados de adolescentes com consentimento voluntário. A Anthropic diz que não coleta dados infantis, mas não verifica idades. A Microsoft diz que coleta dados de usuários menores de 18 anos, mas afirma não usá-los para treinamento.
Crianças não podem legalmente consentir com isso. A maioria dos pais não sabe que isso está acontecendo.
Os mecanismos de opt-out são um labirinto.
Algumas empresas oferecem opt-outs. Alguns não. Os que realmente escondem a opção bem dentro das páginas de configurações que a maioria dos usuários nunca vai encontrar. As próprias políticas de privacidade são redigidas em uma linguagem jurídica densa que pesquisadores cujo trabalho é ler esses documentos acharam difícil de interpretar.
E aqui está o problema estrutural que ninguém está resolvendo.
Não existe uma lei federal abrangente de privacidade nos Estados Unidos que regule como as empresas de IA lidam com os dados de chat. O mosaico de leis estaduais deixa enormes lacunas. Os pesquisadores defendem especificamente três coisas: regulamentação federal obrigatória, opt-in afirmativo (não opt-out) para treinamento de modelos e filtragem automática de informações pessoais das entradas do chat antes mesmo de chegarem a um pipeline de treinamento.
Nenhuma dessas existe hoje.
A verdade desconfortável é esta: toda vez que você digita algo no ChatGPT, Gemini, Claude, Meta AI, Copilot ou Alexa, você está contribuindo para um conjunto de dados de treinamento. Suas perguntas médicas. Seus problemas de relacionamento. Seus dados financeiros. Seus documentos enviados.
Você não é o cliente. Você é o currículo.
E as empresas que fazem isso tornaram o mais difícil possível para você parar.

159
Melhores
Classificação
Favoritos
