Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
O desenvolvimento da IA nunca mais será o mesmo. Construído por @ovrclk_ em @akashnet.
A OpenAI está a ser implementada dentro de redes governamentais classificadas. Quando você constrói em plataformas de IA fechadas e centralizadas, está a confiar nos seus termos de serviço, e esses termos podem mudar a qualquer momento sem a sua contribuição.
O caminho de código aberto parece muito diferente:
→ Você pode verificar exatamente o que os seus modelos estão a fazer com os seus dados
→ Você não depende das políticas ou decisões de um único fornecedor
→ A sua infraestrutura funciona onde você escolher, não onde lhe dizem
A AkashML oferece inferência de alto desempenho em mais de 80 datacenters globais.
Totalmente aberto, totalmente portátil e construído para todos.
Experimente a AkashML:

Crypto Miners1/03, 20:57
A OpenAI chegou a um acordo com o Departamento de Guerra
@OpenAI planeja implantar seus modelos dentro da rede classificada do DoW sob condições rigorosas. Sam Altman afirma que o departamento demonstrou forte respeito pela segurança e que os termos estão alinhados com a legislação e a política existentes.
O acordo inclui salvaguardas ligadas aos princípios fundamentais da OpenAI, incluindo proibições sobre vigilância em massa doméstica e mantendo os humanos responsáveis pelo uso da força. Também exige controles técnicos solicitados pelo DoW, implantação apenas em nuvem e equipes de supervisão dedicadas para garantir que os modelos se comportem como pretendido.
Altman acrescentou que a OpenAI deseja que padrões semelhantes sejam aplicados a todas as empresas de IA e enfatizou uma preferência pela cooperação em vez de conflito legal, afirmando que o objetivo continua sendo servir a humanidade em um mundo complexo e, às vezes, perigoso.

252
As plataformas de IA centralizadas estão a treinar com os seus dados proprietários e a alimentá-los de volta aos seus concorrentes.
A solução é simples:
→ Execute modelos de código aberto na sua própria implementação privada
→ As suas entradas nunca saem da sua infraestrutura
→ Os seus dados treinam os seus modelos, não os deles
AkashML é uma plataforma de inferência, não uma operação de dados.
Nós fornecemos os chips para executar Llama 3.3 70B a $0.13 por 1M de tokens.
A compatibilidade com API drop-in significa que você pode migrar de qualquer fornecedor importante em minutos.
Você não é o produto. Você é o proprietário.
Veja por si mesmo ↓

Guri Singh28/02/2026
🚨 Stanford acabou de analisar as políticas de privacidade das seis maiores empresas de IA na América.
Amazon. Anthropic. Google. Meta. Microsoft. OpenAI.
Todas as seis usam suas conversas para treinar seus modelos. Por padrão. Sem perguntar de forma significativa.
Aqui está o que o documento realmente encontrou.
Os pesquisadores do Stanford HAI examinaram 28 documentos de privacidade dessas seis empresas - não apenas a política de privacidade principal, mas todos os subdocumentos, FAQs e páginas de orientação vinculadas acessíveis a partir das interfaces de chat.
Eles avaliaram todos eles em relação à Lei de Privacidade do Consumidor da Califórnia, a lei de privacidade mais abrangente nos Estados Unidos.
Os resultados são piores do que você pensa.
Cada uma das empresas coleta seus dados de chat e os alimenta de volta no treinamento do modelo por padrão. Algumas retêm suas conversas indefinidamente. Não há expiração. Nenhuma exclusão automática. Seus dados simplesmente ficam lá, para sempre, alimentando versões futuras do modelo.
Algumas dessas empresas permitem que funcionários humanos leiam suas transcrições de chat como parte do processo de treinamento. Não resumos anonimizados. Suas conversas reais.
Mas aqui é onde fica genuinamente perigoso.
Para empresas como Google, Meta, Microsoft e Amazon - empresas que também operam motores de busca, plataformas de mídia social, sites de comércio eletrônico e serviços de nuvem - suas conversas de IA não ficam dentro do chatbot.
Elas são mescladas com tudo o que essas empresas já sabem sobre você.
Seu histórico de buscas. Seus dados de compras. Sua atividade nas redes sociais. Seus arquivos carregados.
Os pesquisadores descrevem um cenário realista que deve fazer você parar: Você pede a um chatbot de IA receitas de jantar saudáveis para o coração. O modelo infere que você pode ter uma condição cardiovascular. Essa classificação flui pelo ecossistema mais amplo da empresa. Você começa a ver anúncios de medicamentos. As informações chegam a bancos de dados de seguros. Os efeitos se acumulam ao longo do tempo.
Você compartilhou uma pergunta sobre o jantar. O sistema construiu um perfil de saúde.
Fica pior quando você olha para os dados das crianças.
Quatro das seis empresas parecem incluir dados de chat de crianças em seu treinamento de modelo. O Google anunciou que treinaria com dados de adolescentes com consentimento opt-in. A Anthropic diz que não coleta dados de crianças, mas não verifica idades. A Microsoft diz que coleta dados de usuários com menos de 18 anos, mas afirma não usá-los para treinamento.
As crianças não podem consentir legalmente a isso. A maioria dos pais não sabe que isso está acontecendo.
Os mecanismos de opt-out são um labirinto.
Algumas empresas oferecem opt-outs. Outras não. As que oferecem enterram a opção profundamente dentro das páginas de configurações que a maioria dos usuários nunca encontrará. As políticas de privacidade em si são escritas em uma linguagem legal densa que os pesquisadores - pessoas cujo trabalho é ler esses documentos - acharam difícil de interpretar.
E aqui está o problema estrutural que ninguém está abordando.
Não existe uma lei federal abrangente de privacidade nos Estados Unidos que governe como as empresas de IA lidam com dados de chat. O emaranhado de leis estaduais deixa lacunas enormes. Os pesquisadores pedem especificamente três coisas: regulamentação federal obrigatória, consentimento afirmativo (não opt-out) para treinamento de modelo e filtragem automática de informações pessoais de entradas de chat antes que elas cheguem a um pipeline de treinamento.
Nenhuma dessas existe hoje.
A verdade desconfortável é esta: toda vez que você digita algo no ChatGPT, Gemini, Claude, Meta AI, Copilot ou Alexa, você está contribuindo para um conjunto de dados de treinamento. Suas perguntas médicas. Seus problemas de relacionamento. Seus detalhes financeiros. Seus documentos carregados.
Você não é o cliente. Você é o currículo.
E as empresas que fazem isso tornaram o mais difícil possível para você parar.

155
Top
Classificação
Favoritos
