Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
El desarrollo de la IA nunca volverá a ser el mismo. Construido por @ovrclk_ en @akashnet.
OpenAI está desplegando dentro de redes gubernamentales clasificadas. Cuando construyes sobre plataformas de IA cerradas y centralizadas, estás confiando en sus términos de servicio, y esos términos pueden cambiar en cualquier momento sin tu intervención.
El camino de código abierto se ve muy diferente:
→ Puedes verificar exactamente lo que tus modelos están haciendo con tus datos
→ No dependes de las políticas o decisiones de un único proveedor
→ Tu infraestructura funciona donde tú elijas, no donde te digan
AkashML ofrece inferencia de alto rendimiento en más de 80 centros de datos globales.
Totalmente abierto, totalmente portátil y construido para todos.
Prueba AkashML:

Crypto Miners1 mar, 20:57
OpenAI llegó a un acuerdo con el Departamento de Guerra
@OpenAI planea implementar sus modelos dentro de la red clasificada del DoW bajo estrictas condiciones. Sam Altman dice que el departamento mostró un fuerte respeto por la seguridad y que los términos se alinean con la legislación y política existentes.
El acuerdo incluye salvaguardias vinculadas a los principios fundamentales de OpenAI, incluidas prohibiciones sobre la vigilancia masiva doméstica y la responsabilidad humana en el uso de la fuerza. También requiere controles técnicos solicitados por el DoW, implementación solo en la nube y equipos de supervisión dedicados para garantizar que los modelos se comporten como se espera.
Altman agregó que OpenAI quiere que se apliquen estándares similares a todas las empresas de IA y enfatizó una preferencia por la cooperación en lugar del conflicto legal, diciendo que el objetivo sigue siendo servir a la humanidad en un mundo complejo y a veces peligroso.

329
Las plataformas de IA centralizadas están entrenando con tus datos propietarios y alimentándolos de vuelta a tus competidores.
La solución es simple:
→ Ejecuta modelos de código abierto en tu propia implementación privada
→ Tus entradas nunca salen de tu infraestructura
→ Tus datos entrenan tus modelos, no los suyos
AkashML es una plataforma de inferencia, no una operación de datos.
Te proporcionamos los chips para ejecutar Llama 3.3 70B a $0.13 por 1M de tokens.
La compatibilidad con API de tipo drop-in significa que puedes migrar desde cualquier proveedor importante en minutos.
No eres el producto. Eres el propietario.
Mira por ti mismo ↓

Guri Singh28 feb 2026
🚨 Stanford acaba de analizar las políticas de privacidad de las seis principales empresas de IA en América.
Amazon. Anthropic. Google. Meta. Microsoft. OpenAI.
Las seis utilizan tus conversaciones para entrenar sus modelos. Por defecto. Sin preguntar de manera significativa.
Esto es lo que realmente encontró el documento.
Los investigadores de Stanford HAI examinaron 28 documentos de privacidad de estas seis empresas, no solo la política de privacidad principal, sino cada subpolítica vinculada, preguntas frecuentes y páginas de orientación accesibles desde las interfaces de chat.
Evaluaron todos ellos en comparación con la Ley de Privacidad del Consumidor de California, la ley de privacidad más completa en los Estados Unidos.
Los resultados son peores de lo que piensas.
Cada una de las empresas recopila tus datos de chat y los alimenta de nuevo en el entrenamiento del modelo por defecto. Algunas retienen tus conversaciones indefinidamente. No hay expiración. No hay eliminación automática. Tus datos simplemente permanecen allí, para siempre, alimentando futuras versiones del modelo.
Algunas de estas empresas permiten que empleados humanos lean tus transcripciones de chat como parte del proceso de entrenamiento. No resúmenes anonimizados. Tus conversaciones reales.
Pero aquí es donde se vuelve genuinamente peligroso.
Para empresas como Google, Meta, Microsoft y Amazon, empresas que también operan motores de búsqueda, plataformas de redes sociales, sitios de comercio electrónico y servicios en la nube, tus conversaciones de IA no se quedan dentro del chatbot.
Se fusionan con todo lo que esas empresas ya saben sobre ti.
Tu historial de búsqueda. Tus datos de compra. Tu actividad en redes sociales. Tus archivos subidos.
Los investigadores describen un escenario realista que debería hacerte reflexionar: Le pides a un chatbot de IA recetas de cenas saludables para el corazón. El modelo infiere que puedes tener una condición cardiovascular. Esa clasificación fluye a través del ecosistema más amplio de la empresa. Comienzas a ver anuncios de medicamentos. La información llega a las bases de datos de seguros. Los efectos se acumulan con el tiempo.
Compartiste una pregunta sobre la cena. El sistema construyó un perfil de salud.
Se vuelve peor cuando miras los datos de los niños.
Cuatro de las seis empresas parecen incluir datos de chat de niños en su entrenamiento de modelos. Google anunció que entrenaría con datos de adolescentes con consentimiento opt-in. Anthropic dice que no recopila datos de niños pero no verifica edades. Microsoft dice que recopila datos de usuarios menores de 18 años pero afirma no usarlos para entrenamiento.
Los niños no pueden consentir legalmente esto. La mayoría de los padres no saben que está sucediendo.
Los mecanismos de exclusión son un laberinto.
Algunas empresas ofrecen opciones de exclusión. Algunas no. Las que lo hacen entierran la opción en páginas de configuración que la mayoría de los usuarios nunca encontrará. Las políticas de privacidad en sí están escritas en un denso lenguaje legal que los investigadores, personas cuyo trabajo es leer estos documentos, encontraron difícil de interpretar.
Y aquí está el problema estructural que nadie está abordando.
No hay una ley federal de privacidad integral en los Estados Unidos que rija cómo las empresas de IA manejan los datos de chat. El mosaico de leyes estatales deja enormes vacíos. Los investigadores piden específicamente tres cosas: regulación federal obligatoria, consentimiento afirmativo opt-in (no opt-out) para el entrenamiento de modelos, y filtrado automático de información personal de las entradas de chat antes de que lleguen a un pipeline de entrenamiento.
Ninguna de esas cosas existe hoy.
La incómoda verdad es esta: cada vez que escribes algo en ChatGPT, Gemini, Claude, Meta AI, Copilot o Alexa, estás contribuyendo a un conjunto de datos de entrenamiento. Tus preguntas médicas. Tus problemas de relación. Tus detalles financieros. Tus documentos subidos.
No eres el cliente. Eres el currículo.
Y las empresas que hacen esto han hecho todo lo posible para que te resulte difícil detenerlo.

263
Parte superior
Clasificación
Favoritos
