Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
El desarrollo de la IA nunca será el mismo. Construido por @ovrclk_ en @akashnet.
OpenAI está desplegando dentro de redes gubernamentales clasificadas. Cuando construyes sobre plataformas de IA cerradas y centralizadas, confías en sus términos de servicio, y esos términos pueden cambiar en cualquier momento sin tu intervención.
El camino del código abierto es muy diferente:
→ Puedes verificar exactamente qué hacen tus modelos con tus datos
→ No dependes de las políticas o decisiones de un solo proveedor
→ Tu infraestructura funciona donde tú quieras, no donde te digan
AkashML ofrece inferencia de alto rendimiento en 80+ centros de datos globales.
Totalmente abierto, totalmente portátil y diseñado para todos.
Prueba AkashML:

Crypto Miners1 mar, 20:57
OpenAI llegó a un acuerdo con el Departamento de Guerra
@OpenAI planea desplegar sus modelos dentro de la red clasificada del DoW bajo condiciones estrictas. Sam Altman afirma que el departamento mostró un gran respeto por la seguridad y que los términos se alinean con la ley y la política vigentes.
El acuerdo incluye salvaguardas vinculadas a los principios fundamentales de OpenAI, como prohibiciones sobre la vigilancia masiva doméstica y la responsabilidad de los humanos por el uso de la fuerza. También requiere controles técnicos solicitados por el DoW, despliegue solo en la nube y equipos de supervisión dedicados para garantizar que los modelos se comporten como se espera.
Altman añadió que OpenAI quiere que se apliquen estándares similares en todas las empresas de IA y enfatizó la preferencia por la cooperación frente al conflicto legal, señalando que el objetivo sigue siendo servir a la humanidad en un mundo complejo y a veces peligroso.

331
Las plataformas centralizadas de IA entrenan con tus datos propietarios y los devolven a tus competidores.
La solución es sencilla:
→ Ejecuta modelos de código abierto en tu propio despliegue privado
→ Tus entradas nunca salen de tu infraestructura
→ Tus datos entrenan tus modelos, no los de ellos
AkashML es una plataforma de inferencia, no una operación de datos.
Te damos las fichas para ejecutar Llama 3.3 70B a $0.13 por cada 1M de fichas.
La compatibilidad con APIs directas significa que puedes migrar desde cualquier proveedor importante en cuestión de minutos.
Tú no eres el producto. Tú eres el dueño.
Compruébalo tú mismo ↓

Guri Singh28 feb 2026
🚨 Stanford acaba de analizar las políticas de privacidad de las seis mayores empresas de IA de Estados Unidos.
Amazon. Antrópico. Google. Meta. Microsoft. OpenAI.
Los seis usan tus conversaciones para entrenar a sus modelos. Por defecto. Sin preguntar de forma significativa.
Esto es lo que realmente encontró el periódico.
Los investigadores de Stanford HAI examinaron 28 documentos de privacidad en estas seis empresas, no solo la política principal de privacidad, sino todas las subpolíticas vinculadas, preguntas frecuentes y páginas de orientación accesibles desde las interfaces de chat.
Evaluaron todos ellos en relación con la Ley de Privacidad del Consumidor de California, la ley de privacidad más completa de Estados Unidos.
Los resultados son peores de lo que crees.
Cada empresa recopila tus datos de chat y los realimenta en el entrenamiento de modelos por defecto. Algunos mantienen tus conversaciones indefinidamente. No hay caducidad. No hay borrado automático. Tus datos simplemente permanecen ahí, para siempre, alimentando futuras versiones del modelo.
Algunas de estas empresas permiten que los empleados humanos lean las transcripciones de tus chats como parte del proceso de formación. No resúmenes anonimizados. Tus conversaciones reales.
Pero aquí es donde se vuelve realmente peligroso.
Para empresas como Google, Meta, Microsoft y Amazon, que también gestionan motores de búsqueda, redes sociales, sitios de comercio electrónico y servicios en la nube, tus conversaciones con IA no se quedan dentro del chatbot.
Se fusionan con todo lo demás que esas empresas ya saben sobre ti.
Tu historial de búsquedas. Tus datos de compra. Tu actividad en redes sociales. Tus archivos subidos.
Los investigadores describen un escenario realista que debería hacerte dudar: pides a un chatbot de IA recetas de cena saludables para el corazón. El modelo sugiere que podrías tener una condición cardiovascular. Esa clasificación se refleja en el ecosistema más amplio de la empresa. Empiezas a ver anuncios de medicamentos. La información llega a las bases de datos de seguros. Los efectos se acumulan con el tiempo.
Compartiste una pregunta sobre la cena. El sistema construyó un perfil de salud.
La cosa empeora cuando miras los datos de los niños.
Cuatro de las seis empresas parecen incluir datos de chat infantil en su entrenamiento modelo. Google anunció que entrenaría con datos de adolescentes con consentimiento voluntario. Anthropic dice que no recopila datos infantiles pero tampoco verifica las edades. Microsoft dice que recopila datos de usuarios menores de 18 años, pero afirma que no los utiliza para formación.
Los niños no pueden consentir legalmente esto. La mayoría de los padres no saben que está pasando.
Los mecanismos de exclusión son un laberinto.
Algunas empresas ofrecen excepciones. Algunos no. Los que sí lo hacen esconden la opción en páginas de configuración que la mayoría de usuarios nunca encontrarán. Las propias políticas de privacidad están redactadas en un lenguaje legal denso que las personas que trabajan en estos documentos encontraron difícil de interpretar.
Y aquí está el problema estructural que nadie está abordando.
No existe una ley federal de privacidad integral en Estados Unidos que regule cómo las empresas de IA gestionan los datos de chat. El mosaico de leyes estatales deja enormes lagunas. Los investigadores piden específicamente tres cosas: regulación federal obligatoria, opt-in afirmativo (no opt-out) para el entrenamiento de modelos y filtrado automático de la información personal de las entradas del chat antes de que lleguen siquiera a una cadena de entrenamiento.
Ninguna de esas existes hoy en día.
La incómoda verdad es la siguiente: cada vez que escribes algo en ChatGPT, Gemini, Claude, Meta AI, Copilot o Alexa, estás contribuyendo a un conjunto de datos de entrenamiento. Tus preguntas médicas. Tus problemas de pareja. Tus datos financieros. Tus documentos subidos.
No eres el cliente. Tú eres el currículo.
Y las empresas que hacen esto han hecho que te sea lo más difícil posible parar.

270
Populares
Ranking
Favoritas
