Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Stanford acaba de analizar las políticas de privacidad de las seis mayores empresas de IA de Estados Unidos.
Amazon. Antrópico. Google. Meta. Microsoft. OpenAI.
Los seis usan tus conversaciones para entrenar a sus modelos. Por defecto. Sin preguntar de forma significativa.
Esto es lo que realmente encontró el periódico.
Los investigadores de Stanford HAI examinaron 28 documentos de privacidad en estas seis empresas, no solo la política principal de privacidad, sino todas las subpolíticas vinculadas, preguntas frecuentes y páginas de orientación accesibles desde las interfaces de chat.
Evaluaron todos ellos en relación con la Ley de Privacidad del Consumidor de California, la ley de privacidad más completa de Estados Unidos.
Los resultados son peores de lo que crees.
Cada empresa recopila tus datos de chat y los realimenta en el entrenamiento de modelos por defecto. Algunos mantienen tus conversaciones indefinidamente. No hay caducidad. No hay borrado automático. Tus datos simplemente permanecen ahí, para siempre, alimentando futuras versiones del modelo.
Algunas de estas empresas permiten que los empleados humanos lean las transcripciones de tus chats como parte del proceso de formación. No resúmenes anonimizados. Tus conversaciones reales.
Pero aquí es donde se vuelve realmente peligroso.
Para empresas como Google, Meta, Microsoft y Amazon, que también gestionan motores de búsqueda, redes sociales, sitios de comercio electrónico y servicios en la nube, tus conversaciones con IA no se quedan dentro del chatbot.
Se fusionan con todo lo demás que esas empresas ya saben sobre ti.
Tu historial de búsquedas. Tus datos de compra. Tu actividad en redes sociales. Tus archivos subidos.
Los investigadores describen un escenario realista que debería hacerte dudar: pides a un chatbot de IA recetas de cena saludables para el corazón. El modelo sugiere que podrías tener una condición cardiovascular. Esa clasificación se refleja en el ecosistema más amplio de la empresa. Empiezas a ver anuncios de medicamentos. La información llega a las bases de datos de seguros. Los efectos se acumulan con el tiempo.
Compartiste una pregunta sobre la cena. El sistema construyó un perfil de salud.
...

Populares
Ranking
Favoritas
