🚨 Investigadores de Stanford acaban de exponer un extraño efecto secundario de la IA del que casi nadie está hablando. El artículo se llama “Artificial Hivemind.” Y el hallazgo principal es inquietante. A medida que los modelos de lenguaje mejoran, también comienzan a sonar cada vez más igual. No solo dentro de un solo modelo. A través de diferentes modelos. Los investigadores construyeron un conjunto de datos llamado INFINITY-CHAT con 26,000 preguntas abiertas reales, cosas como escritura creativa, lluvia de ideas, opiniones y consejos. Preguntas donde no hay una única respuesta correcta. En teoría, estos prompts deberían producir una gran diversidad. Pero ocurrió lo contrario. Aparecieron dos patrones: 1) Repetición intra-modelo El mismo modelo sigue produciendo respuestas muy similares en diferentes ejecuciones. 2) Homogeneidad inter-modelo Modelos completamente diferentes generan respuestas sorprendentemente similares. En otras palabras: En lugar de miles de perspectivas únicas… Estamos obteniendo las mismas pocas ideas recicladas una y otra vez. Los autores llaman a esto el “Artificial Hivemind.” ...