Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Paata Ivanisvili
Profesor de Matemáticas @ UCI. Explorando lo que la IA puede (y no puede) hacer en matemáticas.
Grok 4.20 (Beta) mejora el límite inferior en un 9,1% en el perímetro gaussiano de conjuntos convexos en dos minutos.
Esto es algo que me señaló Xinyuan Xie. En 1993, Keith Ball demostró que el perímetro gaussiano de un cuerpo convexo en el espacio euclidiano n-dimensional está limitado desde arriba por 4n^{1/4}. En cuanto a la cota inferior, Ball demostró que para un cubo (de tamaño adecuado) el perímetro puede crecer como \sqrt{\log(n)}. Así que hubo un vacío durante un tiempo respecto a cuál cota es aguda, hasta 2003, cuando, en un artículo precioso, Fedor Nazarov demostró que en el ejemplo de un poliedro aleatorio (la intersección de muchos semiespacios aleatorios) la cota inferior puede crecer como C n^{1/4}, con C=\exp(-5/4)=0,286.... Además, Nazarov también mejoró la constante 4 en la cota superior (sustituyéndola por 0,64) cuando n es grande. Estos límites se mantuvieron invictos hasta hace poco, cuando en 2019 Martin Raic logró mejorar el factor constante del límite superior de 0,64 a 0,59.
Grok 4.20 (Beta), al optimizar más cuidadosamente la construcción de Nazarov, logró mejorar la constante del límite inferior de 0,286 a 0,3126. Me sorprende esto aunque solo sea jugar dentro de las técnicas del artículo de Nazarov, porque muy recientemente Nadimpalli-Pascale (2025) publicó un preprint donde, con un enfoque diferente, recuperaron la cota inferior de Nazarov con el mismo factor constante 0,286....
Grok fue muy generoso en su respuesta: dijo que la mejora que aportó sigue el mismo argumento de Nazarov ''línea por línea'', mientras que cuando pregunté a otros modelos (aparte de Grok) que verificaran la afirmación de Grok, estuvieron de acuerdo en todo excepto en esta parte; Dijeron que la mejora no es realmente ''línea por línea'' :D.
Por último, no diría que Nazarov pasó por alto esta mejora. Conociéndole desde hace mucho tiempo, estoy bastante seguro de que es común que sacrifique constantes óptimas por la elegancia algebraica.
¿Por qué es todo esto interesante? Tener control del perímetro gaussiano permite controlar las colas de Fourier de funciones características de estos conjuntos, lo que conduce a controlar la complejidad temporal del aprendizaje PAC y los algoritmos de aprendizaje agnóstico para esta familia (véase Klivans--O'Donnell--Servedio).
Referencias:
Enlace de chat con Grok 4.20 (Beta).
Keith Ball. El problema isoperimétrico inverso para la medida gaussiana. Geometría discreta y computacional, 10:411–420, 1993.
Adam Klivans, Ryan O'Donnell y Rocco A Servedio. Aprender conceptos geométricos mediante el área superficial gaussiana. En el Proc. 49º Simposio IEEE sobre Fundamentos de la Informática (FOCS), páginas 541–550, 2008.
Shivam Nadimpalli, Caleb Pascale. En el perímetro gaussiano máximo de conjuntos convexos, revisitado. Preprint (2025)
Fedor Nazarov. En el perímetro máximo de un conjunto convexo en R^n respecto a una medida gaussiana. En Geometric Aspects of Functional Analysis (2001-2002), páginas 169–187. Notas de clase en matemáticas, Volumen 1807, Springer, 2003
Martin Raicz. Un teorema multivariante de Berry–Esseen con constantes explícitas. Bernoulli 25(4A), 2019, 2824–2853

766
Aviso legal: Había dado acceso anticipado a la versión beta interna de Grok 4.20
Encontró una nueva función Bellman para uno de los problemas en los que había estado trabajando con mi alumno N. Alpay.
El problema se reduce a identificar la función máxima puntual U(p,q) bajo dos restricciones y entender el comportamiento de U(p,0).
En nuestro artículo demostramos que U(p,0)\geq I(p), donde I(p) es el perfil isoperimétrico gaussiano, I(p) ~ p\sqrt{log(1/p)} como p ~ 0.
Tras ~5 minutos, Grok 4.20 produjo una fórmula explícita U(p,q) = E \sqrt{q^2+\tau}, donde \tau es el tiempo de salida del movimiento browniano desde (0,1) que comienza en p. Esto da lugar a U(p,0)=E\sqrt{\tau} ~ p log(1/p) en p ~ 0, una mejora de raíz cuadrada en el factor logarítmico.
¿Algún significado de este resultado? No te dirá cómo cambiar el mundo mañana. Más bien, da un pequeño paso hacia entender qué está ocurriendo con los promedios de análogos estocásticos de derivadas (variación cuadrática) de funciones booleanas: ¿qué tan pequeños pueden ser?
Más precisamente, esto da una cota inferior pronunciada sobre la norma L1 de la función cuadrada diádica aplicada a funciones indicadoras 1_A de conjuntos A \subconjunto [0,1].
En mi tuit anterior sobre la función Takagi, vimos que el límite inferior pronunciado en ||S_1(1_A)||_1 milagrosamente coincide con la función de Takagi de |A| que (para mi sorpresa) está relacionada con la hipótesis de Riemann. Aquí, obtenemos una cota inferior pronunciada en ||S_2(1_A)||_1 dado por E \sqrt{\tau}, donde el movimiento browniano comienza en |A|. Esta función pertenece a la familia de perfiles de tipo isoperimétrico, pero a diferencia de la función fractal de Takagi, es suave y no coincide con el perfil isoperimétrico gaussiano.
Finalmente, en el análisis armónico se sabe que la función cuadrado no está acotada en L^1. La pregunta aquí era más por curiosidad: ¿cómo es exactamente que explota cuando se prueba en funciones booleanas 1_A? Anteriormente, el límite inferior más conocido era |A|(1-|A|) (Burkholder—Davis—Gandy). En nuestro artículo, obtuvimos |A| (1-|A|)\sqrt{log(1/(|A|(1-|A|)))}. Esta nueva función de Bellman de Grok da |A| (1-|A|) \log(1/(|A|(1-|A|))) Y este límite es realmente afilado.

1.12K
Populares
Ranking
Favoritas
