Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nav Toor
Ayudarte a dominar la IA a diario con guías paso a paso, últimas noticias y herramientas prácticas
🚨ÚLTIMA HORA: Esta herramienta de Python revierte la pixelación y recupera el texto original de capturas de pantalla "censuradas".
Se llama Depix. Tú pixelas una contraseña. Depix la lee de todos modos.
Sin modelo de IA. Sin GPU. Sin servicio en la nube. Solo matemáticas.
Así es como funciona:
→ Le das la captura de pantalla pixelada
→ Genera una imagen de búsqueda usando una secuencia de De Bruijn
→ Compara cada bloque pixelado con representaciones de caracteres conocidas
→ Usa la proximidad geométrica para eliminar falsos positivos
→ Reconstruye el texto plano carácter por carácter
Aquí está la parte más sorprendente:
Se construyó originalmente porque alguien pixeló una contraseña de Administrador de Dominio en una captura de pantalla corporativa. El tipo de credencial que controla toda la red de una empresa. Depix la descifró.
Cada herramienta de redacción que hayas usado. Greenshot, Gimp, Snagit. Si utiliza un filtro de caja lineal para la pixelación, esta herramienta puede revertirlo.
El repositorio original alcanzó 26,152 estrellas en GitHub antes de que el creador lo reiniciara. Así de grande fue su impacto.
Piensa en cada captura de pantalla que hayas compartido con credenciales "censuradas", claves API, correos electrónicos o mensajes privados.
Si las pixelaste en lugar de usar barras negras sólidas, nunca estuvieron ocultas.
Un comando para ejecutar. Python puro.
100% Código Abierto.

🚨ÚLTIMA HORA: OpenAI te dijo que cada actualización hace que ChatGPT sea más inteligente.
Stanford demostró lo contrario.
La precisión de GPT-4 en problemas matemáticos cayó del 97.6% al 2.4% en solo tres meses. Y nadie te lo dijo.
Investigadores de Stanford y UC Berkeley rastrearon el rendimiento real de ChatGPT a lo largo del tiempo. Mismos prompts. Mismas tareas. Resultados diferentes. El modelo que casi dominaba las preguntas de matemáticas en marzo estaba fallando 97 de cada 100 veces en junio.
La generación de código también colapsó. En marzo, más del 50% del código de GPT-4 se ejecutaba perfectamente a la primera. Para junio, solo el 10% lo hacía. Mismas preguntas. Respuestas dramáticamente peores. Cada actualización silenciosa que OpenAI lanzó hizo que el producto por el que pagas $20 al mes fuera silenciosamente peor en las cosas que realmente usas.
Los investigadores probaron GPT-3.5 y GPT-4 en matemáticas, programación, exámenes médicos, razonamiento y preguntas sensibles. La deriva fue masiva e impredecible. Algunas tareas mejoraron. Otras cayeron en picada. Y no había forma de que supieras cuál era cuál, porque OpenAI nunca reveló qué cambió.
Aquí es donde se vuelve personal. Si usaste ChatGPT para código en marzo y funcionó, luego intentaste lo mismo en junio y falló, probablemente te culpaste a ti mismo. Pensaste que lo habías solicitado mal. Intentaste de nuevo. Perdiste horas depurando tus propias preguntas. Pero no eras tú. El modelo había cambiado silenciosamente debajo de ti.
El VP de Producto de OpenAI fue a X y dijo "no hemos hecho que GPT-4 sea más tonto."
Los datos de Stanford dicen lo contrario.
Del 97.6% al 2.4% no es una cuestión de opinión.
Cada negocio que construye sobre la API de ChatGPT, cada estudiante que confía en ella para su trabajo escolar, cada desarrollador que la usa para enviar código está de pie sobre un terreno que se desplaza sin previo aviso. Confiabas en ello ayer. Cambió de la noche a la mañana. Nadie te lo dijo.
No te lo estás imaginando. ChatGPT se está volviendo más tonto. Stanford lo demostró.

23
Parte superior
Clasificación
Favoritos

