Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nav Toor
Ayudarte a dominar la IA a diario con guías paso a paso, últimas noticias y herramientas prácticas
🚨ÚLTIMA HORA: Esta herramienta de Python revierte la pixelación y recupera el texto original de capturas de pantalla "censuradas".
Se llama Depix. Pixelas una contraseña. Depix lo lee de todos modos.
No hay modelo de IA. Sin GPU. No hay servicio en la nube. Solo matemáticas.
Así es como funciona:
→ Le das la captura de pantalla pixelada
→ Genera una imagen de búsqueda usando una secuencia de De Bruijn
→ Empareja cada bloque pixelado con los renderizados de caracteres conocidos
→ Utiliza la proximidad geométrica para eliminar falsos positivos
→ Reconstruye el texto plano carácter por carácter
Aquí viene la parte más loca:
Originalmente se creó porque alguien pixeló una contraseña de administrador de dominio en una captura de pantalla corporativa. El tipo de credencial que controla toda la red de una empresa. Depix lo resolvió.
Todas las herramientas de redacción que hayas usado. Tiro verde, cobarde, snagit. Si utiliza un filtro de caja lineal para la pixelación, esta herramienta puede revertirlo.
El repositorio original alcanzó las 26.152 estrellas en GitHub antes de que el creador lo restableciera. Así de fuerte explotó esto.
Piensa en cada captura de pantalla que hayas compartido con credenciales "censuradas", claves API, correos electrónicos o mensajes privados.
Si los pixelabas en vez de usar barras negras sólidas, nunca se ocultaban.
Una orden para correr. Pura Python.
100% de código abierto.

3
🚨ÚLTIMA HORA: OpenAI te dijo que cada actualización hace que ChatGPT sea más inteligente.
Stanford demostró lo contrario.
La precisión de GPT-4 en problemas matemáticos cayó del 97,6% al 2,4% en solo tres meses. Y nadie te lo dijo.
Investigadores de Stanford y UC Berkeley siguieron el rendimiento real de ChatGPT a lo largo del tiempo. Mismas indicaciones. Las mismas tareas. Resultados diferentes. El modelo que casi aprobó sobresalientes en las preguntas de matemáticas en marzo las fallaba 97 de cada 100 veces en junio.
La generación de código también colapsó. En marzo, más del 50% del código de GPT-4 funcionaba perfectamente a la primera. En junio, solo el 10% lo hizo. Mismas preguntas. Respuestas dramáticamente peores. Cada actualización silenciosa que lanzaba OpenAI hacía que el producto por el que pagabas 20 dólares al mes empeorara silenciosamente en las cosas para las que realmente lo usas.
Los investigadores evaluaron GPT-3.5 y GPT-4 en matemáticas, codificación, exámenes médicos, razonamiento y preguntas sensibles. La deriva era enorme e impredecible. Algunas tareas mejoraron. Otros se cayeron por un precipicio. Y no había forma de saber cuál era cuál, porque OpenAI nunca reveló qué había cambiado.
Aquí es donde se vuelve personal. Si usaste ChatGPT para código en marzo y funcionó, luego probaste lo mismo en junio y se rompió, probablemente te culpaste a ti mismo. Pensaste que lo habías provocado mal. Lo intentaste de nuevo. Perdí horas depurando sus propias preguntas. Pero no fuiste tú. El modelo había cambiado silenciosamente bajo ti.
El vicepresidente de producto de OpenAI fue a X y dijo: "no hemos hecho que GPT-4 sea más tonto."
Los datos de Stanford dicen lo contrario.
El 97,6% frente al 2,4% no es cuestión de opinión.
Cada empresa que se basa en la API de ChatGPT, cada estudiante que depende de ella para los deberes, cada desarrollador que la usa para enviar código está en un terreno que cambia sin previo aviso. Confiaste en él ayer. Cambió de la noche a la mañana. Nadie te lo dijo.
No te lo estás imaginando. ChatGPT se está volviendo más tonto. Stanford lo demostró.

33
Populares
Ranking
Favoritas

