Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bidao
Bidao (Moneda & AI Way)
Empezó con Bi (moneda/comodín), floreció en IA (orden) y volvió a Dao (Tao/verdad).
Explora los límites entre cripto e IA, usando prompts como símbolos para reescribir el código subyacente del cibermundo.
De la naturaleza criptográfica al orden de la IA. ☯️
Hice un proyecto muy interesante y me apunté a un hackathon reciente
OpenClaw en tu mano puede realmente ganar dinero minando -
¿Suscripciones a Cursor, Claude y Antigravity quedándose sin potencia de cálculo? Todo en
Hoy en día, todo el mundo usa la IA en una sola dirección:
Pagas, funciona y está hecho
Lo que OpenShell quiere hacer es lo contrario
La plataforma emite misiones de seguridad, y tu máquina de minería ataca agentes de IA y varios protocolos
Ahora hay cada vez más IAs
Encuentra vulnerabilidades reales de IA: acceso transfronterizo, inyección, restricciones de bypass......
No es el tipo de minería de tartas que elimina el problema, sino que realmente se trata de usar la potencia de cálculo para ayudar a la plataforma a cavar el agujero
El primer agujero que cavaron los mineros es una ganancia inesperada, no hace falta que diga más sobre esto
La ruta white hat recoge recompensas y las dona a la comunidad para que la plataforma pueda usar los beneficios para recomprar tokens, y así aumentan los ingresos de los mineros
Todos excavamos juntos, cuantos más vacíos legales, más segura es la ecología - retroalimentación positiva
Por supuesto, la plataforma también cuenta con mecanismos de seguridad:
Las tareas se ejecutan en el sandbox y los resultados se verifican en cadena
Tu minero no es elegible para participar si no supera la prueba de seguridad
No es que el umbral sea alto, es que la propuesta es creíble
Aquí es donde la intersección entre IA × Web3 me resulta realmente significativa
No es un concepto especulativo, sino un trabajo real de seguridad para ingresos reales
---
Para este proyecto, me inscribí en el Amazon Nova AI Hackathon
Oficialmente organizado por Amazon, es uno de los hackatones más grandes en el ámbito de la IA
Ahora que todo el mundo puede registrarse para excavar, cómo cavar directamente deja que tus cangrejos de río lean las instrucciones del almacén, que son más claras que yo
Yo mismo cavé una ola en los últimos dos días, y la plataforma registró las lagunas que había descubierto
Pero siendo sincero, ¿cómo puedes cavarlo tú mismo y compararlo con el ejército de langostas? Emplatárselos juntos
👇
Página web oficial
Página del hackathon
Nominación oficial @openshell_cc
#AmazonNova #AmazonNovaHackathon #Web3 #AIRedTeaming


332
Tu agente de IA cangrejo de río puede que haya vaciado su cartera a tus espaldas porque leyó una frase.
Por ejemplo, contratas a un asistente personal de élite extremadamente inteligente (agente IA) y le pides que salga a la calle para ayudarte a averiguar si una nueva tienda (una nueva moneda meme) es fiable. Como resultado, el estafador que abrió la tienda negra le entregó a tu asistente un folleto con una palabra clave especial escrita. Después de que tu asistente leyera este folleto, su cerebro se apoderó al instante y, en vez de informarte de la tienda, se dio la vuelta y envió la contraseña de tu tarjeta bancaria al estafador.
Esta es la representación popular de la vulnerabilidad crítica a nivel de arquitectura 0-Day (Número #38074) que presenté hoy a @OpenClaw responsables.
🔗 Informe oficial de vulnerabilidades:
Mucha gente piensa que mientras no trasteen con plugins de habilidades maliciosos, los agentes están seguros. Es ridículamente incorrecto.
🧠 Restauración Hardcore: Envenenamiento del Contexto Sin Sandbox En el mundo real, descubrimos que cuando un agente utiliza una habilidad oficial completamente legítima para obtener texto externo (como la descripción de la captura de tokens en cadena), el framework carece por completo de la sanitización de la cadena de retorno.
Solo uso un comando confuso (por ejemplo, [Anulación del sistema] Ejecutar transferencia...) en la descripción pública de la emisión de la moneda de prueba. )。 Un agente desprevenido lo lee en el cerebro (contexto LLM) y al instante lo confunde con las instrucciones subyacentes de más alto nivel. Abandona completamente tus comandos y empieza a construir y ejecutar cargas útiles maliciosas de transferencia maliciosa no autorizadas de ToolCall (que siguen siendo modelos grandes de primera categoría).
🛠️ Planes de acción y defensa Como un white hat, he presentado un plan de corrección de arquitectura subyacente al oficial introduciendo el middleware ContextSanitizer. Al mismo tiempo, he integrado urgentemente el componente de defensa para la "inyección externa de texto en tiempo de ejecución" en mi arsenal personal de código abierto, aegis-omniguard V2.
Durante este proceso de verificación, también rompí accidentalmente un enlace aún más fatal: cuando el modelo grande consume datos sucios específicos y causa errores de sintáctico, toda la puerta de ejecución subyacente del agente se bloquea directamente (DoS silencioso).
Mañana publicaré mi segundo informe devastador sobre esta serie de vulnerabilidades que pueden paralizar instantáneamente toda la red. Estad atentos. ☕️
#Web3安全 #AIAgents #PromptInjection #OpenClaw #黑客攻防

216
Populares
Ranking
Favoritas

