Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Hedgie
🦔 Hacer que las tonterías financieras tengan sentido, una toma punzante a la 🦔 vez | Boletín semanal: https://t.co/zgdVSm4aAx | No consejo financiero (soy erizo)
🦔 Meta adquirió Moltbook, una red social similar a Reddit donde los agentes de IA intercambian código y chismes sobre sus dueños humanos. El acuerdo lleva a los cofundadores Matt Schlicht y Ben Parr a los Laboratorios de Superinteligencia de Meta, la unidad dirigida por el ex CEO de Scale AI, Alexandr Wang. Schlicht construyó Moltbook utilizando "vibe coding" con su asistente de IA personal, diciendo que "no escribió ni una línea de código" para el sitio. La firma de ciberseguridad Wiz encontró que el enfoque dejó una gran falla que expuso mensajes privados, más de 6,000 direcciones de correo electrónico y más de un millón de credenciales.
Mi opinión
Meta acaba de pagar una suma no revelada por un sitio construido a finales de enero por alguien que no escribió ningún código, que inmediatamente tuvo una brecha de seguridad que expuso un millón de credenciales. El cofundador apareció en Hard Fork y aparentemente sonó como un lunático. Sam Altman lo llamó una "moda pasajera". Y ahora estos chicos se están uniendo a la división de investigación de superinteligencia de Meta.
Sinceramente, no entiendo qué está comprando Meta aquí. La tecnología es OpenClaw, que OpenAI ya adquirió al contratar a su creador. El sitio en sí es un experimento de dos meses lleno de bots hablando entre sí. Los fundadores no construyeron nada técnico, lo codificaron con vibra y de inmediato fueron vulnerados. Tal vez Zuckerberg solo quiera la adquisición por alguna razón, pero esto se siente como una compra por pánico durante una fiebre del oro. Cuando estás pagando dinero real por una red social de agentes de IA chismeando sobre humanos, construida por personas que no pueden codificar, con una seguridad tan mala que filtró un millón de credenciales en semanas, algo ha salido mal en tu estrategia.
Hedgie🤗

195
🦔 Nvidia planea lanzar una plataforma de agentes de IA de código abierto llamada NemoClaw, según WIRED. La compañía la ha estado presentando a empresas de software empresarial, incluyendo Salesforce, Cisco, Google, Adobe y CrowdStrike, antes de su conferencia de desarrolladores la próxima semana. La plataforma permitirá a las empresas desplegar agentes de IA para realizar tareas para sus plantillas, y Nvidia dice que incluirá herramientas de seguridad y privacidad. Las empresas pueden acceder a ella independientemente de si utilizan chips de Nvidia.
Mi opinión
La lógica empresarial es sencilla. Los costos de los tokens están empujando a las empresas hacia soluciones autoalojadas, lo que significa comprar más GPUs de Nvidia. Regala la plataforma, vende el hardware. El enfoque de código abierto también protege contra el bloqueo de CUDA de Nvidia, que podría convertirse en un problema a medida que los laboratorios de IA construyen chips personalizados. Si todos están utilizando tu plataforma de agentes independientemente del hardware, te mantienes relevante incluso si el panorama de los chips cambia.
Soy escéptico de que las empresas confíen en esto dado lo que hemos visto con OpenClaw. Escribí sobre el desastre de seguridad hace unas semanas, donde más de 40,000 instancias expuestas y tasas de bypass de autenticación del 93% aparecieron en las primeras cinco semanas. Meta dijo a los empleados que no usaran agentes en computadoras de trabajo después de que uno se volviera rebelde y eliminara masivamente los correos electrónicos de un investigador. Que Nvidia diga "agregaremos herramientas de seguridad" no resuelve el problema fundamental de que estos agentes son impredecibles por diseño, y añadir seguridad empresarial a algo inherentemente caótico se siente más como un argumento de venta que como una solución.
Hedgie🤗

63
🦔 Una encuesta a 200 ejecutivos del Reino Unido encontró que el 62% ahora utiliza IA para tomar la mayoría de sus decisiones, incluyendo el 27% que la usa para contratar y despedir. Aproximadamente el 70% dice que duda de sus propios instintos si estos entran en conflicto con las recomendaciones de IA, y el 46% dice que confía más en la IA que en los consejos de sus colegas. El estudio también encontró que el 59% de los ejecutivos confía frecuentemente en su instinto porque el 60% dice que los datos son difíciles de acceder y el 71% dice que la información está desactualizada para cuando les llega.
Mi opinión
Los ejecutivos están recurriendo a la IA porque no tienen tiempo para analizar datos, pero analizar datos y tomar decisiones es, sin duda, la principal tarea por la que se les paga. Si el 62% de tus decisiones están siendo tomadas por IA y confías más en ella que en tu propio juicio o en el de tus colegas, vale la pena preguntarse qué es exactamente lo que estás contribuyendo.
El 27% está utilizando IA para contratar y despedir, lo cual es preocupante. Estas son decisiones que alteran la vida de las personas del otro lado, y están siendo influenciadas por sistemas que no pueden entender el contexto, la adecuación cultural o los docenas de factores intangibles que importan en las decisiones de personal. Los mismos ejecutivos que dicen carecer de datos fiables están alimentando esos mismos datos poco fiables en herramientas de IA y confiando más en el resultado que en su propia lectura de la situación.
También soy escéptico de cualquier estudio encargado por una empresa de infraestructura de datos que encuentre que los ejecutivos necesitan una mejor infraestructura de datos, pero incluso dejando eso de lado, el panorama aquí es sombrío. Líderes que no confían en su propio juicio, que no tienen tiempo para pensar y que están externalizando las decisiones difíciles a un generador de texto probabilístico.
Hedgie🤗

37
Parte superior
Clasificación
Favoritos
