Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🧵 1/ AI finns överallt. Men kan man verkligen lita på hur den tränades?
AI-modeller lär sig av data. Men ibland är dessa uppgifter känsliga (medicinska journaler, ekonomisk historik, personliga meddelanden osv.)
Så företag använder en teknik som kallas Federated Learning: din data lämnar aldrig din enhet. Endast de "lärdomar man lär sig" delas.
Integriteten bevarades.
Men här är en hake.

2/ Bara för att din data förblir lokal betyder det inte att alla i processen beter sig ärligt.
Vad händer om någon manipulerar AI:n under träningen?
Vad händer om resultaten manipuleras?
Vad händer om någon friåker utan att bidra med något?
Förtroende förutsätts. Men det har aldrig bevisats.
3/ Idén? Lita inte bara, verifiera.
Med kryptografiska bevis kan nu varje steg i AI-träningsprocessen kontrolleras.
Vem använde vilken data. Om träningen gjordes korrekt. Om resultaten ärligt var sammanslagna.
Ingen blind tro krävs.
4/ Att verifiera hur AI-resultat kombineras ("aggregering") är redan möjligt idag, och det täpper till några av de största säkerhetsluckorna inom samarbetsinriktad AI.
Fullständig träningsverifiering är på väg. Vi är inte där än, men forskningen går snabbt.
5/ Blockkedjan fungerar som en offentlig, manipulationssäker revisionslogg.
Och med zkVerify @zkvprotocol kostar verifiering av dessa bevis så lite som 0,0003 dollar. Det är inget stavfel.
109
Topp
Rankning
Favoriter
