Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
AI development will never be the same. Built by @ovrclk_ on @akashnet.
OpenAI se nasazuje uvnitř utajovaných vládních sítí. Když stavíte na uzavřených, centralizovaných AI platformách, důvěřujete jejich podmínkám služby a tyto podmínky se mohou kdykoli změnit bez vašeho zapojení.
Cesta open-source vypadá velmi odlišně:
→ Můžete přesně ověřit, co vaše modely dělají s vašimi daty
→ Nejste závislí na politikách nebo rozhodnutích jednoho poskytovatele
→ Vaše infrastruktura běží tam, kde si vyberete, ne tam, kde vám to řeknou
AkashML poskytuje vysoce výkonnou inferenci napříč 80+ globálními datovými centremi.
Plně otevřené, plně přenosné a postavené pro všechny.
Vyzkoušejte AkashML:

Crypto Miners1. 3. 20:57
OpenAI dosáhla dohody s Ministerstvem války
@OpenAI plánuje nasadit své modely v rámci utajované sítě DoW za přísných podmínek. Sam Altman říká, že ministerstvo projevilo silný respekt k bezpečnosti a že podmínky jsou v souladu s platnými zákony a politikou.
Dohoda obsahuje záruky spojené se základními principy OpenAI, včetně zákazů domácího masového sledování a odpovědnosti lidí za použití síly. Vyžaduje také technické kontroly požadované DoW, nasazení pouze v cloudu a specializované dohledové týmy, aby modely fungovaly podle svých představ.
Altman dodal, že OpenAI chce, aby podobné standardy byly aplikovány ve všech AI společnostech, a zdůraznil preferenci spolupráce před právními konflikty, přičemž cílem zůstává sloužit lidstvu v složitém a někdy nebezpečném světě.

307
Centralizované AI platformy trénují na vašich proprietárních datech a předávají je zpět vašim konkurentům.
Řešení je jednoduché:
→ Spouštějte open-source modely na svém vlastním soukromém nasazení
→ Vaše vstupy nikdy neopouštějí vaši infrastrukturu
→ Vaše data trénují vaše modely, ne jejich
AkashML je inferenční platforma, nikoli datová operace.
Dáváme vám žetony na to, abyste mohli hrát Llama 3.3 70B za 0.13 $ za 1M tokenů.
Kompatibilita drop-in API znamená, že můžete migrovat od jakéhokoliv hlavního poskytovatele během několika minut.
Nejsi produkt. Jste majitel.
Přesvědčte se sami ↓

Guri Singh28. 2. 2026
🚨 Stanford právě analyzoval zásady ochrany soukromí šesti největších AI společností v Americe.
Amazon. Antropopické. Google. Meta. Microsoft. OpenAI.
Všech šest využívá vaše rozhovory k trénování svých modelů. Ve výchozím nastavení. Bez smysluplné otázky.
Tady je, co článek skutečně zjistil.
Výzkumníci ze Stanford HAI zkoumali 28 dokumentů o ochraně soukromí napříč těmito šesti společnostmi, nejen hlavní zásady ochrany soukromí, ale i všechny propojené podzásady, FAQ a stránky s pokyny přístupnými z chatovacích rozhraní.
Všechny tyto zákony hodnotili podle kalifornského zákona o ochraně soukromí spotřebitelů, nejkomplexnějšího zákona o ochraně soukromí ve Spojených státech.
Výsledky jsou horší, než si myslíte.
Každá firma sbírá data z chatu a automaticky je vkládá zpět do trénování modelu. Někteří si vaše rozhovory uchovávají navždy. Neexistuje žádná expirace. Žádné automatické mazání. Vaše data tam prostě leží navždy a zásobují budoucí verze modelu.
Některé z těchto společností umožňují lidským zaměstnancům číst vaše chatové přepisy jako součást školení. Ne anonymizované shrnutí. Tvé skutečné rozhovory.
Ale tady to začíná být opravdu nebezpečné.
U firem jako Google, Meta, Microsoft a Amazon, které provozují také vyhledávače, sociální sítě, e-commerce weby a cloudové služby, vaše AI konverzace nezůstávají uvnitř chatbota.
Ty se sloučí se vším ostatním, co o vás firmy už vědí.
Vaši historii vyhledávání. Vaše nákupní data. O vaší aktivitě na sociálních sítích. Tvé nahrané soubory.
Výzkumníci popisují realistický scénář, který by vás měl přimět se zamyslet: Zeptáte se AI chatbota na recepty na večeři zdravé pro srdce. Model naznačuje, že můžete mít kardiovaskulární onemocnění. Tato klasifikace prochází širším ekosystémem společnosti. Začnete vidět reklamy na léky. Informace se dostanou do databází pojištění. Účinky se časem sčítají.
Sdílela jsi otázku k večeři. Systém vytvořil zdravotní profil.
Je to ještě horší, když se podíváte na data dětí.
Čtyři ze šesti společností se zdají zahrnovat data z dětského chatu do svého modelového tréninku. Google oznámil, že bude školit na datech teenagerů s přivolením na souhlas. Anthropic uvádí, že neshromažďuje data dětí, ale neověřuje věk. Microsoft tvrdí, že sbírá data od uživatelů mladších 18 let, ale tvrdí, že je nepoužívá pro školení.
Děti s tím nemohou legálně souhlasit. Většina rodičů o tom ani neví.
Mechanismy odhlášení jsou jako bludiště.
Některé firmy nabízejí možnost odhlášení. Někteří ne. Ty, které ano, zahrabávají tuto možnost hluboko do stránek s nastavením, které většina uživatelů nikdy nenajde. Samotné zásady ochrany soukromí jsou napsány hutným právním jazykem, který výzkumníci pro lidi, jejichž úkolem je čtení těchto dokumentů, těžko interpretovali.
A tady je strukturální problém, který nikdo neřeší.
Ve Spojených státech neexistuje žádný komplexní federální zákon o ochraně soukromí, který by upravoval, jak AI společnosti nakládají s daty v chatu. Mozaika státních zákonů zanechává obrovské mezery. Výzkumníci konkrétně požadují tři věci: povinnou federální regulaci, aktivní opt-in (nikoli opt-out) pro trénink modelů a automatické filtrování osobních údajů z chatových vstupů ještě před tím, než vůbec dosáhnou tréninkového řetězce.
Dnes žádné z toho neexistuje.
Nepříjemná pravda je tato: pokaždé, když něco zadáte do ChatGPT, Gemini, Claude, Meta AI, Copilota nebo Alexy, přispíváte do tréninkového datasetu. Vaše lékařské otázky. Tvé vztahové problémy. Vaše finanční údaje. Tvé nahrané dokumenty.
Nejsi zákazník. Ty jsi učební plán.
A firmy, které to dělají, vám to co nejvíce ztížily přestat.

235
Top
Hodnocení
Oblíbené
