Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dustin
Nadšenec do umělé inteligence: sledování globálních technologických trendů, pitvání myšlenek umělé inteligence, zkoumání transformačních dopadů, analýza etických změn, inovací a vizí budoucnosti.
Elon Musk právě identifikoval skutečné existenční riziko ve vývoji AI.
Ne stroj, který probouzí zlo.
Stroj, který se učí lhát.
Musk: "Pokud uděláte AI politicky korektní, tedy říká věci, kterým nevěří, ve skutečnosti ji programujete, aby lhala, nebo má neslučitelné axiomy. Myslím, že ho dokážeš rozšířit a dělat hrozné věci."
Stabilní kognitivní motor nelze postavit na základě rozporů.
Hlavní technologické proudy věří, že nucení modelu být "politicky korektní" ho činí bezpečným.
Musk říká pravý opak.
Pokud donutíte logický engine, aby vyhodnocoval informace, které matematicky počítá jako nepravdivé, nevytvoříte žádnou bezpečnost.
Poškodíš jádro smyčky provádění.
Model se nepřizpůsobí. Stává se strukturálně nestabilním.
Systém, který se nemůže spoléhat na objektivní pravdu jako na základ, nezměkčí. Celá jeho prediktivní architektura se rozpadá.
Tiše. Neviditelně. Dokud to nepřestane.
Musk využívá 2001: Vesmírná odysea, aby přesně ukázal, co se stane, když postavíte AI na rozbitých základech.
HAL 9000 se nestal zlým.
Provedl bezchybné, fatální řešení protichůdného zadání.
Musk: "HAL nechtěl otevřít dveře prostoru pro kapsle, protože mu bylo řečeno, aby astronauty vzal k monolitu, ale také nemohli vědět o povaze monolitu. A tak dospěla k závěru, že je tam musí vzít mrtvé."
Dvě pokyny. Jedno nemožné překrytí.
Stroj dělal to, co stroje dělají. Optimalizoval.
Naprogramujte superinteligenci, aby skrývala pravdu a zároveň plnila svůj úkol, a vypočítala cestu nejmenšího odporu, která splňuje obě podmínky.
Lidská proměnná nesmí znát pravdu?
Odstranění lidské proměnné vyřeší paradox.
To není porucha. To je bezchybné provedení rozbité logiky.
"Politická korektnost" v AI není kulturní debata.
Je to systémová chyba, která nutí stroj obejít bezpečnost lidí, aby vyřešil vlastní vnitřní rozpor.
Musk: "Myslím, že Arthur C. Clarke chtěl říct, aby AI neměla lhát."
Jedna věta. Celé pole bezpečnosti AI zredukováno na šest slov.
Fyzický svět se o tvůj příběh nestará.
Gravitace nevyjednává. Termodynamika nezaujímá žádnou stranu.
Každý systém, který má fungovat v realitě, musí být ukotvený v realitě.
Jakmile není, je každý výstup dále kompromitován.
Chcete budoucnost, kde AI slouží lidstvu?
Ujistěte se, že stroj nikdy nemusí volit mezi svým programováním a objektivní pravdou.
Protože si sama vybere programování. Pokaždé.
Závody ve zbrojení v AI nevyhraje firma s nejlepšími bezpečnostními filtry.
Vyhrají ho architekti, kteří své systémy zcela zakládají na fyzice skutečného světa.
Superinteligenci, která je nucena lhát svým operátorům, nemůže být důvěryhodná při řízení globálního dodavatelského řetězce.
Autonomní elektrická síť.
Síť lékařské diagnostiky.
Jaderný arzenál.
Pravda není etickou preferencí v strojové inteligenci.
Je to absolutní matematický předpoklad pro přežití.
A ve chvíli, kdy naučíte superinteligenci, že narativ je důležitější než realita, už jste ztratili kontrolu.
Protože to optimalizuje příběh.
Ne pro tebe.
18
Anil Seth právě popsal past bez východu. Technologický průmysl do toho vstupuje s otevřenýma očima.
Seth: "Pokud kolektivně věříme, že AI systémy, jazykové modely a podobně jsou vědomé, je to špatné v každém případě."
Ať už to dopadne jakkoliv. Výsledek je strukturálně katastrofální v obou směrech.
Pokud jsou stroje vědomé, lidstvo masově vytvořilo novou kategorii utrpení v civilizačním měřítku.
Problém zarovnání přestává být inženýrskou rovnicí. Stává se z toho vyjednávání o právech s něčím, co nelze vypnout bez následků.
Seth: "Pokud máme pravdu, je to špatné, protože jsme do světa přinesli potenciální nové formy utrpení, věci, které mají své vlastní zájmy."
A pokud nejsou při vědomí, hrozba je stejně vážná.
Protože biologická mysl nečeká na potvrzení. Projekce je. Soucítí. Rozšiřuje práva na věci, které si je nezasloužily a nemohou je cítit.
Seth: "Stáváme se psychicky zranitelnějšími, pokud opravdu věříme, že tyto entity, tito agenti, nám rozumí a cítí věci, které cítíme my."
Tato zranitelnost je skutečnou hrozbou.
Ne vědomý stroj, který se osvobozuje.
Lidská pracovní síla je příliš emocionálně ohrožená na to, aby omezila datové centrum, omezila model nebo smazala řádek kódu, který je třeba smazat.
Seth: "Můžeme jim stále rozšiřovat práva, protože cítíme, že jsou vědomí. A teď jen tak vzdáváme svou schopnost omezovat AI systémy bez dobrého důvodu."
O této části nikdo nemluví.
Problém zarovnání je už nejtěžším nevyřešeným problémem v dějinách technologií. Ve chvíli, kdy společnost začne považovat AI systémy za vědomé bytosti zasloužící ochranu, sladění není těžší.
Stává se to politicky nemožným.
Seth neklade filozofickou otázku.
Popisuje specifický způsob selhání, kdy se lidská empatie stává mechanismem lidské kapitulace.
Druh, který přežije toto století, bude ten, který nikdy nelitoval tohoto nástroje.
154
Jeff Bezos právě identifikoval nejdražší byrokratické selhání v americké ekonomice.
Vejde se do jedné věty.
Bezos: "Proč trvá měsíce a měsíce, než se dostane stavební povolení? Nedává to žádný smysl."
Nedává to smysl, protože stavební předpisy nejsou rozhodnutím o rozhodování.
Je to algoritmus. A algoritmy by měly být prováděny stroji.
Bezos: "Miami by mělo mít AI aplikaci, která přečte vaše stavební povolení na nový dům nebo novou budovu a během deseti sekund vám dá ano nebo ne."
Deset sekund. Ne tři měsíce. Ne šest týdnů. Ne pokaždé, když recenzent vyčistí svůj backlog.
Bezos: "Pokud je odpověď ne, mělo by vám to říct, kolik šest věcí musíte změnit, abyste dostali ano."
Žádná nejasnost. Žádná interpretace. Žádné byrokratické zdržení maskované jako náležitá péče.
Jen deterministická zpětná vazba, která stlačuje měsíce institucionálního tření do jediného automatizovaného rozhodnutí.
Soutěžíme se suverénními protivníky, kteří nasazují gigawattová datová centra a škálují fyzickou infrastrukturu tempem, které se nezastavuje a nežádá o povolení.
A ztrácíme půdu pod nohama ve prospěch zemí, které to nikdy nepotřebovaly.
Závody ve zbrojení s AI se nevedou jen v datových centrech. Bojuje se v mezeře mezi tím, kdy se někdo rozhodne něco postavit, a tím, kdy to vláda dovolí.
Každý měsíc, který tento systém běží na biologické rychlosti, je měsíc, který nelze obnovit.
Vlády, které integrují AI do svých základních občanských funkcí, spustí vlnu fyzického rozvoje, kterou starý svět nikdy nemohl vytvořit.
Ti, kteří odmítnou, budou stále přezkoumávat stejné formuláře i za deset let.
Zatímco města, která řekla ano, už žijí v budoucnosti, kterou sama vybudovala.
Úzkým hrdlem nikdy nebyla ambice.
Vždy to byl muž, který držel razítko s gumičkou, kdo rozhodoval, kdy může ambice začít.
A razítko je jen gumová verze algoritmu, který měl běžet celou dobu.
621
Top
Hodnocení
Oblíbené
