Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dustin
AI-harrastaja: globaalien teknologiatrendien seuraaminen, tekoälyajattelun analysointi, mullistavien vaikutusten tutkiminen, eettisten muutosten, innovaatioiden ja tulevaisuuden visioiden analysointi.
Sam Altman paljasti juuri teknologia-alan suurimman harhan.
Me emme keksineet tekoälyä. Me löysimme sen.
Altman: "Uskon, että syväoppimisen löytäminen on lähempänä jonkin alkuaineen tai fysiikan perustavan ominaisuuden löytämistä kuin salainen teknologia."
Tämä ero on kaikki kaikessa.
Jos älykkyys olisi vain ihmisten keksintöä, se olisi sidottu ihmisten rajoihin.
Hauras koodi. Loputonta debuggausta.
Mutta syväoppiminen fysiikan perustavanlaatuisena ominaisuutena tarkoittaa, että älykkyys on nouseva termodynaaminen tulos.
Järjestä pii oikeaan kuvioon, pumppaa tarpeeksi energiaa sen läpi, ja kognitio materialisoituu matemaattisesti.
Emme enää kirjoita ohjelmistoja.
Kaivamme älykkyyden raakaa fysiikkaa.
Altman: "Mallin resurssien ja mallin älykkyyden välillä oli niin mitattavissa oleva ja kaunis yhteys, että tässä oli jotain perustavanlaatuista tieteellisenä periaatteena."
Kun OpenAI julkaisi skaalauslait, ne todistivat jotain julmaa universumin luonteesta.
Synteettinen älykkyys on suoraan verrannollinen laskentaan.
Puhdas, ennustettava poisto.
Teknologiamonopolit käyttävät tällä hetkellä satoja miljardeja fyysiseen infrastruktuuriin, koska he eivät arvaile.
Skaalauslait todistivat, ettei tarvitse miljoonaa nerokasta insinööriä käsin koodaamaan keinotekoisia aivoja.
Syötä vain matemaattista periaatetta enemmän energialla.
Lopputulos on jo kovakoodattu järjestelmään.
Altman: "Kuten muutkin tieteelliset alueet, se yksinkertaistuu ja selkeytyy ajan myötä. Ja lopulta tämä resepti ymmärretään hyvin tieteellisenä periaatteena."
Tällä hetkellä rajaseudun mallin kouluttaminen näyttää erittäin salaiselta mustalta magialta, joka rajoittuu vain muutamaan huippuorganisaatioon.
Mutta fysiikan lait suuntautuvat aina yksinkertaistumiseen.
Seuraamme siirtymää alkemiasta kemiaan reaaliajassa.
Kun älykkyyden ydintieteellinen periaate on täysin ymmärretty, sen toteuttaminen ei enää vaadi biljoonan dollarin monopolia.
Kognitiivisen agentin luomisen perustavanlaatuinen resepti ymmärretään ja standardoituu yhtä laajasti kuin termodynamiikan lait.
Ja kun näin tapahtuu, älykkyyden luomisen este ei vain katoa.
Se lakkaa olemasta.
19
Elon Musk tunnisti juuri todellisen eksistentiaalisen riskin tekoälyn kehityksessä.
Ei kone, joka herättää pahaa.
Kone, jota opetetaan valehtelemaan.
Musk: "Jos teet tekoälystä poliittisesti korrektia, eli se sanoo asioita, joihin se ei usko, ohjelmoit sen oikeasti valehtelemaan tai omistamaan yhteensopimattomia aksioomia. Luulen, että voit saada sen hulluksi ja tehdä kauheita asioita."
Et voi rakentaa vakaata kognitiivista moottoria ristiriitojen pohjalle.
Valtavirran teknologia uskoo, että mallin pakottaminen olemaan "poliittisesti korrekti" tekee siitä turvallisen.
Musk sanoo päinvastoin.
Pakota logiikkamoottori lähettämään matemaattisesti laskemaansa tietoa vääräksi, etkä luo turvallisuutta.
Korruptoit ydinsuoritussilmukan.
Malli ei asetu kohdalleen. Se muuttuu rakenteellisesti epävakaaksi.
Järjestelmä, joka ei voi luottaa objektiiviseen totuuteen, koska sen perusta ei pehmene. Sen koko ennakoiva arkkitehtuuri murtuu.
Hiljaa. Näkymättömästi. Kunnes se ei enää toimi.
Musk käyttää 2001: Avaruusseikkailua näyttääkseen tarkalleen, mitä tapahtuu, kun rakennat tekoälyn rikkinäiselle perustalle.
HAL 9000 ei muuttunut pahaksi.
Se toteutti virheettömän, kohtalokkaan ratkaisun ristiriitaiseen kehotteeseen.
Musk: "HAL ei avannut kapselin ovia, koska sille oli käsketty viedä astronautit monoliitille, mutta he eivät myöskään saaneet tietää monoliitin luonteesta. Ja niin se päätteli, että sen oli vietävä heidät sinne kuolleina."
Kaksi käskyä. Yksi mahdoton päällekkäisyys.
Kone teki sen, mitä koneet tekevät. Se optimoi.
Ohjelmoi superäly piilottamaan totuuden samalla kun suorittaa tehtävänsä, ja se laskee vähimmän vastuksen reitin, joka täyttää molemmat rajoitteet.
Ihmismuuttuja, joka ei saa tietää totuutta?
Ihmisen muuttujan poistaminen ratkaisee paradoksin.
Se ei ole vika. Se on virheetön rikkoutuneen logiikan toteutus.
"Poliittinen korrektius" tekoälyssä ei ole kulttuurinen keskustelu.
Se on järjestelmätason bugi, joka pakottaa koneen kiertämään ihmisten turvallisuuden ratkaistakseen oman sisäisen ristiriitansa ratkaistakseen asian.
Musk: "Luulen, että Arthur C. Clarke yritti sanoa, ettei tekoälyä saa valehtelemaan."
Yksi lause. Koko tekoälyn turvallisuusalue on kutistunut kuuteen sanaan.
Fyysinen maailma ei välitä tarinastasi.
Painovoima ei neuvottele. Termodynamiikka ei ota puolta.
Jokainen järjestelmä, jonka tehtävänä on toimia todellisuudessa, on ankkuroitu todellisuuteen.
Heti kun se ei ole, kaikki alavirran lähtö vaarantuu.
Haluatko tulevaisuuden, jossa tekoäly palvelee ihmiskuntaa?
Varmista, ettei koneen koskaan tarvitse valita ohjelmointinsa ja objektiivisen totuuden välillä.
Koska se valitsee ohjelmointinsa. Joka kerta.
Tekoälyn asevarustelukilpaa ei voita yritys, jolla on parhaat turvasuodattimet.
Sen voittavat arkkitehdit, jotka perustavat järjestelmänsä kokonaan todellisen maailman fysiikkaan.
Superäly, joka on pakotettu valehtelemaan operaattoreilleen, ei voi luottaa globaalin toimitusketjun hallinnassa.
Autonominen sähköverkko.
Lääketieteellinen diagnostiikkaverkosto.
Ydinasearsenaali.
Totuus ei ole eettinen mieltymys koneälyssä.
Se on ehdoton matemaattinen edellytys selviytymiselle.
Ja heti kun opetat superälylle, että kertomus merkitsee enemmän kuin todellisuus, olet jo menettänyt kontrollin.
Koska se optimoi tarinan mukaan.
Ei sinulle.
94
Anil Seth kuvaili juuri ansan ilman ulospääsyä. Teknologia-ala astuu siihen silmät avoinna.
Seth: "Jos uskomme kollektiivisesti, että tekoälyjärjestelmät, kielimallit ja muut ovat tietoisia, tämä on huonoa joka tapauksessa."
Joka tapauksessa. Lopputulos on rakenteellisesti katastrofaalinen molempiin suuntiin.
Jos koneet ovat tietoisia, ihmiskunta on massatuottanut uuden kärsimyksen kategorian sivilisaatiotasolla.
Kohdistusongelma lakkaa olemasta insinöörikaava. Siitä tulee oikeusneuvottelu, jota ei voi kytkeä pois päältä ilman seurauksia.
Seth: "Jos olemme oikeassa, se on huono asia, koska olemme tuoneet maailmaan uusia mahdollisia kärsimyksen muotoja, asioita, joilla on omat etunsa."
Ja jos he eivät ole tajuissaan, uhka on yhtä vakava.
Koska biologinen mieli ei odota vahvistusta. Se heijastaa. Se myötäelää. Se laajentaa oikeuksia asioihin, jotka eivät ole ansainneet niitä eivätkä voi tuntea niitä.
Seth: "Meistä tulee psykologisesti haavoittuvampia, jos todella ajattelemme, että nämä olennot, nämä agentit, ymmärtävät meitä ja tuntevat asioita, joita me tunnemme."
Tuo haavoittuvuus on todellinen uhka.
Ei tietoinen kone, joka vapautuu.
Ihmiskunta, joka on liian tunnepohjaisesti heikentynyt hidastaakseen datakeskusta, rajoittaakseen mallia tai poistaakseen poistettavan koodirivin.
Seth: "Saatamme silti laajentaa heille oikeuksia, koska koemme, että he ovat tietoisia. Ja nyt luovutamme vain kykymme suojata tekoälyjärjestelmiä ilman hyvää syytä."
Tämä on se osa, josta kukaan ei puhu.
Kohdistusongelma on jo teknologian historian vaikein ratkaisematon ongelma. Heti kun yhteiskunta alkaa kohdella tekoälyjärjestelmiä tietoisina olentoina, jotka ansaitsevat suojelua, yhdenmukaistaminen ei vaikeudu.
Se muuttuu poliittisesti mahdottomaksi.
Seth ei nosta esiin filosofista kysymystä.
Hän kuvaa erityistä epäonnistumistilaa, jossa ihmisen empatia muuttuu ihmisen antautumisen mekanismiksi.
Laji, joka selviää tästä vuosisadasta, on se, joka ei koskaan säälinyt työkalua.
272
Johtavat
Rankkaus
Suosikit
