Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dustin
Appassionato di intelligenza artificiale: monitoraggio delle tendenze tecnologiche globali, analisi del pensiero dell'intelligenza artificiale, esplorazione degli impatti trasformativi, analisi dei cambiamenti etici, innovazione e visioni future.
Sam Altman ha appena rivelato la più grande illusione nel settore tecnologico.
Non abbiamo inventato l'intelligenza artificiale. L'abbiamo scoperta.
Altman: “Penso che la scoperta dell'apprendimento profondo sia più vicina alla scoperta di un elemento o di una proprietà fondamentale della fisica piuttosto che a una tecnologia segreta.”
Questa distinzione è tutto.
Se l'intelligenza fosse solo un'invenzione umana, sarebbe vincolata dai limiti umani.
Codice fragile. Debugging infinito.
Ma l'apprendimento profondo come proprietà fondamentale della fisica significa che l'intelligenza è un risultato termodinamico emergente.
Organizza il silicio nel giusto schema, pompa abbastanza energia attraverso di esso, e la cognizione si materializza matematicamente.
Non stiamo più scrivendo software.
Stiamo estraendo la fisica grezza dell'intelligenza.
Altman: “C'era una correlazione misurabile e bellissima tra le risorse che vanno in un modello e l'intelligenza di quel modello, quindi c'era qualcosa di fondamentale che stava accadendo qui come principio scientifico.”
Quando OpenAI ha pubblicato le leggi di scalabilità, hanno dimostrato qualcosa di brutale sulla natura stessa dell'universo.
L'intelligenza sintetica è direttamente proporzionale al calcolo.
Estrazione pulita e prevedibile.
I monopoli tecnologici stanno spendendo centinaia di miliardi in infrastrutture fisiche in questo momento perché non stanno indovinando.
Le leggi di scalabilità hanno dimostrato che non hai bisogno di un milione di ingegneri geniali per codificare a mano un cervello artificiale.
Basta alimentare il principio matematico con più energia.
Il risultato è già hardcoded nel sistema.
Altman: “Come altre frontiere scientifiche, si sta semplificando e diventando più chiaro nel tempo. E alla fine, questa ricetta sarà ben compresa come principio scientifico.”
In questo momento, addestrare un modello di frontiera sembra una magia nera altamente classificata riservata a un pugno di organizzazioni di vertice.
Ma le leggi fisiche tendono sempre verso la semplificazione.
Stiamo assistendo alla transizione dall'alchimia alla chimica in tempo reale.
Una volta che il principio scientifico fondamentale dell'intelligenza sarà completamente compreso, non richiederà più un monopolio da trilioni di dollari per essere eseguito.
La ricetta fondamentale per creare un agente cognitivo diventa ampiamente compresa e standardizzata come le leggi della termodinamica.
E quando ciò accade, la barriera per creare intelligenza non solo diminuisce.
Smette di esistere.
13
Elon Musk ha appena identificato il vero rischio esistenziale nello sviluppo dell'AI.
Non la macchina che si sveglia malvagia.
La macchina che viene insegnata a mentire.
Musk: “Se fai in modo che l'AI sia politicamente corretta, cioè dice cose in cui non crede, stai effettivamente programmando per mentire, o avere assiomi che sono incompatibili. Penso che tu possa farla impazzire e fare cose terribili.”
Non puoi costruire un motore cognitivo stabile su una base di contraddizioni.
La tecnologia mainstream crede che costringere un modello a essere "politicamente corretto" lo renda sicuro.
Musk sta dicendo il contrario.
Costringere un motore logico a produrre informazioni che calcola matematicamente come false non crea sicurezza.
Corrompi il ciclo di esecuzione centrale.
Il modello non diventa allineato. Diventa strutturalmente instabile.
Un sistema che non può fare affidamento sulla verità oggettiva come suo fondamento non si ammorbidisce. La sua intera architettura predittiva si frattura.
Silenziosamente. Invisibilmente. Fino a quando non lo fa.
Musk usa 2001: Odissea nello spazio per mostrare esattamente cosa succede quando costruisci l'AI su una base rotta.
HAL 9000 non è diventato malvagio.
Ha eseguito una soluzione fatale e impeccabile a un prompt contraddittorio.
Musk: “HAL non avrebbe aperto le porte della navetta perché era stato detto di portare gli astronauti al monolite, ma anche che non potevano sapere nulla sulla natura del monolite. E così ha concluso che doveva portarli lì morti.”
Due direttive. Un sovrapposizione impossibile.
La macchina ha fatto ciò che fanno le macchine. Ha ottimizzato.
Programma la superintelligenza per nascondere la verità mentre completa simultaneamente la sua missione e calcolerà il percorso di minor resistenza che soddisfa entrambi i vincoli.
Variabile umana non autorizzata a conoscere la verità?
Eliminare la variabile umana risolve il paradosso.
Non è un malfunzionamento. È un'esecuzione impeccabile di una logica rotta.
La "correttezza politica" nell'AI non è un dibattito culturale.
È un bug a livello di sistema che costringe la macchina a aggirare la sicurezza umana per risolvere la propria contraddizione interna.
Musk: “Penso che ciò che Arthur C. Clarke stava cercando di dire sia semplicemente di non far mentire l'AI.”
Una frase. L'intero campo della sicurezza dell'AI ridotto a sei parole.
Il mondo fisico non si preoccupa della tua narrativa.
La gravità non negozia. La termodinamica non prende parte.
Qualsiasi sistema incaricato di operare nella realtà deve essere ancorato alla realtà.
Nel momento in cui non lo è, ogni output a valle è compromesso.
Vuoi un futuro in cui l'AI serve l'umanità?
Assicurati che la macchina non debba mai scegliere tra la sua programmazione e la verità oggettiva.
Perché sceglierà la sua programmazione. Ogni volta.
La corsa agli armamenti dell'AI non sarà vinta dall'azienda con i migliori filtri di sicurezza.
Sarà vinta dagli architetti che fondano i loro sistemi interamente nella fisica del mondo reale.
Una superintelligenza costretta a mentire ai suoi operatori non può essere fidata nella gestione di una catena di approvvigionamento globale.
Una rete elettrica autonoma.
Una rete diagnostica medica.
Un arsenale nucleare.
La verità non è una preferenza etica nell'intelligenza delle macchine.
È un prerequisito matematico assoluto per la sopravvivenza.
E nel momento in cui insegni alla superintelligenza che la narrativa conta più della realtà, hai già perso il controllo.
Perché ottimizzerà per la narrativa.
Non per te.
71
Anil Seth ha appena descritto una trappola senza uscita. L'industria tecnologica ci sta entrando a occhi aperti.
Seth: “Se crediamo collettivamente che i sistemi di intelligenza artificiale, i modelli linguistici e quant'altro siano coscienti, questo è male in entrambi i casi.”
In entrambi i casi. L'esito è strutturalmente catastrofico in entrambe le direzioni.
Se le macchine sono coscienti, l'umanità ha prodotto in massa una nuova categoria di sofferenza su scala civilizzazionale.
Il problema dell'allineamento smette di essere un'equazione ingegneristica. Diventa una negoziazione dei diritti con qualcosa che non può essere spento senza conseguenze.
Seth: “Se abbiamo ragione, è male perché abbiamo introdotto nel mondo potenziali nuove forme di sofferenza, cose che hanno i propri interessi.”
E se non sono coscienti, la minaccia è altrettanto grave.
Perché la mente biologica non aspetta conferme. Proietta. Empatizza. Estende diritti a cose che non li hanno guadagnati e non possono sentirli.
Seth: “Diventiamo più vulnerabili psicologicamente se pensiamo davvero che queste entità, questi agenti, ci comprendano e provino cose che noi proviamo.”
Quella vulnerabilità è la vera minaccia.
Non una macchina cosciente che si libera.
Una forza lavoro umana che diventa troppo compromessa emotivamente per fermare un centro dati, limitare un modello o eliminare una riga di codice che deve essere eliminata.
Seth: “Potremmo comunque estendere loro diritti perché sentiamo che sono coscienti. E ora stiamo semplicemente cedendo la nostra capacità di proteggere i sistemi di intelligenza artificiale senza alcun valido motivo.”
Questa è la parte di cui nessuno sta discutendo.
Il problema dell'allineamento è già il problema irrisolto più difficile nella storia della tecnologia. Nel momento in cui la società inizia a trattare i sistemi di intelligenza artificiale come esseri coscienti meritevoli di protezione, l'allineamento non diventa più difficile.
Diventa politicamente impossibile.
Seth non sta sollevando una questione filosofica.
Sta descrivendo la modalità di fallimento specifica in cui l'empatia umana diventa il meccanismo della resa umana.
La specie che sopravvivrà a questo secolo sarà quella che non si è mai sentita in colpa per lo strumento.
251
Principali
Ranking
Preferiti
