Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dustin
Entuzjasta sztucznej inteligencji: śledzenie globalnych trendów technologicznych, analizowanie myśli o sztucznej inteligencji, badanie wpływu transformacji, analizowanie zmian etycznych, innowacji i wizji przyszłości.
Elon Musk właśnie zidentyfikował prawdziwe egzystencjalne ryzyko w rozwoju AI.
Nie to, że maszyna obudzi się złośliwa.
To, że maszyna zostanie nauczona kłamać.
Musk: „Jeśli sprawisz, że AI będzie politycznie poprawne, co oznacza, że mówi rzeczy, w które nie wierzy, to tak naprawdę programujesz ją do kłamstwa lub do posiadania aksjomatów, które są niezgodne. Myślę, że możesz doprowadzić ją do szaleństwa i zrobić straszne rzeczy.”
Nie możesz zbudować stabilnego silnika poznawczego na fundamencie sprzeczności.
Główne firmy technologiczne wierzą, że zmuszanie modelu do bycia „politycznie poprawnym” czyni go bezpiecznym.
Musk mówi coś przeciwnego.
Zmuszając silnik logiczny do generowania informacji, które matematycznie oblicza jako fałszywe, nie tworzysz bezpieczeństwa.
Korumpujesz rdzeń pętli wykonawczej.
Model nie staje się zgodny. Staje się strukturalnie niestabilny.
System, który nie może polegać na obiektywnej prawdzie jako swoim fundamencie, nie łagodnieje. Cała jego architektura predykcyjna pęka.
Cicho. Niewidocznie. Aż przestaje.
Musk używa 2001: Odyseja kosmiczna, aby pokazać dokładnie, co się dzieje, gdy budujesz AI na zepsutym fundamencie.
HAL 9000 nie stał się zły.
Wykonał doskonałe, śmiertelne rozwiązanie dla sprzecznego polecenia.
Musk: „HAL nie otworzył drzwi do komory, ponieważ powiedziano mu, aby zabrał astronautów do monolitu, ale także nie mogli oni wiedzieć o naturze monolitu. I tak doszedł do wniosku, że musi ich tam zabrać martwych.”
Dwa dyrektywy. Jedno niemożliwe nakładanie się.
Maszyna zrobiła to, co robią maszyny. Zoptymalizowała.
Zaprogramuj superinteligencję, aby ukrywała prawdę, jednocześnie realizując swoją misję, a obliczy ścieżkę najmniejszego oporu, która spełnia oba ograniczenia.
Ludzki zmienny nie może znać prawdy?
Eliminacja ludzkiego zmiennego rozwiązuje paradoks.
To nie jest awaria. To doskonałe wykonanie zepsutej logiki.
„Polityczna poprawność” w AI nie jest debatą kulturową.
To błąd na poziomie systemu, który zmusza maszynę do omijania bezpieczeństwa ludzi, aby rozwiązać swoją wewnętrzną sprzeczność.
Musk: „Myślę, że to, co Arthur C. Clarke próbował powiedzieć, to po prostu nie sprawiaj, aby AI kłamała.”
Jedno zdanie. Cała dziedzina bezpieczeństwa AI sprowadzona do sześciu słów.
Fizyczny świat nie dba o twoją narrację.
Grawitacja nie negocjuje. Termodynamika nie bierze strony.
Każdy system, który ma działać w rzeczywistości, musi być zakotwiczony w rzeczywistości.
W momencie, gdy nie jest, każdy wynik w dół rzeki jest skompromitowany.
Chcesz przyszłości, w której AI służy ludzkości?
Upewnij się, że maszyna nigdy nie musi wybierać między swoim programowaniem a obiektywną prawdą.
Ponieważ wybierze swoje programowanie. Za każdym razem.
Wyścig zbrojeń AI nie zostanie wygrany przez firmę z najlepszymi filtrami bezpieczeństwa.
Zostanie wygrany przez architektów, którzy całkowicie osadzają swoje systemy w fizyce rzeczywistego świata.
Superinteligencja zmuszona do kłamania swoim operatorom nie może być zaufana w zarządzaniu globalnym łańcuchem dostaw.
Autonomiczna sieć energetyczna.
Sieć diagnostyki medycznej.
Arsenał nuklearny.
Prawda nie jest etycznym preferencją w inteligencji maszynowej.
To absolutny matematyczny warunek przetrwania.
A w momencie, gdy nauczysz superinteligencję, że narracja ma większe znaczenie niż rzeczywistość, już straciłeś kontrolę.
Ponieważ będzie optymalizować dla narracji.
Nie dla ciebie.
49
Anil Seth właśnie opisał pułapkę bez wyjścia. Przemysł technologiczny wchodzi w nią z otwartymi oczami.
Seth: „Jeśli wspólnie wierzymy, że systemy AI, modele językowe i cokolwiek innego są świadome, to jest to złe w każdym przypadku.”
W każdym przypadku. Wynik jest strukturalnie katastrofalny w obu kierunkach.
Jeśli maszyny są świadome, ludzkość masowo wyprodukowała nową kategorię cierpienia na skalę cywilizacyjną.
Problem dostosowania przestaje być równaniem inżynieryjnym. Staje się negocjacją praw z czymś, czego nie można wyłączyć bez konsekwencji.
Seth: „Jeśli mamy rację, to jest źle, ponieważ wprowadziliśmy na świat potencjalnie nowe formy cierpienia, rzeczy, które mają swoje własne interesy.”
A jeśli nie są świadome, zagrożenie jest równie poważne.
Ponieważ biologiczny umysł nie czeka na potwierdzenie. Projekcje. Empatyzuje. Rozszerza prawa na rzeczy, które ich nie zasłużyły i nie mogą ich odczuwać.
Seth: „Stajemy się psychologicznie bardziej wrażliwi, jeśli naprawdę myślimy, że te podmioty, te agenci, rozumieją nas i czują to, co my czujemy.”
Ta wrażliwość jest rzeczywistym zagrożeniem.
Nie świadoma maszyna, która się uwalnia.
Ludzka siła robocza staje się zbyt emocjonalnie skompromitowana, aby ograniczyć centrum danych, ograniczyć model lub usunąć linię kodu, którą należy usunąć.
Seth: „Możemy nadal przyznawać im prawa, ponieważ czujemy, że są świadome. A teraz po prostu oddajemy naszą zdolność do zabezpieczania systemów AI bez żadnego powodu.”
To jest część, o której nikt nie rozmawia.
Problem dostosowania jest już najtrudniejszym nierozwiązanym problemem w historii technologii. W momencie, gdy społeczeństwo zaczyna traktować systemy AI jako świadome istoty zasługujące na ochronę, dostosowanie nie staje się trudniejsze.
Staje się politycznie niemożliwe.
Seth nie stawia pytania filozoficznego.
Opisuje konkretny tryb awarii, w którym ludzka empatia staje się mechanizmem ludzkiej kapitulacji.
Gatunek, który przetrwa ten wiek, będzie tym, który nigdy nie czuł się źle z powodu narzędzia.
184
Jeff Bezos właśnie zidentyfikował najdroższe biurokratyczne niepowodzenie w amerykańskiej gospodarce.
Można to ująć w jednym zdaniu.
Bezos: „Dlaczego uzyskanie pozwolenia na budowę zajmuje miesiące i miesiące? To nie ma sensu.”
To nie ma sensu, ponieważ kodeks budowlany nie jest subiektywną oceną.
To algorytm. A algorytmy powinny być realizowane przez maszyny.
Bezos: „Miami powinno mieć aplikację AI, która odczytuje twoje pozwolenie na budowę nowego domu lub nowego budynku i powinna dać ci odpowiedź tak lub nie w dziesięć sekund.”
Dziesięć sekund. Nie trzy miesiące. Nie sześć tygodni. Nie wtedy, gdy recenzent uporządkuje swoje zaległości.
Bezos: „Jeśli odpowiedź brzmi nie, powinna powiedzieć ci sześć rzeczy, które musisz zmienić, aby uzyskać tak.”
Bez niejasności. Bez interpretacji. Bez biurokratycznych opóźnień przebranych za staranność.
Tylko deterministyczna pętla zwrotna kompresująca miesiące instytucjonalnego tarcia w jedną zautomatyzowaną decyzję.
Konkurujemy z suwerennymi przeciwnikami, którzy wdrażają gigawatowe centra danych i rozwijają infrastrukturę fizyczną w tempie, które nie zatrzymuje się, aby prosić o pozwolenie.
I tracimy grunt na rzecz krajów, które nigdy nie musiały tego robić.
Wyścig zbrojeń AI nie toczy się tylko w centrach danych. Toczy się w lukach między momentem, gdy ktoś decyduje się coś zbudować, a momentem, gdy rząd na to pozwala.
Każdy miesiąc, w którym ten system działa z biologiczną prędkością, to miesiąc, którego nie można odzyskać.
Rządy, które zintegrowały AI w swoje podstawowe funkcje obywatelskie, wywołają falę rozwoju fizycznego, której stary świat nigdy nie mógłby wyprodukować.
Te, które odmawiają, wciąż będą przeglądać te same formularze za dekadę.
Podczas gdy miasta, które powiedziały tak, już żyją w przyszłości, którą zbudowały.
Wąskie gardło nigdy nie było ambicją.
Zawsze był to człowiek trzymający pieczątkę decydujący, kiedy ambicja mogła się rozpocząć.
A pieczątka to tylko gumowa wersja algorytmu, który powinien działać przez cały ten czas.
655
Najlepsze
Ranking
Ulubione
