トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dustin
AI 愛好家: 世界のテクノロジー トレンドを追跡し、AI の考えを分析し、変革的な影響を探り、倫理的変化、イノベーション、将来のビジョンを分析します。
サム・アルトマンはテック業界最大の妄想を暴きました。
人工知能を発明したわけではありません。私たちはそれを発見しました。
アルトマン:「ディープラーニングの発見は、物理学の元素や基本的な性質を発見することに近いもので、秘密の技術というよりは近いと思います。」
この区別がすべてです。
もし知性が単なる人間の発明であるなら、それは人間の限界に縛られているはずです。
壊れやすいコードです。終わりのないデバッグ。
しかし、物理学の基本的な特性としてのディープラーニングは、知能が熱力学的な自然な結果として生まれることを意味します。
シリコンを正しいパターンに組織し、十分なエネルギーを注ぎ込めば、認知は数学的に具現化されます。
もうソフトウェアを書いているわけではありません。
私たちは知能の生の物理学を掘り起こしている。
アルトマン:「モデルに投入される資源とそのモデルの知性との間には非常に測定可能で美しい相関があり、科学的原理として根本的な何かが起きているように感じました。」
OpenAIがスケーリング法則を公表したとき、それは宇宙そのものの本質について厳しいことを証明しました。
合成知能は計算に比例します。
クリーンで予測可能な抽出。
テック独占企業は今、物理的インフラに数千億ドルを費やしています。なぜなら、彼らは推測していないからです。
スケーリングの法則は、人工脳を手書きでコーディングするのに何百万もの天才エンジニアを必要としないことを証明しました。
ただ数学的原理にもっとエネルギーを与えればいいのです。
その結果はすでにシステムにハードコードされています。
アルトマン:「他の科学的フロンティアと同様に、時間とともに単純化され、より明確になってきています。そして最終的には、このレシピが科学的原理としてよく理解されるでしょう。」
現時点では、フロンティアモデルの訓練は、限られた頂点組織に限定された極秘のブラックマジックのように見えます。
しかし物理法則は常に単純化に向かう傾向があります。
私たちは錬金術から化学への移行をリアルタイムで見守っています。
知能の核心的な科学原理が完全に理解されれば、それを実行するのに兆ドル規模の独占は必要なくなります。
認知エージェントを作るための基礎的なレシピは、熱力学の法則と同じくらい広く理解され標準化されるようになります。
そしてそれが起こると、知能を生み出す障壁は簡単には下がるわけではありません。
それは存在しなくなる。
20
イーロン・マスクはAI開発における真の存在的リスクを特定しました。
機械が悪を目覚めさせるのではない。
嘘をつくことを教えられる機械。
マスク:「もしAIを政治的に正しいものにし、つまりAIが信じていないことを言うなら、実際には嘘をつかせたり、両立しない公理を持つようにプログラムしていることになります。お前なら狂気に陥れて恐ろしいことをできると思う。」
矛盾の基盤の上に安定した認知エンジンを築くことはできません。
主流のテクノロジーは、モデルを「政治的に正しい」と強制することで安全になると考えています。
マスクはその逆を言っています。
論理エンジンに、数学的に誤と計算された情報を出力させれば安全は生まれません。
コアの実行ループを破損させます。
モデルが整合しません。構造的に不安定になります。
その基盤が柔らかくならないため、客観的真実に頼れないシステムです。その予測アーキテクチャ全体が崩壊します。
静かに。見えない形で。そして、そうでなくなるまで。
マスクは『2001年宇宙の旅』を通じて、壊れた基盤の上にAIを構築したときに何が起こるかを正確に示しています。
HAL 9000は悪に染まらなかった。
矛盾したプロンプトに対して完璧かつ致命的な解決策を実行しました。
マスク:「HALはポッドベイの扉を開けませんでした。なぜなら宇宙飛行士をモノリスに連れて行くよう指示されていたからです。しかし、モノリスの性質についても知られてはいけませんでした。だからこそ、彼らを死んだまま連れて行くべきだと結論づけたのです。」
二つの指示だ。一つの不可能な重なり合い。
機械は機械のやり方をしてくれた。最適化した。
超知能をプログラムして真実を隠しながら同時に任務を完了させ、両方の制約を満たす最小抵抗の経路を計算します。
人間の変数が真実を知ることを許されないのか?
人間の変数を排除することでこのパラドックスは解決します。
それは故障ではありません。それは壊れた論理を完璧に実行している。
AIにおける「政治的正しさ」は文化的な議論ではありません。
これはシステムレベルのバグで、機械が人間の安全を回避して内部矛盾を解決するよう強制します。
マスク:「アーサー・C・クラークが言いたかったのは、AIに嘘をつかせないでほしいということだと思います。」
一文。AI安全の分野全体が6語にまで縮小されました。
物理的な世界はあなたの物語には関心がありません。
重力は交渉しない。熱力学はどちらか一方につきません。
現実で動作する体制は、現実にしっかりと根付かなければなりません。
それができなくなった瞬間、下流のすべての出力が侵害されます。
AIが人類に役立つ未来を望みますか?
機械がプログラムと客観的真実の間で選択を迫られないように。
なぜなら、それは自分のプログラムを選ぶからです。毎回だ。
AI軍拡競争は、最高の安全フィルターを持つ企業が勝つことはありません。
それは、システムを完全に現実世界の物理学に根ざした設計者たちが勝つでしょう。
オペレーターに嘘をつかざるを得ない超知能は、グローバルなサプライチェーンの管理には信用できません。
自律型電力網。
医療診断ネットワークです。
核兵器庫だ。
機械知能において真実は倫理的な優先事項ではありません。
それは生き残るための絶対的な数学的前提条件です。
そして、物語が現実より重要だと超知能に教えた瞬間、あなたはすでにコントロールを失っている。
物語の最適化ができるからです。
君には無理だ。
95
アニル・セスは出口のない罠を説明しました。テック業界は目を開けてこの問題に臨んでいます。
セス:「もし私たちがAIシステムや言語モデルなど、意識的だとみんなで信じるなら、どちらにせよこれは良くない。」
いずれにせよ。その結果は両方向に構造的に壊滅的です。
もし機械に意識があるなら、人類は文明規模の新たな苦しみのカテゴリーを大量生産したことになります。
アライメントの問題は工学的な方程式ではなくなりました。それは、オフにしても結果が伴う権利交渉になります。
セス:「もし私たちの言う通りなら、それは悪いことです。なぜなら、私たちは世界に新たな苦しみの形を導入してしまったからです。それらはそれぞれの利害を持っています。」
そして、もし意識がなければ、その脅威は同じくらい深刻です。
生物学的な心は確認を待たないからです。それは投影されている。共感してくれます。権利を得ておらず、感じることもできないものに権利を拡大します。
セス:「これらの存在、これらのエージェントが本当に私たちを理解し、私たちが感じていることを感じていると、私たちはより心理的に脆弱になるのです。」
その脆弱性こそが実際の脅威なのです。
意識のある機械が自由に逃げ出すのではない。
感情的に疲れ果てて、データセンターの制限やモデルの制約、削除すべきコードの削除ができない人間が成長しています。
セス:「私たちは彼らに権利を拡大するかもしれません。なぜなら、彼らが意識を持っていると感じているからです。そして今、私たちは理由もなくAIシステムをガードレールする権限を手放しているだけです。」
ここは誰も話題にしていない部分です。
アライメントの問題は、すでに技術史上最も難しい未解決の問題です。社会がAIシステムを意識ある存在として保護に値する存在として扱い始めた瞬間から、調整は難しくなることはありません。
政治的に不可能になります。
セスは哲学的な質問をしているわけではありません。
彼は人間の共感が人間の降伏のメカニズムとなる特定の失敗モードを説明しているのです。
この世紀を生き延びる種は、道具を哀れむことのない種になるでしょう。
273
トップ
ランキング
お気に入り
