トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Muhammad Ayan
🚨 速報:誰かが何千ものAIエージェントの群れを作り、実際の記憶と人格を持ち、それを使って未来を予測しました。
MiroFishはユニバーサルな群れ知能エンジンです。ライブデモは恐ろしいほど正確です。
実際に何をするかは以下の通りです:
→ 数千の自律エージェントを同時に起動する
→ 各エージェントはそれぞれの記憶、性格、行動を持っています
→ TGraphRAGによる実世界データに基づくフィード
→ 市場、世論、物語の結果を予測する
→ 群衆が起こる前の思考をシミュレートします
ライブデモが人々を惹きつけたんだ。「恐ろしいほど正確」という言葉は、誰もが繰り返し使う言葉です。
17,300星。+2,907人で1日。
100%無料でオープンソースです。

10
🚨 新しい研究:マイクロソフトリサーチとカーネギーメロンは、936の実際のAIユースケースを含む319人の知識労働者を対象に調査を行いました。
データに埋もれた発見こそが、今年AIと職場について書かれた最も重要なことです。
AIを信頼すればするほど、脳は実際に関与しなくなります。
理論ではありません。数百件の実際のプロフェッショナルなタスクにおける測定された逆相関。
調査の進行方法は以下の通りです。
319人の知識労働者が、実際の仕事で生成AIを実際に使用した936件を記録しています。実験のタスクではありません。仮定のシナリオではありません。その週にやった本当の仕事です。各ユースケースごとに、タスクの種類、関わるリスク、AI出力の信頼度、適用した批判的思考の量、そしてタスクに必要と感じる認知的努力の量を報告しました。
生産性分野の誰も話したがらない3つの発見が返ってきました。
一つを見つけると、AIへの信頼は批判的思考の減少を直接予測しました。
AIの成果に高い信頼を示す労働者は、それらの成果物に対してはかなり少ない精査を適用しました。彼らはさらに多くを受け入れました。彼らは疑問をあまり表に出さなかった。彼らはより早く前に進みました。この相関はタスクタイプ、業界、経験レベルを超えて存在していました。
逆もまた然りでした。自分の能力に対する自信が高い労働者は、AIが関わるときにより批判的に考えるようになった。彼らはAIを出発点にし、それを調査しました。AIをうまく使いこなす可能性が最も高いのは、ツールよりも自分自身を信頼する人たちでした。
二つ目の発見:危険ゾーンは日常的な作業であり、重大なものではありません。
重要な意思決定においては、AIを使用した場合の認知的努力が使わないよりも多かったと報告されました。認証の不安が襲ってきました。出力も確認した。彼らは疑った。彼らは照合した。
日常の日常的な作業に対しては、努力が崩壊しました。
労働者は、ほとんどの人の日々を占める日常業務において認知的関与が著しく低いと報告しています。まとめると。ドラフティング。応答中。復習中。人々が週に何十回も行う作業。
彼らは自動操縦のままだった。
そして、AIが最も使われるのはまさに日常的な作業です。
三つ目の発見:知識作業は創造から重要な統合へとシフトしている。
研究者たちは、知識労働者が実際に行っていることに構造的な変化が起きていると述べています。仕事自体がもはや仕事を生み出すわけではありません。AIの成果をレビューし、編集し、統合しています。
しかし、調査では多くの労働者が重要な統合の段階を飛ばしていることがわかりました。
彼らは批判なしに統合を進めています。問い詰めずに受け入れる。所有せずに出版すること。
出力はプロフェッショナルに見えます。その考えは一度も起こらなかった。
この発見がMITの脳スキャン研究や信念オフロード論文と異なる点は以下の通りです。
これは学生の問題ではありません。これはカジュアルユーザーの話ではありません。
これは319人の専門家が本来の仕事をしているということです。
弁護士たち。アナリストたち。エンジニアたち。作家たち。マネージャーたち。
考えるために給料をもらっている人たちです。
そしてデータは、専門的な仕事でのAIの繰り返しの使い方が、みんなが約束したこととはまったく逆の結果を生み出していることを示しています。
拡張思考ではありません。思考を置き換えた。
鋭い判断力ではない。判決の延期。
より生産的なプロフェッショナルではありません。生産物を厳しく検証する習慣を徐々に失いつつある、より効率的な生産者たち。
研究者たちはこの新しい知識ワークのモードを「クリティカル・インテグレーション」と呼んでいます。
データが示す正直なバージョンはこれに近いです:
私たちは創造的な作業を行うツールを作りました。
私たちは人々に批判的なレビューに集中するように伝えました。
ほとんどの人はレビューを飛ばしました。
そしてツールを信頼すればするほど、レビューを行う可能性は低くなります。
これを読んでいるすべての知識労働者にとって不快な質問:
最後にAI出力を真剣に問いただしたのはいつですか?
流し読みするのではなく。正しいとは思えませんでした。
実際、自信満々に聞こえる若手同僚に質問するようなように、間違っていることを問いただしてみてほしい。
この研究は、ほとんどの人にとって「最近はない」という答えを示唆しています。
そしてAIに慣れてしまえば慣れてきたほど、それはおそらく最近ではなかったでしょう。



35
トップ
ランキング
お気に入り

