Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Muhammad Ayan
🚨 BREAKING: Jemand hat ein Schwarm von Tausenden von KI-Agenten mit echten Erinnerungen und Persönlichkeiten erstellt und verwendet, um die Zukunft vorherzusagen.
MiroFish ist eine universelle Schwarmintelligenz-Engine. Und die Live-Demos sind erschreckend genau.
Hier ist, was es tatsächlich tut:
→ Startet Tausende von autonomen Agenten gleichzeitig
→ Jeder Agent hat sein eigenes Gedächtnis, seine Persönlichkeit und sein Verhalten
→ Ernährt sich von realen Daten, die von GraphRAG bereitgestellt werden
→ Vorhersagen von Märkten, öffentlicher Meinung und narrativen Ergebnissen
→ Simuliert, wie Menschenmengen denken, bevor es passiert
Die Live-Demos sind es, die die Leute beeindruckt haben. "Erschreckend genau" ist der Ausdruck, den alle immer wieder verwenden.
17.300 Sterne. +2.907 an einem einzigen Tag.
Es ist 100 % kostenlos und Open Source.

22
🚨 NEUE STUDIE: Microsoft Research und Carnegie Mellon haben gerade 319 Wissensarbeiter zu 936 realen KI-Anwendungsfällen befragt.
Die Erkenntnis, die sie in den Daten vergraben haben, ist das Wichtigste, was in diesem Jahr über KI und den Arbeitsplatz geschrieben wurde.
Je mehr Sie KI vertrauen, desto weniger engagiert sich Ihr Gehirn tatsächlich.
Keine Theorie. Eine gemessene inverse Korrelation über Hunderte von realen beruflichen Aufgaben hinweg.
So funktionierte die Studie.
319 Wissensarbeiter dokumentierten 936 tatsächliche Fälle der Nutzung generativer KI in ihren echten Jobs. Keine Labortests. Keine hypothetischen Szenarien. Echte Arbeit, die sie in dieser Woche geleistet haben. Für jeden Anwendungsfall berichteten sie über den Aufgabentyp, die beteiligten Einsätze, wie sehr sie dem KI-Ausgang vertrauten, wie viel kritisches Denken sie anwendeten und wie viel kognitive Anstrengung sie für die Aufgabe empfanden.
Drei Erkenntnisse kamen zurück, über die im Produktivitätsbereich niemand sprechen möchte.
Erkenntnis eins: Vertrauen in KI sagte direkt weniger kritisches Denken voraus.
Die Arbeiter, die großes Vertrauen in die KI-Ausgaben äußerten, wendeten deutlich weniger Prüfung auf diese Ausgaben an. Sie akzeptierten mehr. Sie hinterfragten weniger. Sie machten schneller weiter. Die Korrelation hielt über Aufgabentypen, Branchen und Erfahrungsstufen hinweg.
Das Gegenteil war ebenfalls wahr. Arbeiter mit höherem Vertrauen in ihre eigenen Fähigkeiten dachten kritischer, wenn KI beteiligt war, nicht weniger. Sie nutzten KI als Ausgangspunkt und hinterfragten sie. Die Menschen, die KI am besten nutzen, waren die, die sich selbst mehr vertrauten als dem Werkzeug.
Erkenntnis zwei: Die Gefahrenzone sind Routineaufgaben, nicht hochriskante.
Bei hochriskanten Entscheidungen berichteten die Arbeiter tatsächlich von mehr kognitiver Anstrengung bei der Nutzung von KI als ohne. Die Verifizierungsangst setzte ein. Sie überprüften die Ausgaben. Sie zweifelten nach. Sie verglichen.
Bei Routineaufgaben, alltäglichen Aufgaben, brach der Aufwand zusammen.
Die Arbeiter berichteten von deutlich weniger kognitiver Beteiligung bei der gewöhnlichen Arbeit, die den Großteil der Tage der meisten Menschen ausmacht. Zusammenfassen. Entwerfen. Antworten. Überprüfen. Die Aufgaben, die die Menschen Dutzende Male pro Woche erledigen.
Sie waren im Autopilot.
Und Routineaufgaben sind genau dort, wo KI am häufigsten eingesetzt wird.
Erkenntnis drei: Wissensarbeit verschiebt sich von der Erstellung zur kritischen Integration.
Die Forscher beschreiben einen strukturellen Wandel in dem, was Wissensarbeiter tatsächlich jetzt tun. Der Job besteht nicht mehr darin, die Arbeit zu generieren. Es geht darum, KI-Ausgaben zu überprüfen, zu bearbeiten und zu integrieren.
Aber die Studie ergab, dass ein großer Teil der Arbeiter den kritischen Teil der kritischen Integration überspringt.
Sie machen Integration ohne Kritik. Akzeptieren ohne zu hinterfragen. Veröffentlichen ohne zu besitzen.
Das Ergebnis sieht professionell aus. Das Denken fand nie statt.
Hier ist, was diese Erkenntnis von der MIT-Gehirnscan-Studie oder dem Papier über Glaubensentlastung unterscheidet.
Es geht nicht um Studenten. Es geht nicht um Gelegenheitsnutzer.
Es sind 319 Fachleute, die ihre tatsächlichen Jobs machen.
Anwälte. Analysten. Ingenieure. Schriftsteller. Manager.
Menschen, die speziell dafür bezahlt werden, weil sie denken sollen.
Und die Daten zeigen, dass die routinemäßige, wiederholte Nutzung von KI in der professionellen Arbeit das genaue Gegenteil von dem produziert, was alle versprochen haben.
Nicht augmentiertes Denken. Ersetztes Denken.
Nicht schärferes Urteilsvermögen. Aufgeschobenes Urteilsvermögen.
Nicht produktivere Fachleute. Effizientere Ausgabengeneratoren, die allmählich die Gewohnheit verlieren, das, was sie produzieren, zu hinterfragen.
Die Forscher nennen den neuen Modus der Wissensarbeit kritische Integration.
Die ehrliche Version dessen, was die Daten zeigen, ist näher an diesem:
Wir haben ein Werkzeug gebaut, das die kreative Arbeit erledigt.
Wir haben den Menschen gesagt, sie sollen sich auf die kritische Überprüfung konzentrieren.
Die meisten Menschen übersprangen die Überprüfung.
Und je mehr sie dem Werkzeug vertrauen, desto weniger wahrscheinlich ist es, dass sie die Überprüfung überhaupt durchführen.
Die unbequeme Frage für jeden Wissensarbeiter, der dies liest:
Wann haben Sie zuletzt ein KI-Ergebnis wirklich hinterfragt, bevor Sie es verwendet haben?
Nicht überflogen. Nicht das Gefühl gehabt, dass es richtig schien.
Tatsächlich so hinterfragen, wie Sie einen Junior-Kollegen hinterfragen würden, der einen Ruf hat, selbstbewusst zu klingen, während er falsch liegt.
Die Studie legt nahe, dass die Antwort für die meisten Menschen lautet: nicht kürzlich.
Und je wohler Sie sich mit KI gefühlt haben, desto weniger wahrscheinlich war es wahrscheinlich.



41
Top
Ranking
Favoriten

