- Aus dem KI-Studio
- Posts
- OpenAIs Deep Research und Chinas Manus im Fokus 📊
OpenAIs Deep Research und Chinas Manus im Fokus 📊
Im heutigen Newsletter dreht es sich um zwei Entwicklungen von OpenAI, einer neuen Innovation aus China und um unerwartete Learnings aus einer aktuellen Prompting-Studie.
🔥NEU🔥
Wir haben Nicolas’ Stimme geklont - wenn ihr also den Newsletter lieber hört als lest, go for it! 😊
Hey KI-Aner 👾
Diese Woche haben wir ein volles Programm! OpenAIs Deep Research verspricht tiefere Analysen mit Quellenangaben, während Chinas neuer KI-Agent Manus für Diskussionen sorgt. Eine frische Studie zeigt, dass Prompting unberechenbarer ist als gedacht, und OpenAI bringt mit GPT-4.5 ein Modell, das… na ja, gemischte Reaktionen hervorruft. 😅
Neues ChatGPT-Feature: Deep Research 🔍
OpenAI hat ein neues Recherche-Feature für ChatGPT veröffentlicht: Deep Research. Es soll komplexe Anfragen strukturierter und präziser beantworten – und das mit Quellenangaben.

Deep Research kann auf Knopfdruck aktiviert werden.
Was macht Deep Research?
Statt nur einzelne Suchergebnisse zu liefern, führt Deep Research eine mehrstufige Analyse durch. Es durchsucht hunderte Quellen, verknüpft Zusammenhänge und erstellt umfassende Berichte. Besonders nützlich ist das für Marktanalysen, wissenschaftliche Recherchen und politische Briefings.
Warum ist das besonders?
Normale KI-Modelle liefern oft schnelle, aber oberflächliche Antworten. Deep Research arbeitet strategischer:
✔ Nutzt Primärquellen und Fachliteratur
✔ Überprüft Fakten schrittweise
✔ Erklärt Widersprüche und Unsicherheiten
✔ Verarbeitet hochgeladene Dokumente
In unseren Tests hat Deep Research wirklich stark abgeschnitten. Es berücksichtigt überraschend viele Quellen und generiert wirklich ausführliche Ergebnisse. Wir haben mit Deep Research z.B. versucht, möglichst viel über das KI-Studio herauszufinden 👀 Hier findest du das Ergebnis!
Hast du Deep Research auch schon getestet? Wie sind deine Erfahrungen? 😊
Manus AI: Chinas neuer KI-Agent sorgt für Aufsehen 🇨🇳
China hat mal wieder überrascht: Nach DeepSeek R1 sorgt jetzt Manus für Diskussionen.
Was macht Manus besonders? 🤔
Laut Entwicklern ist Manus der erste „general AI agent“ und schneidet auf dem GAIA-Benchmark besser ab als OpenAIs Deep Research. Also eine KI, welche Aufgaben 100% Autonom ohne weitere Anweisungen erledigt - wie ein persönlicher Assistent, der seine eigenen Aufgaben einplant, Schritt für Schritt abarbeitet und mit seinem eigenen Computer diverse Aktionen ausführt. Magnus kann beispielweise:
Besonders beeindruckend: Das Modell soll mit vergleichsweise wenig Budget und Rechenleistung entstanden sein – im Gegensatz zu den milliardenschweren US-Unternehmen (klingt für uns nach einem Déjà-vu zu Deepseek👀).
Noch ist Manus in einer Beta-Phase, doch die Diskussionen laufen: Wie viel Innovation steckt wirklich dahinter? Und wie wird sich Manus weiterentwickeln? 🤖 Ein Tipp von uns: falls du dich auch auf die Waitlist von Manus setzen möchtest, kannst du das hier machen. Gern geschehen!
Studie: Prompting ist unberechenbarer als gedacht 🤖📊
Jeder, der schon an einem unserer Workshops teilgenommen hat weiss, das richtiges Prompting wichtig ist, wenn man mit ChatGPT & co. arbeitet. Ethan Mollick und sein Team an der Wharton School haben nun genau dazu eine umfassende Studie veröffentlicht - sie haben untersucht, welche Faktoren die Qualität von KI-Antworten beeinflussen – mit teils überraschenden Ergebnissen.

Die Studie von Ethan Mollick
Die wichtigsten Erkenntnisse:
🔹 Antworten sind inkonsistent – Selbst bei identischen Fragen gab ChatGPT nicht immer dieselbe Antwort.
🔹 Formatierung hilft – Klare Vorgaben zur Strukturierung der Antwort verbessern die Ergebnisse.
🔹 Höflichkeit ist tückisch – „Bitte“ zu sagen hilft manchmal, schadet aber in anderen Fällen der Genauigkeit.
🔹 Perfekte Antworten? Fehlanzeige – Bei Fragen auf Doktorandenlevel schnitten GPT-4o und GPT-4o mini nur minimal besser ab als zufälliges Raten(!).
Für den Alltag bedeutet das: Es gibt kein universelles Erfolgsrezept für gutes Prompting. Was bei einer Frage hilft, kann bei der nächsten kontraproduktiv sein. Das bestätigt auch unsere Erfahrung: Man benötigt ein intuitives Gespür für den passenden Prompt - und dieses kommt nur mit der Anwendung. Wer jedoch die Antworten der KI gezielt bewerten und hinterfragen kann, erzielt die besten Ergebnisse.
Profi-Tipp: Bei wichtigen Fragen lohnt es sich, dieselbe Eingabe mehrfach zu testen – und am Ende immer einen menschlichen Check drüberlaufen zu lassen.
GPT-4.5 ist da – und… na ja 🤷♂️
OpenAI hat diese Woche GPT-4.5 veröffentlicht – ihr bisher „grösstes und wissensreichstes Modell“. Der Haken? Statt auf reine Rechenleistung setzt es stärker auf „gute Vibes“.
Was sich verbessert hat ✨
Laut OpenAI fühlt sich GPT-4.5 „mehr wie ein nachdenklicher Mensch“ an. Einige sprechen von einem „Midjourney-Moment für Texte“, andere bemerken, dass es weniger förmliche Antworten gibt und die KI eher eine Meinung zeigt. Auch das Schreiben sei verbessert worden – wobei einzelne Stimmen (Ethan Mollick - ihn haben wir weiter oben schon erwähnt) berichten, dass das Modell bei komplexeren Aufgaben gelegentlich träge wirkt. In unseren Tests haben wir gemerkt, dass GPT-4.5 vielleicht etwas direkter ist und mehr Kreativität zeigt - einen grossen Unterschied konnten wir jedoch nicht erkennen.
Unser Vergleich

Mit diesem Prompt haben wir die zwei Modelle GPT-4o und GPT-4.5 miteinander verglichen.
Erkennst du einen Unterschied? 🤨
Die andere Seite der Medaille 💰
Natürlich gibt es zum neuen Modell Kritik: Es schneidet in Benchmarks nicht überragend ab und die Nutzungskosten sind hoch – rund 10- bis 25-mal teurer als vergleichbare Modelle! Das bringt GPT-4.5 in eine schwierige Position: Technologisch beeindruckend, aber für viele schlicht zu teuer.
Unser Take? GPT-4.5 zeigt die aktuellen Grenzen im KI-Rennen auf: Mehr Rechenleistung allein reicht nicht mehr, um massive Fortschritte zu erzielen. Gleichzeitig braucht OpenAI neue Einnahmequellen, um die nächste Generation zu finanzieren. Mal sehen, was als Nächstes kommt. 🚀
Unsere KI-Tools der Woche 🔥
Rabbithole verwandelt jede deiner Fragen in eine Mindmap voller Entdeckungen, um deine Neugier visuell darzustellen.
Spiral ist ein leistungsstarker Promptersteller, der repetitive Schreib-, Denk- und Entscheidungsaufgaben automatisiert und es Erstellern erleichtert, Inhalte für verschiedene Kanäle zu generieren.
Pinch übersetzt deine Stimme in Echtzeit während Online-Calls, sodass du in mehr als 30 Sprachen wie ein Muttersprachler klingst. :)
Für alle Lego-Fans: Pileometer fotografiert deine Lego-Stein-Häufchen und teilt dir mit, welche Steine du besitzt und wo sie sich befinden.
Suchst du noch mehr KI-Tools? Auf unserer Tooltipps aus dem KI-Studio Website findest du unsere meistgeliebten KI-Tools für jeden Anwendungsbereich!
Danke, warst du diese Woche auch wieder dabei! 😍
Falls du Anregungen hast, freuen wir uns! Schreib uns doch einfach unter [email protected]!
Bleibt gesund und bis zum nächsten Mal! ❤️
Euer KI-Studio-Team
PS: Wir würden uns freuen, wenn du unseren Podcast oder unseren Newsletter weiterempfiehlst! 🧑🤝🧑
Reply