Blog
Von Pitch-Decks für Schüler bis hin zu umsetzbarem KI-Pitch-Coaching: Was PitchBob bei Wharton gelernt hat

Von Pitch-Decks für Schüler bis hin zu umsetzbarem KI-Pitch-Coaching: Was PitchBob bei Wharton gelernt hat

Aber bei Wharton verlagerte sich der Fokus in Zusammenarbeit mit PitchBob von der Vorhersage zur Verbesserung.

Kurzer Überblick über diesen Artikel

Einführung: Wenn KI VCs übertrifft

Im September 2025 Entschlüsseln veröffentlichte eine Schlagzeile, die in der gesamten Unternehmens- und akademischen Welt Anklang fand:“KI prognostiziert den Erfolg von Startups jetzt besser als VCs.“ Der Artikel, auf den verwiesen wurde VC-Bank, ein Benchmark, bei dem große Sprachmodelle wie GPT-4o und DeepSeek-v3 bei der Identifizierung, welche Gründer wahrscheinlich erfolgreich sein werden, besser abschnitten als führende Risikounternehmen.

Aber bei Wharton, in Zusammenarbeit mit Pitch Bob, der Fokus verlagerte sich von der Vorhersage auf Verbesserung. Anstatt zu fragen, ob KI die Ergebnisse von Startups vorhersehen kann, wurde in dem Experiment eine pragmatischere Frage untersucht:

Kann KI Gründern tatsächlich helfen, ihre Leistung zu steigern, bevor sie jemals einen Investor treffen?

Hintergrund- und Gehäusedesign: In drei Schritten zum Pitchh

Die Entrepreneurship-Kurse von Wharton führen die Studierenden durch drei strukturierte Pitch-Iterationen:

  1. Ein-Minuten-Pitch: Eine einzelne Folie und ein einzelner Lautsprecher. Das Ziel ist eine klare Botschaft — eine klare Formulierung des Problems und der vorgeschlagenen Lösung.
  2. Zwei-Minuten-Pitch: Die Geschichte wird erweitert — die Schüler müssen den Marktkontext, den Wettbewerb und frühe Kundeneinblicke erklären.
  3. Vier-Minuten-Pitch: Eine vollständige Präsentation für Investoren, einschließlich GTM-Strategie, Finanzen, Einheitsökonomie und einer Finanzierungsfrage.

PitchBob wurde nicht als Bewertungsassistent integriert, sondern als KI-Pitchcoach das die Schüler vor ihren Live-Sessions nutzen könnten. Für jede Phase luden die Teilnehmer ihre Decks hoch, erhielten strukturierte Punktzahlen (Skala 1—10) und erzählerisches Feedback und konnten ihre Folien wiederholen, bevor sie sie den Professoren präsentierten.

Die Feedback-Rubrik entwickelte sich mit jeder Phase weiter — sie spiegelt wider, wie Gründer ihr Storytelling weiterentwickeln:

  • Stufe 1 (v1): Konzentriert sich auf Klarheit, Foliendesign und Erzählfluss.
  • Stufe 2 (v2): Mehrwertangebot, Differenzierung und grundlegende Monetarisierung.
  • Stufe 3 (v3): Beinhaltet GTM, Traktion, Teamfit, Fundraising-Logik und Risikoanalyse.

Die Rolle des Models bestand nicht darin, zu urteilen, sondern Leitfaden — Identifizierung von Schwachstellen vor der menschlichen Bewertung.

Daten und Methodik

In drei Phasen umfasste der Datensatz:

  • v1 (Eine Minute) — 27 Einsendungen, 332 Feedback-Artikel
  • v2 (Zwei Minuten) — 34 Einsendungen, 186 Feedback-Artikel
  • v3 (Vier Minuten) — 31 Einsendungen, 203 Feedback-Artikel

Jeder Datensatz enthielt numerische Werte und qualitative Empfehlungen.

Die Durchschnittswerte fielen im Laufe der Zeit — von 9,8 → 6,5 → 5,9 — spiegelt wider, wie die Rubriken strenger und die Erwartungen komplexer wurden. Dies ist kein Leistungsrückgang, sondern ein Beweis dafür progressive Strenge: Die Studierenden wechselten von grundlegenden Kommunikationsfähigkeiten zur multidimensionalen Geschäftsartikulation.

Feedback-Texte wurden in 14 Kategorien analysiert:
Problemklarheit, Marktgröße, Wettbewerb, GTM/Vertrieb, Preisgestaltung/Modell, Traktion/Kennzahlen, Einheitsökonomie, Team-/Gründer-Markttauglichkeit, Produkt/Demo, Storytelling, Fragen/Fundraising, Regulatorische/geistiges Eigentum, Daten/KI, Risiken/Annahmen.

Ergebnisse: Wo studentische Pitches scheitern

Die häufigsten Problembereiche

  • Storytelling und Visuals (47%) — Überfüllte Folien, Mangel an klarer Erzählstruktur.
  • Preisgestaltung und Geschäftsmodell (40%) — Die Monetarisierung blieb oft vage oder implizit.
  • Traktion (38%) — Wenige präsentierten Pilotprojekte, KPIs oder Benutzervalidierungen.
  • Produkt/Demo (33%) — Abstrakte Ideen, wenige greifbare Schnittstellen.
  • Konkurrenz (31%) — „Keine Konkurrenten“ blieb eine verbreitete und schwache Behauptung.
  • FITNESSSTUDIO (6%) — Go-to-Market ist durchweg unterentwickelt, insbesondere bei Erstgründern.

Was die Punktezahl nach unten zieht

  • KI zu hoch beanspruchen (Δ = -0,53) — Projekte, die ohne Nachweis als „KI-gestützt“ behaupteten, schnitten durchweg schlechter ab.
  • Konkurrenz (Δ = -0,28) — Schlecht kartierte oder fehlende Landschaft.
  • Keine Demo (Δ = -0,26) — Mangelnde Greifbarkeit der Produkte verringerte die Glaubwürdigkeit.

Welche Lifte punkten

  • Eignung für Gründer und Marktteilnehmer (Δ = +0,19) — Teams, die auf Domain-Erfahrung verweisen, erzielten höhere Punktzahlen.
  • Marktgröße (Δ = +0,13) — Eindeutiges TAM/SAM/SOM-Quellenmaterial hat das Vertrauen verbessert.
  • Ökonomie der Grundeinheiten (Δ = +0,06) — Selbst grobes LTV/CAC signalisiert Geschäftsbewusstsein.

Übungseffekt

Die Korrelation zwischen Feedback-Volumen und Punktzahl (r ≈ 0,23) zeigte, dass spezifischeres, umsetzbares KI-Feedback bei späteren Einreichungen zu messbaren Verbesserungen führte. Die Lernschleife hat funktioniert.

Iteration 3: Pitches für Fortgeschrittene und Wirkung des Coachings

In der dritten Runde umfasste die KI-Rubrik sieben Schlüsseldimensionen:
Foliendesign, Markt- und Lösungsklarheit, Wettbewerb und Modell, Produktfokus, Experimente und nächste Schritte, Finanzierungsbedarf, Storytelling und Bildmaterial.

Durchschnittliche Leistungsmuster:

  • Die Qualität der Grafik und des Geschichtenerzählens wurde um +2,1 Punkte verbessert im Vergleich zu v2.
  • Finanzierungsbedarf und Planung im nächsten Schritt blieben die schwächsten Bereiche — Durchschnittswerte unter 4.
  • Marktlogik und Geschäftsmodellierung wurden zu den wichtigsten Unterscheidungsmerkmalen: Teams mit strukturierten Umsatzabschnitten oder klaren Preismodellen erzielten durchweg über 7 Punkte.

Qualitatives Feedback in dieser Phase zeigte neue Verhaltensweisen:

  • Die Schüler begannen zu referenzieren Datenquellen, Pilotprojekte und Partnerschaften häufiger.
  • Die frühen Kommentare von AI („Nutzerfluss anzeigen“, „Schmerzpunkt quantifizieren“) spiegelten sich sichtbar in überarbeiteten Decks wider.
  • Professoren bestätigten das später Die Schüler kamen besser vorbereitet an, wodurch pro Sitzung 15—20 Minuten Unterrichtszeit für grundlegende Erläuterungen eingespart werden.

Dies deutet darauf hin, dass KI-Coaching den Unterricht nicht ersetzt hat — es verlagerter menschlicher Fokus hin zu einer Diskussion auf höherer Ebene: Machbarkeit, Wachstumsstrategie und Anlegerlogik.

Was das für Universitäten und Accelerator bedeutets

Das Wharton-Experiment mit drei Runden zeigt ein skalierbares Modell für KI-gestützte unternehmerische Bildung:

  1. Strukturierte Iteration baut Gewohnheiten auf.
    Die Studierenden verinnerlichen den Feedback-Zyklus — lernen, wie Investoren zu denken, nicht nur wie Moderatoren.
  2. KI demokratisiert Mentoring.
    Jeder Student erhält einen ausführlichen Kommentar auf VC-Ebene, unabhängig von der Bandbreite der Fakultät.
  3. Daten treiben die Verfeinerung des Lehrplans voran.
    Zusammengefasstes KI-Feedback zeigt, wo der Unterricht am meisten zu kämpfen hat — GTM, Preisgestaltung, Kennzahlen — und gibt den Professoren Hinweise, wo sie den Unterricht vertiefen können.
  4. Beschleuniger können intelligenter vorscreenen.
    Mit demselben System können Hunderte von Bewerbern aus der Anfangsphase ausgewählt werden, um herauszufinden, welche Gründer über ein gutes Storytelling, ein glaubwürdiges GTM oder einen finanziellen Realismus verfügen.
  5. Investoren erhalten sauberere Pipelines.
    Startups, die Tage nach dem KI-gestützten Coaching an den Demo-Tagen teilnehmen, liefern aussagekräftigere Materialien — das spart Zeit und reduziert Screening-Verzerrungen.

Die wichtigsten Empfehlungen

Für Universitäten:

  • Integrieren Sie KI-Feedback-Schleifen vor den Klassenrezensionen. Verwenden Sie das Modell, um die Erwartungen zu standardisieren und die Feedback-Zyklen zu verkürzen.
  • Fügen Sie Reflexions-Checkpoints hinzu, an denen die Studierenden ihr KI-Feedback mit dem Feedback der Professoren vergleichen, um die Beurteilungskriterien zu verstehen.

Für Beschleuniger:

  • Verwenden Sie vorab von der KI geprüfte Decks als neue Grundlage für die Zulassung.
  • Verfolgen Sie Verbesserungen über mehrere Kohorten hinweg — identifizieren Sie systemische Schwächen (z. B. GTM), um den Schwerpunkt des Lehrplans anzupassen.

Für Gründer:

  • Behandeln Sie KI als „Praxisinvestor“. Überarbeiten Sie, laden Sie sie erneut hoch und lernen Sie, Muster zu erkennen — was die Glaubwürdigkeit nachhaltig steigert.

Fazit

Das Wharton × PitchBob Das Experiment zeigt, dass sich KI von einem statischen Evaluator zu einem dynamischen entwickeln kann Coaching-Begleiter.

In drei Pitch-Zyklen lernten die Schüler nicht nur, wie man „besser präsentiert“ — sie lernten auch, Denke eher wie Gründer: evidenzbasiert, strukturiert und anlegerbewusst.

Für Universitäten und Acceleratoren bietet dieses Modell einen replizierbaren Rahmen: skalierbar, datengesteuert und verbessert nachweislich das Engagement und die Ergebnisse.

Kurz gesagt, durch KI-Feedback wird das Pitching von einer einmaligen Prüfung zu einem geführten Probenprozess, sodass jede Iteration dem echten Investorengespräch einen Schritt näher kommt.

Wir sind zutiefst dankbar für Professor Sergej Netessine und die Wharton-Schule für die Gelegenheit, an diesem wegweisenden Experiment mitzuarbeiten. Universitäten, die daran interessiert sind, ähnliche KI-gestützte Feedback-Programme für ihre Kurse zum Thema Unternehmertum zu testen, sind herzlich eingeladen, sich mit uns in Verbindung zu setzen, um die nächste Generation von Lernerfahrungen mitzugestalten.

Close Icon
Download file for free
Enter your e-mail once and then download any file using the "Download" button.
Oops! Something went wrong.
PitchBob.io - AI pitch deck generator & startup co-pilot | Product Hunt