La settimana scorsa ho avuto il piacere di partecipare alle finali di una competizione per startup organizzata da Oleg Mosyazh in collaborazione con The Ventures di Daria Kuk. L'evento era tutto ciò che un fondatore o un investitore poteva desiderare: una solida formazione di startup, una solida base, una splendida location e una giuria di livello mondiale.
Ma non ero lì solo per guardare o giudicare.
Sono arrivato con un obiettivo diverso: prova il nostro strumento VC Analyst basato sull'intelligenza artificiale, PitchBob, in un ambiente reale e ad alto rischio. In particolare, volevo vedere come vengono valutate le presentazioni del nostro strumento rispetto alle decisioni effettive prese da investitori di rischio esperti.
Spoiler: i risultati sono stati illuminanti.
Perché l'abbiamo fatto
Valutare le startup è difficile, soprattutto su larga scala. Ogni settimana, acceleratori, VC, angel e aziende ricevono centinaia di mazzi. La maggior parte delle decisioni si basa su una rapida scansione o intuizione. Ciò lascia molto spazio a pregiudizi, incoerenze e opportunità mancate.
La nostra missione in PitchBob è democratizzare un feedback strutturato e di alta qualità, utilizzando l'intelligenza artificiale per simulare il processo di pensiero di un venture analyst. Questo evento ci ha dato un'opportunità unica per:
- Confronta i nostri punteggi di intelligenza artificiale con le decisioni degli investitori umani
- Scopri come le performance sceniche si allineano (o meno) ai deck inviati
- Comprendi in che modo i fondatori si presentano in modo diverso nella scrittura rispetto a quella dal vivo
Come ha funzionato l'esperimento
Abbiamo collaborato con gli organizzatori per analizzare ogni pitch deck presentati al concorso, sia tra i primi candidati che tra i 10 finalisti. Utilizzando il nostro strumento basato sull'intelligenza artificiale, ogni mazzo è stato valutato in base a 11 criteri fondamentali in stile VC, come:
- Adattamento problema/soluzione
- Dimensioni e crescita del mercato
- Forza del team
- Modello di business
- Vantaggio competitivo
- Strategia di accesso al mercato
- Trazione e KPI
- Potenziale di uscita
Ogni mazzo è stato valutato su una scala da 0 a 100 e abbiamo generato:
- Una nota d'investimento strutturata
- Riepilogo esecutivo
- Pro e contro dell'opportunità
- Avvisi con bandiera rossa
- Messaggi di feedback personalizzati
L'obiettivo non era scegliere i vincitori, era osservare gli schemi e scopri come la nostra analisi AI si è confrontata con le decisioni effettive prese dalla giuria dopo le presentazioni dal vivo.
Le 3 migliori startup di PitchBob
In base al nostro punteggio AI, i mazzi migliori erano:
- IMMA Health — 81
- IA Adversa — 80
- Senecio — 79
Queste squadre si sono distinte in termini di:
- Problema e soluzione chiari e ben articolati
- Struttura logica e chiarezza visiva
- Team forti con esperienza nel settore
- Approcci credibili per l'immissione sul mercato e trazione precoce
Non abbiamo intenzionalmente influenzato la giuria né discusso in anticipo i risultati dell'IA.
E la giuria ha detto...
Dopo aver visto i pitch dal vivo, ecco come la giuria ha premiato le startup:
- Miglior prodotto — Senecio
- Migliore trazione — Progetto Puls
- Miglior squadra — IMMA Health
- Miglior modello di intelligenza artificiale — Luce AI
C'era forte allineamento tra i risultati dell'IA e il giudizio umano nelle principali categorie, in particolare per Senecio e IMMA Health, che si è classificato molto bene in entrambi.
Una sorpresa: IA Adversa, il nostro #2, non ha ricevuto un premio della giuria, probabilmente a causa delle differenze nel modo in cui la squadra si è presentata dal vivo o a causa di preferenze più soggettive tra i giudici.
Dove la valutazione umana e quella dell'IA divergevano
Ci sono stati anche casi in cui i risultati dell'IA e della giuria erano diversi. Ad esempio Luce AI, che ha vinto il premio «Miglior modello AI» dalla giuria, ha ricevuto un punteggio inferiore dal nostro strumento. Perché?
Dal punto di vista della nostra intelligenza artificiale:
- Il mazzo mancava di chiarezza sul piano di go-to-market
- Il modello di business era sottosviluppato
- Diverse metriche chiave erano mancanti o vaghe
Ciò ha portato a un punteggio complessivo modesto, anche se la tecnologia stessa potrebbe aver entusiasmato la giuria dal vivo.
Questa lacuna evidenzia una delle nostre ipotesi chiave:
I fondatori spesso «vendono troppo» sul palco e «sottovalutano» nei loro deck.
In altre parole, il mazzo inviato via email potrebbe essere una versione più onesta della startup — uno che manca di carisma ma mostra il vero livello di maturità.
Cosa abbiamo imparato
1. La correlazione esiste
C'è una vera sovrapposizione tra i punteggi generati dall'intelligenza artificiale e i giudizi degli investitori esperti.
Ciò convalida la logica alla base del modello e la sua capacità di far emergere startup ad alto potenziale senza pregiudizi umani.
2. Pitch ≠ Deck
Quello che c'è sul palco spesso è diverso da quello che c'è nelle diapositive. I mazzi sono un documento statico, ma rappresentano la chiarezza e le capacità di pianificazione del fondatore. Le presentazioni dal vivo, al contrario, riflettono energia, narrazione e sicurezza.
3. Analisi in tempo reale = Informazioni in tempo reale
L'uso di PitchBob live durante l'evento ha semplificato la convalida delle ipotesi, la generazione di domande di follow-up e l'identificazione rapida dei punti di forza e delle bandiere rosse.
Stiamo lavorando su un «Generatore intelligente di richieste di follow-up» che suggerirà domande intelligenti basate su ciò che manca o è debole in un mazzo.
Reazioni dei fondatori
Diversi fondatori di startup ci hanno contattato dopo l'evento per chiedere i loro punteggi e feedback su PitchBob. Uno ha detto:
«Questo è il tipo di feedback strutturato che non riceviamo mai dai VC. Di solito si tratta solo di silenzio o di una frase vaga».
Un altro ha aggiunto:
«Non mi sono reso conto di quanto fosse poco chiara la nostra strategia GTM finché non ho visto il guasto dell'IA. Lo risolveremo sicuramente prima del prossimo round».
Questo è esattamente il tipo di impatto per cui stiamo costruendo.
Cosa c'è dopo: nuove funzionalità e casi d'uso
Sulla base di questo test dal vivo, stiamo già lavorando a diversi aggiornamenti:
- Live Pitch contro Deck Delta: una funzionalità che confronta il mazzo inviato via email con il pitch (o trascrizione) sul palco per valutare la coerenza del messaggio.
- «Punteggio di fiducia»: Per evidenziare quanto sia forte e coerente la narrativa di un fondatore su tutti i canali.
- Generatore di follow-up intelligente: suggerire domande chiave in stile investitore da porre dopo aver esaminato un mazzo.
- Dashboard per la giornata dimostrativa in tempo reale: Così acceleratori e VC possono monitorare i punteggi di avvio in tempo reale durante i giorni dimostrativi.
- Tabelloni di valutazione pubblici e votazioni: Per un feedback guidato dalla community durante le competizioni sui campi.
Stiamo inoltre ampliando le nostre partnership con acceleratori, universitàe bracci di venture capital che vogliono un secondo paio di occhi, o centinaia, per la valutazione del pitch e l'allenamento.
Provalo tu stesso
Se stai esaminando dozzine di pitch deck al mese e desideri un modo più rapido e strutturato per stabilire le priorità e fornire feedback, PitchBob è qui per aiutarti.
Siamo ancora dentro beta aperta, offrendo valutazioni gratuite fino a 10 mazzi.
Provalo qui.
Pensiero finale
L'intelligenza artificiale non è qui per sostituire gli investitori, è qui per aumentarli.
Quello che abbiamo visto a questo evento è solo l'inizio: strumenti come PitchBob possono portare velocità, chiarezza e struttura a un processo spesso caotico, incoerente e parziale.
Se stai costruendo il futuro, valutando il futuro o semplicemente cercando di tenere il passo con la tua casella di posta piena di mazzi, parliamone.