Dietro la build: come creare un’AI affidabile per i team go-to-market

Quando si partecipa a una riunione di vendita con la C-suite, la posta in gioco è alta. È fondamentale che un venditore conosca il business del cliente, sia aggiornato sugli obiettivi e i progetti in corso e ricordi ogni dettaglio dei più recenti touchpoint. L’accuratezza è essenziale. Ma servono ore e ore di preparazione, vero? A meno che non si possa fare affidamento sull’AI per avere una visione accurata degli insight relativi ai dati del prodotto, ai dati CRM, alle conoscenze di vendita interne e altro ancora.
Con Snowflake Intelligence, ora in public preview, tutto questo è possibile. Nell’ultimo anno abbiamo creato uno strumento di AI generativa chiamato GTM AI Assistant per i nostri team go-to-market. È progettato per andare oltre la semplice presentazione delle informazioni: interpreta i dati strutturati e non strutturati, comprende il contesto aziendale e fornisce insight attendibili e strategici con la rapidità di una conversazione.
Non si tratta del solito progetto di AI interno. È un sistema di livello enterprise che supporta i nostri venditori, operatori e dirigenti lungo tutto il percorso di vendita, standardizzando e democratizzando tutte le informazioni di cui hanno bisogno per svolgere il proprio lavoro nel migliore dei modi. Gli output devono essere accurati. E le decisioni di progettazione contano.
Ecco cosa abbiamo imparato.
Lezione 1: Comprendi chiaramente i punti critici
Abbiamo iniziato questo processo comprendendo i flussi di lavoro dei venditori e identificando i punti critici. Prendiamo ad esempio la preparazione delle riunioni con i clienti. Oggi, per preparare una chiamata con un cliente è necessario passare da una scheda all’altra. Molti venditori alternano tra dashboard, Salesforce, documentazione interna, sistemi di supporto e ricerche sul web per comporre manualmente il contesto.
Ci siamo resi conto che con l’AI l’esperienza di vendita può diventare conversazionale e abbiamo utilizzato Snowflake Intelligence per renderlo possibile. GTM AI Assistant consente ai venditori di attingere a tutti i dati di vendita e al repository di conoscenze di Snowflake, riducendo drasticamente il tempo dedicato alla ricerca, alla verifica e alla sintesi delle informazioni. In ultima analisi, consente loro di dedicare più tempo alle attività di vendita essenziali che si traducono in risultati aziendali reali.
Ad esempio, un venditore può chiedere:
- “Qual è la formazione più pertinente per questo caso d’uso?”
- “Quali funzionalità ha adottato di recente il mio cliente e quale valore ottiene?”
- “Fammi un riepilogo della consumption Snowflake negli ultimi 30 giorni.”
- “Quali sono le aree a cui occorre prestare attenzione per il cliente ABC?”
- “Quali casi d’uso simili vale la pena menzionare?”
Inoltre, il venditore riceve una risposta concisa e contestualizzata, che include informazioni sui clienti come:
- Profilo dell’azienda: una breve presentazione dell’azienda cliente da fonti pubbliche affidabili
- Footprint Snowflake: condizioni contrattuali, workload, account team, trend di utilizzo e previsioni
- Insight sui consumi: risultati su 12 mesi con schemi e anomalie chiave
- Casi d’uso: casi d’uso attivi ed emergenti mappati alle funzionalità Snowflake e ai benchmark di settore
- Supporto all’engagement: riepilogo di ticket, sentiment e escalation aperte
- Enablement e best practice: formazione curata, guide ai prodotti, talk track e case study su misura per settore, ruolo professionale e maturità.
Questo non è solo retrieval: è ragionamento. L’assistente accede a una serie di risorse sottostanti, interpreta il contesto e fa emergere ciò che conta. Il risultato: meno tempo dedicato alla preparazione, più impatto in ogni conversazione e più tempo per focalizzare l'attenzione sulle responsabilità go-to-market essenziali.
Lezione 2: Il contenuto giusto batte tutti i contenuti
Abbiamo dovuto pensare attentamente a come progettare GTM AI Assistant. Data la grande quantità di informazioni disponibili in Snowflake, dovevamo decidere quali informazioni avrebbero prodotto risultati affidabili e accurati.
Una delle prime decisioni che abbiamo preso nel progettare l'assistente è stata quella di non indicizzare tutto. Solo perché l’AI può accedere a ogni slide deck, thread di email o canale Slack, non significa che debba per forza farlo.
La qualità delle risposte di un LLM dipende dalla qualità del contesto fornito. In azienda, il contesto è spesso disordinato, ridondante, obsoleto o contraddittorio. L’indicizzazione di migliaia di documenti contenuti in decine di sistemi può sembrare completa, ma spesso genera confusione anziché chiarezza.
Abbiamo quindi adottato un approccio diverso.
Invece di perlustrare ogni area di lavoro e registro di chat, abbiamo preparato una serie di contenuti affidabili e aggiornati per consentire al nostro assistente AI di ragionare. Tali funzionalità includono:
- Materiali di training ufficiali per i commerciali
- Deck certificati su prodotti e soluzioni
- Principali canali Slack (con soglia segnale-rumore)
- Documentazione sull'enablement dei team di prodotto e marketing
Il risultato? Quando un venditore pone una domanda come “Qual è il modo migliore per posizionare Snowpark a un data engineer?”, l’assistente non tira a indovinare in base a script di vendita obsoleti, ma estrae direttamente le informazioni da materiali controllati creati a tale scopo.
Restringendo il campo di applicazione agli input di alta qualità, miglioriamo notevolmente il segnale e riduciamo le allucinazioni. È una lezione che abbiamo imparato più e più volte: nel mondo dell’AI, aumentare il contesto non aumenta necessariamente la qualità del risultato. Un contesto migliore è quello che fa la diffenza.
Lezione 3: I dati strutturati sono diversi
A seconda del tipo di domanda, “accuratezza” dei risultati può avere interpretazioni e valutazioni molto diverse. Per una domanda a risposta aperta, esiste una gamma di risposte con formulazione, lunghezza o struttura diverse che possono fornire informazioni “accurate”.
Consideriamo ora una domanda comune: “Qual è stato il fatturato di consumption del mio cliente nel primo trimestre?”
Qui la precisione non è negoziabile. La risposta deve essere accurata fino al centesimo; c’è solo un numero corretto.
È qui che la maggior parte degli LLM affronta una sfida. Sono probabilistici e progettati per prevedere la parola successiva, il che può portare a imprecisioni con i dati strutturati in cui la precisione è invece essenziale. Inoltre, a differenza delle query deterministiche tradizionali, un LLM potrebbe non fornire la stessa risposta corretta due volte, il che rende la coerenza importante quanto l’accuratezza.
Per questo la posta in gioco è più alta. Ed è qui che governance e precisione devono incontrarsi con l’AI generativa.
Questa sfida ci ha obbligati a riflettere attentamente su come conciliare la flessibilità degli LLM con la precisione dei dati strutturati. Abbiamo affrontato questa sfida utilizzando tre pilastri di design chiave.
1. Creare la giusta data foundation semantica
Prima di poterci fidare dell’intelligenza artificiale per rispondere alle domande sui dati strutturati, dovevamo concordare il significato di tali risposte.
Concetti come “anno finanziario” o “clienti attivi” possono avere definizioni diverse in diverse aziende. Se questa ambiguità esiste nel business, viene amplificata dagli LLM.
Abbiamo risolto la questione creando un layer semantico condiviso: definendo metriche, entità e logica chiave condivisi globalmente per vendite, marketing e supporto. Queste definizioni sono modellate a livello di warehouse nelle viste semantiche di Snowflake e documentate per l’interpretazione da parte degli esseri umani e dei sistemi AI.
2. Repository di query verificate
Manteniamo una libreria curata di query SQL verificate dal nostro team dati con le domande più comuni. Quando un venditore chiede “Qual è l’utilizzo attuale del mio cliente?”, l’assistente non compone una nuova query: mappa la richiesta a una query nota e testata. Quando viene utilizzata una query verificata, compare un’icona dello scudo con un segno di spunta. L’utente visualizza il messaggio “This response is based on a verified query”. Questa piccola indicazione conquista la fiducia degli utenti e consente ai venditori di distinguere tra output sperimentali e risposte di livello enterprise.
3. Test e valutazione continui
Il nostro team monitora continuamente la qualità e la coerenza, eseguendo test automatici su prompt approvati. Quando riscontriamo errori, raffiniamo il sistema espandendo le nostre query verificate, migliorando le istruzioni LLM o aggiungendo metadati. Valutiamo anche le prestazioni nel mondo reale attraverso una combinazione di campionamento, revisione manuale e “giudici LLM” per garantire che l’assistente AI soddisfi le esigenze degli utenti.
La prospettiva futura
Riteniamo che i flussi di lavoro GTM saranno sempre più serviti con soluzioni AI, ma crediamo che tali soluzioni AI debbano essere improntate al rigore. L’obiettivo del nostro team è rimuovere l’attrito, automatizzare le attività ripetitive e far fluire gli insight in modo naturale in ogni flusso di lavoro all’interno di Snowflake. Il nostro GTM AI Assistant sta già aiutando i team Snowflake a tenere il passo con gli account, a ottenere rapidamente insight sui dati dei clienti e attingere alle risorse di vendita giuste in un istante. Serviamo più di 5000 query di utenti a settimana, consentendo ai nostri team di risparmiare centinaia di ore, e siamo appena all’inizio.
Vogliamo trattare i dati come un prodotto di prima classe. Dobbiamo incorporare la fiducia direttamente nelle risposte. E progettiamo sistemi che sanno quando indovinare e quando non farlo.



