La gestione degli agenti AI richiede più del “vibe coding”

Molti di noi ricorderanno la scena iconica del film anni ’90 Jerry Maguire, quando Jerry, un procuratore sportivo, chiede al suo cliente: “Cosa posso fare per te, Rod?” Rod risponde che c’è una cosa che può fare. Con la musica a tutto volume, grida: “Coprimi di soldi. Jerry!” ... “Dillo una volta insieme a me.” Quando Jerry risponde: “Ti copro i soldi!” Rod dice: “No, no, no, non ti copro: ‘Coprimi i soldi!’”
Qual è la lezione? Quando gli incentivi sono allineati, tutti vincono. Non è sempre facile come Hollywood lo fa sembrare, ma non è nemmeno impossibile.
Nel futuro, tutti noi avremo degli agenti.
Con l’avvento dell’agentic AI, disporre di agenti propri non sarà un’esperienza per atleti e attori. Abbiamo già adottato gli assistenti AI. Gli sviluppatori di software sono diventati vibe coders quando hanno iniziato a spiegare l’idea o l’atmosfera di ciò che volevano fare ai loro assistenti che scrivevano il codice per loro. Il termine si è diffuso così rapidamente che a marzo “vibe coding” aveva conquistato un posto nel dizionario Merriam-Webster d’inglese. Ora il trend si è propagato ai marketer che adottano il vibe marketing, agli analisti aziendali con il vibe analytics, e a chiunque utilizzi l’AI per accelerare le attività quotidiane.
Col tempo, molti di questi assistenti AI diventeranno sempre più agenti, che non solo generano ma eseguono il software o le campagne che creano. A questi agenti dell’intelligenza artificiale saranno assegnate attività progettate per funzionare in modo autonomo e in grado di lavorare in modo collaborativo su flussi di lavoro complessi. Secondo uno studio recente, il 10% delle grandi aziende utilizza attualmente agenti AI (in qualche forma), con più della metà che prevede di utilizzarli nel prossimo anno e l’82% entro i prossimi tre anni. I dirigenti prevedono che questo aumenterà l’automazione del flusso di lavoro del 71% e migliorerà il servizio clienti del 64%. Le aspettative sono alte.
Gli agenti dovranno fare ciò per cui sono creati.
I nostri assistenti AI hanno già dimostrato di saperlo fare. Una ricerca Snowflake del 2025 ha rilevato che, per gli early adopter, la Gen AI produce i risultati: il 92% dichiara di aver già raggiunto il ROI sui propri progetti di Gen AI. E c’è una buona notizia per i vibe coders: Il 62% degli intervistati ha riferito di miglioramenti misurabili nella qualità del codice e il 56% di riduzione del rilevamento e risoluzione dei bug. I primi ad aver adottato l’AI hanno anche riferito che le offerte e i consigli personalizzati generati dall’AI migliorano l’engagement dei clienti o dell’audience (63%) e i tassi di conversione e CTR (55%). Questa è una buona notizia per i “vibe marketers”.
Gli agenti AI, tuttavia, potrebbero rivelarsi più difficili. Non tutti i comportamenti AI simili a quelli umani sono auspicabili. Le notizie sono piene di storie di comportamenti AI devianti e ingannevoli: in un esercizio di simulazione, un agente broker, a cui è stato detto di massimizzare i profitti, ha commesso insider trading pur sapendo che era illegale, dimostrando che, come gli esseri umani, le quote possono superare l’etica. L’AI mostra anche una deriva cognitiva progressiva, come il gioco del telefono che facevamo da piccoli, in cui i messaggi si degradano attraverso trasmissioni ripetute. Cosa ci aspettavamo? L’idea era ricreare l’intelligenza umana; otteniamo il male con il bene.
Nonostante questi rischi comportamentali noti, il 57% dei dirigenti delle grandi imprese ritiene che i potenziali vantaggi in termini di produttività superino i rischi. Sembrano sicuri di saper gestire questi nuovi e forse imprevedibili "colleghi".
Dovranno occuparsene i principali.
Si è parlato molto dell’impatto dell’AI sul mercato del lavoro. Eppure abbiamo anche sentito dire: “L’AI non ti sostituirà, ma qualcuno che utilizza l’AI lo farà”. Questo include saper sfruttare e gestire efficacemente i colleghi agenti e la forza lavoro in generale. La gestione nell’era degli agenti richiede più del semplice vibe coding. Richiede un principale forte.
La gestione nell'era degli agenti richiede più del "vibe coding".
Per anni, gli scienziati sociali hanno studiato la delega dei compiti attraverso la teoria principale-agente. Un principale delega i compiti a un agente. Tuttavia, a causa di informazioni disomogenee, incentivi disallineati o interessi contrastanti, l’agente potrebbe non agire come desidera il principale. Le pratiche di gestione affrontano queste sfide di allineamento. Fortunatamente, molte delle best practice per la gestione degli agenti umani si applicano anche all’agentic AI, con alcuni nuovi strumenti per guidare il processo. Queste best practice sono parte integrante della garanzia di un’AI responsabile.
Chi gestisce gli agenti AI dovrebbero assumere il ruolo di principale, che seleziona e si occupa dell’agentic AI, di conseguenza. Devono:
Definire il ruolo con una chiara “job description”. Chatta con i clienti, interpreta documenti più lunghi, analizza i dati, segnala anomalie, crea contenuti, attiva eventi e/o collabora con un team esteso? Quanta autonomia richiederà il ruolo? Quale livello di “anzianità” verrà attribuito?
Identificare il “candidato” ideale, che sia un modello AI da acquistare o da sviluppare. Strumenti AI e Gen AI diversi hanno funzionalità diverse. L’AI Observability Snowflake parte dalla valutazione di LLM alternativi per comprendere meglio il potenziale fit, ad esempio intervistando potenziali clienti.
Addestrare gli agenti con dati di training appropriati. Prepara i tuoi modelli a svolgere la loro funzione specifica, inclusa una rigorosa assegnazione delle priorità quando i requisiti sono in conflitto. In Snowflake, la facilità di accesso e condivisione dei dati espande i data asset disponibili per l’addestramento. Le architetture RAG garantiscono che gli agenti possano accedere ai dati contestuali.
Definire le metriche delle prestazioni in termini di output e risultati. Dopo avere definito il “lavoro”, definisci cosa costituisce un lavoro ben fatto e come verrà misurato. Con Snowflake AI Observability, puoi impostare un framework di valutazione con le metriche specifiche in base alle quali verrà giudicato il tuo agente. Ad esempio, valutando un agente RAG, le metriche potrebbero includere coerenza, pertinenza del contesto del contenuto recuperato, fondatezza delle fonti e pertinenza delle risposte.
Controllare le prestazioni, invocare strategie di mitigazione e applicare le regole. Valuta continuamente le prestazioni in base a criteri, aspettative e norme etiche consolidate per identificare e correggere le anomalie. Definisci soglie di confidenza e strategie di mitigazione come l’aggiornamento dei dati di addestramento.
Fornire istruzioni e consentire agli agenti di monitorare se stessi e i propri colleghi. Gli stessi agenti AI possono far parte della governance. I cicli di feedback costruttivo consentono agli agenti di rivedere e perfezionare il proprio lavoro. Gli agenti dell’AI imparano da soli a risolvere i problemi o a portarli da un supervisore, agente o umano, se necessario.
La scienza gestionale (degli esseri umani) esiste da oltre un secolo. Questo ci dà un vantaggio, ma è probabilmente il momento di aggiornare le competenze per il nuovo mondo degli agenti. Inizia a potenziare le tue capacità di gestione degli agenti con la guida essenziale all’AI generativa, poi segui una formazione pratica con la nostra Generative AI & ML School presso la Snowflake Data Cloud Academy.
E se stai pensando di seguire Jerry Maguire nel mondo degli sport professionistici, scarica l’ebook Snowflake Game Changer: How Gen AI is Revolutionizing Sports.


