Google presenta Deep Research Max: agenti di ricerca autonomi su Gemini 3.1 Pro
Google presenta Deep Research Max: agenti di ricerca autonomi su Gemini 3.1 Pro
Google ha annunciato Deep Research Max, la nuova generazione dei propri agenti di ricerca autonoma costruiti su Gemini 3.1 Pro. L’annuncio, pubblicato il 21 aprile 2026, introduce due configurazioni distinte: Deep Research, ottimizzato per velocità e interattività, e Deep Research Max, progettato per la massima completezza tramite compute esteso a tempo di test.
Il video pubblicato dal canale Google for Developers mostra testimonianze di early adopter nei settori finanziario e farmacologico, evidenziando come la piattaforma consenta di affrontare questioni di ricerca complesse in giorni anziché settimane.
Velocità e completezza: il dualismo dei due agenti
Secondo Google, Deep Research (la versione standard) sostituisce la release di dicembre e offre latenza e costi ridotti con qualità migliorata, ideale per interfacce utente interattive. Deep Research Max sfrutta invece compute esteso a tempo di test per ragionare, cercare e raffinare iterativamente il report finale. Google riporta per Max un punteggio del 93.3% su DeepSearchQA e del 54.6% su HLE (Humanity’s Last Exam).
La distinzione tra i due agenti riflette un compromesso strutturale nella progettazione di agenti AI: velocità contro completezza. Come evidenziato da VentureBeat, Deep Research è pensato per dashboard finanziarie e risposte in near-real-time, mentre Max è orientato a workflow asincroni come report di due diligence notturni prunti al mattino.
MCP: l’apertura ai dati proprietari
Una delle novità più significative è il supporto al Model Context Protocol (MCP), che permette a Deep Research di interrogare database privati, repository documentali interni e servizi dati di terze parti senza che le informazioni sensibili lascino il proprio ambiente. Google sta collaborando con FactSet, S&P Global e PitchBook per integrare i loro flussi di dati finanziari tramite server MCP.
Multimodalità e visualizzazioni native
Per la prima volta nella Gemini API, Deep Research genera grafici e infografiche nativamente all’interno dei report, utilizzando HTML o il formato Nano Banana. L’agente è inoltre in grado di elaborare input multimodali: PDF, CSV, immagini, audio e video come contesto per la ricerca.
Le testimonianze dei partner
Nel video, rappresentanti di FactSet sottolineano l’importanza della affidabilità dei dati nel settore finanziario: “Puoi avere innovazione e le funzionalità più avanzate, ma se i dati non sono solidi, i clienti non li usano”. Da Axiom, attiva nella predizione degli esiti dei trial clinici, viene evidenziata la capacità di accedere a informazioni sepolte in documenti complessi: “Spesso ciò che devi sapere si trova a pagina 80 di un PDF molto lungo”. La multimodalità, che combina sentiment da video e voce con dati quantitativi, viene descritta come un arricchimento narrativo superiore rispetto alla ricerca tradizionale.
Disponibilità
Entrambi gli agenti sono disponibili in public preview tramite i tier a pagamento della Gemini API, accessibili tramite l’Interactions API introdotta a dicembre 2025. Tra le funzionalità aggiuntive: pianificazione collaborativa (revisione del piano di ricerca prima dell’esecuzione), streaming in tempo reale dei passaggi intermedi e grounding multimodale dei dati di input.