Salta al contenuto

Azure AI Search

Azure AI Search (precedentemente Azure Cognitive Search) è il servizio Microsoft di search engine enterprise: indicizza qualsiasi tipo di contenuto (documenti SharePoint, file PDF/Word, database, repository code, knowledge base custom) e fornisce ricerca avanzata con tre modalità: 1) **keyword search** classica (BM25, fuzzy match, sinonimi, lingue multiple incluso italiano); 2) **vector search** semantica (basata su embeddings AI, trova documenti simili per significato anche con parole diverse); 3) **hybrid search** (combina keyword + vector per accuracy massima).

Il ruolo principale di Azure AI Search nel 2025 è essere il **knowledge base layer per scenari RAG** (Retrieval Augmented Generation) con Azure OpenAI: l'AI assistant aziendale usa AI Search per trovare i documenti rilevanti nella knowledge base aziendale, poi Azure OpenAI genera risposta grounded su quei documenti. Senza AI Search il modello LLM dovrebbe avere tutto il contesto in prompt (impossibile per knowledge base grandi) o dover essere fine-tunato (lento, costoso, difficile aggiornare).

In SynSphere usiamo Azure AI Search principalmente in architetture AI generativa enterprise: 1) **AI assistant customer service** che cerca articoli help desk; 2) **chatbot HR/IT** che cerca policy aziendali; 3) **search semantica documenti aziendali** (legale, contratti, report); 4) **enterprise search unificata** (cerca in SharePoint + email + gestionale + repository custom). Includiamo sempre **indexing pipeline** automatica (aggiornamento automatico indice quando documenti cambiano), **semantic ranking** Microsoft per qualità risultati superiore, **security trimming** (utenti vedono solo documenti per cui hanno permission Entra ID).

A chi è rivolto

Profili e dimensioni aziendali per cui Azure AI Search è la scelta più efficace.

  • Aziende che costruiscono AI assistant interni con scenario RAG (knowledge base aziendale + Azure OpenAI)
  • Organizzazioni con grandi volumi di documenti aziendali (SharePoint, file server, repository) difficili da cercare
  • Customer service / contact center con knowledge base interna che vogliono velocizzare ricerca articoli
  • IT helpdesk con documentation tecnica voluminosa che vuole search semantica intelligente
  • Settori specializzati (legale, sanità, R&D) con corpus documentale tecnico complesso da rendere navigabile

Funzionalità chiave

Cosa è incluso in Azure AI Search e perché ha valore per la tua azienda.

  • Vector search semantica

    Indicizza documenti come vector embeddings (via Azure OpenAI text-embedding-3 o modelli open-source): trova documenti simili per significato anche con parole diverse. Critico per RAG con AI generativa.

  • Hybrid search (keyword + vector)

    Combina keyword search classica (BM25) e vector search in singola query, con re-ranking automatico per risultati migliori. Standard de facto per scenari enterprise search di qualità.

  • Semantic ranking Microsoft

    Re-ranking dei top risultati tramite modello AI Microsoft per migliorare ulteriormente la qualità. Particolarmente efficace per query in linguaggio naturale.

  • Multi-lingua incluso italiano

    Analyzer linguistici per 50+ lingue (italiano incluso): stemming, sinonimi, gestione articoli/preposizioni italiane. Ottimizza accuracy per query in italiano.

  • Indexer automatici per data sources

    Indexer pre-configurati per data sources comuni: SharePoint Online, OneDrive, Azure Blob Storage, Azure SQL, Cosmos DB. Indicizzazione incrementale automatica al variare del contenuto sorgente.

  • AI enrichment (skills)

    Pipeline di enrichment AI durante l'indexing: OCR su immagini/PDF scannerizzati, extraction entità (persone, organizzazioni, date), classification documenti, traduzione, key phrase extraction. Trasforma file grezzi in dati strutturati indicizzabili.

  • Security trimming Entra ID

    Risultati search filtrati per permission utente: utente vede solo documenti per cui ha accesso reale in SharePoint/sistema sorgente. Critico per scenari enterprise GDPR / dati sensibili.

  • Integration nativa Azure OpenAI

    Pattern 'Use your data' Azure OpenAI: configurazione one-click per usare AI Search come knowledge base in chat playground. Semplifica setup RAG scenari standard.

  • Auto-scale e geo-replication

    Service tier scalabile da Basic (POC, $75/mese) a Standard L2 (enterprise, $7000+/mese). Geo-replication opzionale per high availability multi-region.

Casi d'uso reali

Scenari concreti basati su clienti che abbiamo seguito o profili tipici per cui Azure AI Search ha senso.

  • Service company — customer service knowledge base RAG — Milano

    Situazione di partenza

    Customer service con 2.000+ articoli knowledge base interna (Confluence + SharePoint). Ricerca attuale è keyword-based: agenti devono conoscere termini esatti. Tempo medio per trovare articolo giusto: 10-15 minuti.

    Azure AI Search indicizza tutti i 2.000 articoli con vector embeddings text-embedding-3 + AI enrichment per metadata. Azure OpenAI GPT-4o genera risposte basate su top 5 articoli rilevanti (RAG pattern). Web app dashboard agente: agente fa query in linguaggio naturale, vede risposta AI + articoli sorgente cliccabili. Tempo medio per trovare info: da 10-15 min a 1-2 minuti. Articoli aggiornati su Confluence si re-indicizzano automaticamente entro 1 ora.

  • Studio legale — search semantica precedenti giurisprudenziali — Roma

    Situazione di partenza

    Studio legale con archivio di 10.000+ documenti (sentenze, pareri, contratti tipo, memorie). Search keyword Google-like esistente non capisce contesto giuridico. Avvocati perdono ore a cercare precedenti simili.

    Azure AI Search indicizza l'intero corpus con: vector embeddings (modello fine-tunato su lessico giuridico italiano), entità estratte AI (parti, giurisdizioni, riferimenti normativi), classificazione documenti per area (civile, penale, amministrativo). Avvocato cerca 'sentenze su responsabilità medica con risarcimento da paziente psichiatrico' → AI Search trova top 20 documenti semanticamente rilevanti, anche se le parole esatte non matchano. Tempo ricerca precedenti: -75%.

  • PMI 200 dipendenti — enterprise search unificata — Bologna

    Situazione di partenza

    Dipendenti cercano informazioni in 5 sistemi diversi: SharePoint (policy aziendali), Confluence (documentation tecnica), email Outlook, gestionale (clienti, fatture), repository GitLab (code). Tempo perso a sapere 'in quale sistema cercare'.

    Azure AI Search con indexer multipli che si connettono a tutti e 5 i sistemi. Web app intranet 'Single Search Box': dipendente fa query in linguaggio naturale, AI Search restituisce top risultati da tutti i sistemi con preview, ranking unificato, filtri (per sistema sorgente, per data, per autore). Security trimming Entra ID garantisce permission. Adozione massiva in 3 mesi.

  • IT helpdesk — chatbot Teams su documentation — Bergamo

    Situazione di partenza

    IT helpdesk riceve 200+ ticket/giorno. 40% sono richieste ripetitive ('come configuro VPN', 'come reset password', 'come stampo documento') con risposta in documentation interna ma utenti non la trovano.

    Chatbot Microsoft Teams + Azure OpenAI GPT-4o mini + Azure AI Search su documentation IT (250+ articoli). Utente chiede in chat Teams 'come reset password VPN', bot risponde con steps puntuali + link articolo dettagliato. Riduzione 40% ticket helpdesk, tempo risposta dipendenti istantaneo.

Si integra con

Azure AI Search è parte di un ecosistema. Ecco i prodotti con cui lavora nativamente.

Pricing e modelli di consumo

Azure AI Search è venduto per service tier (capacity unit) con pricing fisso mensile.

Service tier disponibili (region Italy North / West Europe)

  • Free: per POC e dev/test (50MB storage, 3 indici max, 10.000 documenti). Gratuito.
  • Basic: per prototipi e small workload (~75 €/mese, 2GB storage, 15 indici, fino a 200.000 documenti).
  • Standard S1: per production PMI standard (~250 €/mese, 25GB storage, 50 indici, milioni di documenti). Tier raccomandato per la maggior parte dei progetti SynSphere.
  • Standard S2: per workload più grandi (~1.000 €/mese, 100GB storage). Vector search ottimizzata per dataset grandi.
  • Standard S3: per enterprise (~2.000 €/mese, 200GB storage). Storage e capacità superiori.
  • Storage Optimized L1/L2: per scenari archive search con dataset >100GB (~3.000-7.000 €/mese).

Costi correlati

  • Embeddings (per indicizzare con vector search): tariffa Azure OpenAI Embeddings per token. Per indicizzazione iniziale 1M documenti tipica ~50-200€ una tantum. Re-indexing incrementale costo trascurabile.
  • AI enrichment skills (OCR, entity extraction, traduzione): tariffe Cognitive Services per skill usata.

Esempio pricing pratico

Progetto chatbot HR interno (200 articoli policy, 50 query/giorno): Standard S1 ~250 €/mese + Embeddings indicizzazione iniziale ~10€ + costi runtime trascurabili. Totale: ~250-260 €/mese.

Modello di ingaggio SynSphere

  • POC AI Search RAG (4-8 settimane): SynSphere progetta architettura RAG, indicizza dataset POC, valida qualità risultati con utenti chiave del cliente.
  • Production deployment (2-4 mesi): SynSphere implementa architettura completa con Azure OpenAI + AI Search + integrazione frontend (web app, Teams chatbot, dashboard), automation indexing pipeline, security trimming.
  • Managed AI Search service: monitoring qualità search, ottimizzazione progressive prompt + indexing, aggiornamento sorgenti dati al variare requisiti business.

Domande frequenti

Risposte rapide alle domande che ci fanno più spesso su Azure AI Search.

Cosa è il vector search e perché è critico per AI generativa?
Vector search trasforma documenti in **embeddings** (vettori numerici di alta dimensione) che catturano il **significato semantico**. Cerca documenti simili per significato anche se le parole esatte non corrispondono. Esempio: query 'come ridurre costi cloud' trova articolo intitolato 'Ottimizzazione spesa Azure' anche se le parole non matchano. Per scenari RAG è essenziale: il modello LLM deve trovare i documenti giusti su cui basare la risposta, e gli utenti raramente usano le parole esatte dei documenti.
Posso usare AI Search senza Azure OpenAI per ricerca tradizionale?
Sì, AI Search funziona in modo standalone come search engine enterprise tradizionale (analogo a Elasticsearch, Solr). Per scenari di pure search senza AI generativa: keyword search BM25, fuzzy matching, faceted navigation, autocomplete, filtri advanced. Ha senso senza Azure OpenAI per scenari come search e-commerce, search documenti tecnici, intranet search. Però per la maggior parte dei nuovi progetti consigliamo combinazione AI Search + Azure OpenAI per esperienza utente moderna.
Quanto è veloce l'indicizzazione di nuovi documenti?
Per scenari standard l'indicizzazione incrementale è quasi real-time: indexer schedulati ogni 5 minuti rilevano modifiche nei documenti sorgente (SharePoint, Blob, ecc.) e aggiornano l'indice. Latenza tipica: documento creato/modificato → searchable in 5-10 minuti. Per scenari mission-critical (es. customer service che pubblica articolo urgente) si può triggerare indicizzazione immediata via API. Per indicizzazione iniziale di dataset grandi (1M+ documenti) può richiedere ore o giorni a seconda del tier.
Come funziona security trimming con Entra ID?
Per scenari dove utenti diversi hanno accesso a documenti diversi (es. SharePoint con permission per gruppi Entra), AI Search supporta **security trimming**: ogni documento indicizzato include metadata con i gruppi Entra che hanno accesso. Quando l'utente fa query, il suo token Entra ID viene passato ad AI Search che filtra automaticamente i risultati per mostrare solo documenti accessibili. Setup richiede integrazione AAD nel front-end e configurazione corretta indicizzazione SharePoint.
AI Search vs Microsoft 365 Copilot: si sovrappongono?
Sono complementari. **Microsoft 365 Copilot** usa search built-in proprietario per cercare nei dati M365 dell'utente (Outlook, OneDrive, SharePoint, Teams), focus su produttività individuale. **Azure AI Search** è per costruire applicazioni custom dove servono indici controllati, source dati extra-M365 (database, repository code, file server legacy), security trimming custom, integrazione con LLM specifici. Per scenari enterprise estesi spesso entrambi coesistono: M365 Copilot per produttività dipendente, AI Search per applicazioni AI custom embedded nel business.