Quando si adottano modelli linguistici su dati aziendali, la responsabilità è condivisa tra vendor, system integrator e cliente. Parola a Sergio Ajani di Innovaway.
Quando si adottano modelli linguistici (LLM) su dati aziendali, la responsabilità della sicurezza è condivisa. Sergio Ajani, Service & Solutions Design Director di Innovaway, inquadra il problema con estrema chiarezza: l'adozione frenetica dell'Intelligenza Artificiale, simile a quanto vissuto con il cloud durante la pandemia, porta con sé vulnerabilità sistemiche. Nell'era degli LLM la certezza assoluta è un lusso, ma l'onestà intellettuale impone di riconoscerlo per garantire alle aziende un'innovazione che sia realmente sicura e governabile.
Il dataset come superficie di attacco
L'efficacia di un LLM dipende dai dati utilizzati in fase di addestramento. Come ricorda Ajani, "il dataset stesso è una superficie di attacco estremamente critica". In quest'ottica, Innovaway individua tre principali vulnerabilità:
Tre livelli di responsabilità
Il tema della responsabilità (shared responsibility) è cruciale ma ancora poco delineato nel panorama dell'AI. Ajani definisce tre livelli di intervento:
RAG, accessi e il problema della compiacenza
Per un utilizzo enterprise, il modello più concreto è l'architettura RAG (Retrieval-Augmented Generation) fine-tuned su dati aziendali. Questo approccio allarga inevitabilmente la superficie d'attacco, rendendo cruciali la protezione dei dati (un'evoluzione essenziale della Data Loss Prevention per difendere, ad esempio, i segreti industriali e il Made in Italy) e il controllo rigoroso degli accessi. I modelli linguistici soffrono infatti del famoso "concetto di compiacenza": se un malintenzionato interroga il sistema simulando un ruolo apicale, il modello potrebbe assecondarlo. Inoltre, l'architettura RAG pone una sfida di governance temporale, e l'accesso diretto ai prompt espone al rischio di esfiltrazione di documenti riservati. La soluzione pragmatica, adottata internamente da Innovaway, è un'AI "di scopo, più filtrata. Meno spettacolare, ma più sicura", con RAG verificate e prompt chiusi che bloccano i caricamenti arbitrari di file.
Uno sguardo al futuro
Per non frenare l'innovazione, Innovaway guarda oltre. In collaborazione con diversi atenei italiani, stiamo esplorando le architetture neurosimboliche, un paradigma che fonde le reti neurali con il ragionamento deterministico. L'obiettivo è creare un "agente supervisore" in grado di verificare la compliance di prompt e output in modo logico, non solo statistico. Non sostituzione delle persone, ma utilizzo della augmented intelligence per la supervisione, consentendo di fare cose con più affidabilità rispetto all’intelligenza artificiale che conosciamo oggi. È uno dei tasselli del piano industriale 2026-2028 dell’azienda, un percorso di crescita basato su uno sviluppo organico e acquisizioni mirate, potenziato dall'integrazione tecnologica derivante dalla partnership con vendor leader di mercato come HCLSoftware. Il passaggio cruciale, oggi, resta però culturale: serve un'attività di awareness a tappeto, a partire dal management, per comprendere appieno le reali potenzialità e i rischi di questa trasformazione tecnologica.
Clicca qui per leggere l'intervista integrale a Sergio Ajani