tecnologia donna

Marinela Profi, manager per l’intelligenza artificiale in Sas, spiega come i sistemi di Ai prendono decisioni

L’intelligenza artificiale sta entrando in una nuova fase evolutiva: quella agentica. Non più solo sistemi che generano testi o immagini, ma veri e propri agenti in grado di prendere decisioni, attivare processi e interagire tra loro. In questo contesto, Sas – uno dei player storici dell’analytics – sta costruendo una visione pragmatica e governata dell’AI del futuro.
Ne abbiamo parlato con Marinela Profi, Principal Product Marketing Manager per l’intelligenza artificiale in Sas, che durante Sas Innovate, ad Orlando, ci ha spiegato cosa significa davvero “agentic AI”, come si costruiscono flussi decisionali multi-agente, e perché il fattore umano resta, e resterà, centrale.
Per noi, l’agentic AI è un’applicazione dell’intelligenza artificiale che attribuisce a un sistema un certo grado di autonomia decisionale. Ma non parliamo mai di autonomia totale: vediamo l’agentic AI come uno spettro, in cui la presenza dell’essere umano può essere più o meno centrale a seconda del rischio e del contesto. Questo è ciò che ci differenzia: per SAS, l’agente intelligente non sostituisce l’uomo, ma lavora con lui.

In che cosa si distingue la agentic AI rispetto alla Robotic process automation o all’automazione intelligente che conoscevamo fino a poco tempo fa?
La differenza sostanziale è che l’agentic AI integra modelli linguistici di grandi dimensioni con analitica, automazione dei processi e regole di business. La Rpa tradizionale non usava i large language model. Oggi, invece, mettiamo insieme queste componenti – chatbot, automazione, analisi e Llm – per costruire veri e propri agenti intelligenti capaci di prendere decisioni complesse. È un’evoluzione netta.

Parlando di sistemi multi-agente, vi state muovendo anche in quella direzione?
Assolutamente sì. Con Sas Intelligent Decisioning, le aziende possono costruire flussi agentici multi-agente. Immagini un processo di valutazione per una richiesta di mutuo: un agente “router” identifica il tipo di attività richiesta, e attiva l’agente più adatto. Ad esempio per il rischio di credito, per la rilevazione di frodi o per il suggerimento dell’azione successiva. Ogni agente ha un ruolo specifico, e possono cooperare in una gerarchia

E se un agente genera un contenuto problematico o parziale? Avete previsto controlli?

Certamente. In un flusso multi-agente possiamo inserire un agente dedicato al controllo dei bias nei testi generati da un Llm. Se rileva un’anomalia, può attivare un secondo agente per una doppia verifica o coinvolgere un essere umano. L’escalation è parte integrante del sistema. È una delle caratteristiche fondamentali dei nostri strumenti.

Quali modelli usate per rilevare bias nei contenuti?
Utilizziamo una combinazione di modelli Nlp e regole di business. L’approccio è olistico: combiniamo l’intelligenza linguistica con i vincoli specifici di ciascun settore o cliente.

A proposito di governance: che tipo di sicurezza integrate nei vostri sistemi?
Le barriere di sicurezza possono riguardare il mascheramento o il rilevamento di informazioni sensibili, il rispetto di policy aziendali, la performance dei modelli. Sono tutte regole che l’organizzazione può definire, e che vengono applicate all’interno del flusso decisionale.

Ma come individuate i dati sensibili, tecnicamente?
Usiamo Ocr e tecniche di classificazione e rilevamento. È un processo integrato nei nostri strumenti di analisi e governance.

Spesso si associa la agentic Ai alla presenza di più agenti. È corretto?
In parte. La agentic AI implica che un sistema abbia “agency”, cioè la capacità di agire. Un singolo agente può già essere un sistema agentico. I sistemi multi-agente ne sono una versione avanzata, ma non esclusiva.

E riguardo all’intervento umano? I sistemi multi-agente rischiano di ridurre troppo il controllo umano?
È un rischio reale. Ma nella nostra esperienza, e in base a quello che ci dicono i clienti, i sistemi completamente autonomi spesso falliscono nei contesti critici. In settori regolati – come finanza, sanità o assicurazioni, non puoi permetterti margini d’errore senza controllo umano. Per questo l’essere umano deve restare nel ciclo decisionale, almeno in determinate fasi.

Sas intende sviluppare un proprio Llm?
No, non stiamo investendo nella creazione di un nostro Llm. Crediamo che il valore risieda nella capacità di integrare qualsiasi modello scelto dal cliente – OpenAI, Anthropic, Mistral o altri – in un ambiente sicuro, tracciabile e governato.

Ma alla fine, l’intelligenza artificiale sostituirà i lavoratori umani?
Non è tanto una questione di posti di lavoro, ma di competenze. Alcuni ruoli scompariranno, certo, ma ne nasceranno moltissimi altri, come è successo con Internet negli anni ’90. La differenza è che stavolta non parliamo di 30 anni, ma di 5 o 10. In futuro, non ti chiederanno se sai usare l’AI: lo daranno per scontato.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

A.N.D.E.
Panoramica privacy

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.