L’uso dell’intelligenza artificiale è oggi indiscutibilmente un fattore competitivo essenziale per le aziende. Spesso, però, la non sempre diffusa trasparenza che caratterizza delle Black Box AI, i cui processi interni rimangono nascosti agli utenti, compromette la credibilità dell’organizzazione che le adotta, sia al suo interno che verso l’esterno.
Ad esempio, se i collaboratori non capiscono in che modo un algoritmo determina la valutazione delle loro performance, ciò può generare resistenza al cambiamento e sfiducia nei confronti dei leader, con una conseguente battuta d’arresto nella produttività. Al contempo, gli stakeholder danno sempre più importanza alla conformità normativa e ai rischi legali legati all’IA: in presenza di processi opachi, sono spesso riluttanti ad avviare o mantenere partnership commerciali.
Quando l’etica guida gli algoritmi
È in questo contesto che entra in gioco quella che Paolo Benanti – teologo e docente, che è stato consigliere di Papa Francesco sui temi dell’IA – definisce algoretica. Una nuova branca dell’etica, questa, che pone al centro del dibattito la necessità di integrare i principi etici nell’implementazione, nel design e nell’utilizzo degli algoritmi e dei sistemi basati sull’IA e che in ambito corporate si traduce in un cambio di paradigma. Non basta più scegliere le tecnologie avanzate per restare competitivi sul mercato ed essere attrattivi per partner e talenti, è fondamentale essere trasparenti sul come e perché vengono usate.
Anche se può sembrare un tema astratto, per i leader si tratta di una sfida molto concreta. Infatti, che si parli di processi automatizzati per la selezione del personale o per la profilazione dei clienti, ogni algoritmo che supporta decisioni in azienda ha un’influenza significativa nei riguardi delle persone e dell’organizzazione. Per questo, integrare l’etica nei nuovi modelli di business non è più un’opzione, ma un asset strategico.
L’impegno di IBM per un’intelligenza artificiale equa e trasparente
Adottare un approccio algoretico significa quindi tener conto dell’impatto sociale ed organizzativo della tecnologia stessa, in cui ogni scelta viene guidata non soltanto da un’ottica di ritorno economico o di performance, ma in modo coerente con i valori, l’identità e la responsabilità sociale dell’organizzazione.
In tal senso, IBM si pone come uno degli esempi significativi di aziende che considerano l’algoritmo non soltanto uno strumento, bensì un attore sociale che va gestito con criteri di trasparenza, equità e responsabilità.
Non a caso, la sua piattaforma Watson OpenScale è stata costruita basandosi su un principio fondamentale: i modelli di machine learning devono essere performanti, comprensibili, giusti e affidabili. Infatti, la piattaforma consente alle aziende di monitorare in tempo reale il modo in cui le loro IA prendono decisioni, rilevando eventuali bias durante il processo cosicché Watson possa intervenire e addestrare l’algoritmo ad essere più inclusivo.
Inoltre, la multinazionale americana da sempre contribuisce al dibattito internazionale riguardante l’intelligenza artificiale e il suo uso corretto e consapevole, partecipando a tavole rotonde e promuovendo ed aderendo a progetti internazionali che coinvolgono anche le istituzioni.
AI etica: il modello Microsoft per una responsabilità diffusa
Le questioni etiche legate alla tecnologia, però, non possono essere semplicemente delegate a uffici legali o team IT: è essenziale che facciano parte dell’agenda dei CEO e dell’intera leadership aziendale. L’algoretica richiede strutture di governance capaci di valutare il rischio etico delle nuove tecnologie e di orientare le decisioni verso soluzioni che incentivino la condivisione del “potere” e la responsabilizzazione, evitando ogni forma di accentramento.
Accanto al know-how tecnico, pertanto, acquista sempre più importanza la capacità di interpretazione critica dell’IA, così come la sensibilità verso le dinamiche sociali e una formazione continua che permette ai collaboratori di comprendere, valutare e contestualizzare le scelte algoritmiche.
Questo è il presupposto da cui prende forma il pensiero di Microsoft: non possono esserci team isolati che adottano autonomamente le soluzioni che ritengono più affidabili, perché l’adozione deve essere un processo condiviso e esteso a tutti i team, a partire dall’AD Satya Nadella e dal board dirigenziale, affiancati dal Comitato del Consiglio di Amministrazione per l’Ambiente, il Sociale e le Politiche Pubbliche, che supervisiona e guida le politiche e i programmi relativi all’IA.
Specialisti di policy, ingegneria e ricercatori uniscono le loro competenze e collaborano a pratiche all’avanguardia per garantire il rispetto degli impegni presi dal colosso del cloud computing in tema di IA responsabile. Come l’Office of Responsible AI che definisce le strutture di governance e offre risorse per l’adozione di azioni etiche di intelligenza artificiale. Parallelamente, i ricercatori del Comitato Aether (AI and Ethics in Engineering and Research) guidano l’azienda nella progettazione, nello sviluppo e nella distribuzione responsabile delle tecnologie di intelligenza artificiale, offrendo insight su come integrare principi fondamentali, tra cui equità, sicurezza, privacy e trasparenza nei prodotti e servizi basati sull’IA.
Intelligenze artificiali, decisioni umane: Paolo Benanti al Leadership Forum
È ormai evidente come il vero vantaggio competitivo non risiede più solo nell’intelligenza delle macchine, ma nella consapevolezza e nella responsabilità di chi le guida. “Chi prende le decisioni oggi – dai manager alle istituzioni – deve essere consapevole che gli algoritmi hanno la stessa funzione che avevano una volta i ponti in calcestruzzo ai tempi di Moses”, aggiunge Benanti. “Interrogare eticamente la tecnologia significa decidere dove e come vogliamo creare ponti, barriere o autostrade all’interno della cittadinanza”.
Quindi, come sviluppare un quadro etico per guidare l’implementazione dell’AI? Ne parleremo al Leadership Forum insieme a Paolo Benanti, unico membro italiano del New Artificial Intelligence Advisory Board, il comitato sull’IA delle Nazioni Unite, nonché parte del gruppo di trenta esperti selezionati dal Ministero dello Sviluppo Economico che hanno il compito di elaborare la strategia nazionale sull’intelligenza artificiale.
Per conoscere l’agenda completa e tutti i relatori, clicca qui!