Home SCIENZE E TECNOLOGIE Neirotti (Politecnico di Torino): «Andiamo a caccia di umanisti contro i rischi...

Neirotti (Politecnico di Torino): «Andiamo a caccia di umanisti contro i rischi dell’Intelligenza artificiale».

Perché startup e imprese hanno bisogno di umanisti? Quali competenze servono per utilizzare consapevolmente l'AI? Ne parliamo con Paolo Neirotti, Direttore della Scuola di Master e Formazione Permanente e professore ordinario al Politecnico di Torino. «L’innovazione avviene sempre più in team ampi e multidisciplinari».

0
Paolo Neirotti, Direttore della Scuola di Master e Formazione Permanente e professore ordinario di Strategia e Organizzazione nel Politecnico di Torino.

Creare un ponte tra umanesimo e tecnologia rappresenta una delle sfide del futuro che coinvolge imprese, aziende, istruzione e lavoratori. Oggi più che mai, infatti,  il mercato del lavoro necessita di professionisti capaci di dialogare con sviluppatori e progettisti e, al contempo, di guardare a nuove tecnologie come l’Intelligenza Artificiale con un approccio socio-culturale ed etico. Secondo il World Economic Forum tra le competenze da acquisire entro il 2025 ci sono la capacità di essere innovativi, l’apprendimento attivo (Active Learning), la creatività, lo spirito di iniziativa e la leadership.

E proprio con l’intento di unire competenze umanistiche e STEM per formare professionisti ibridi, e promuovere un approccio etico e innovativo alle nuove tecnologie, la Master School del Politecnico di Torino e l’Università degli Studi di Torino lanciano la seconda edizione del Master Universitario di II Livello “HumanAIze”, realizzato in collaborazione con l’Associazione STEM By Women.  Si tratta di una delle prime esperienze di Master “interdisciplinare” in Italia e in Europa, paragonabile al MIT Bilinguals offerto dal Massachusetts Institute of Technology di Boston, che punta a creare professionisti le cui conoscenze in materie umanistiche e delle scienze umane si integrino con competenze tecniche legate alla programmazione, all’analisi dei dati e al machine learning. Al termine della formazione, queste figure saranno in grado di operare in diversi ambiti lavorativi, dall’Industria 4.0 alla logistica, dalla Digital Transformation al marketing strategico e alle vendite fino ai dipartimenti HR, attraverso l’acquisizione di un “bilinguismo” umanistico e digitale.

Intervista a Paolo Neirotti

In Italia gli stereotipi sulle materie umanistiche sono ancora forti. Perché le startup principalmente ed il mondo delle imprese ha bisogno degli umanisti? Quali competenze soft e umanistiche servono ad aziende e lavoratori per utilizzare consapevolmente l’intelligenza artificiale? Ne abbiamo parlato con Paolo Neirotti, Direttore della Scuola di Master e Formazione Permanente e professore ordinario di Strategia e Organizzazione nel Politecnico di Torino. 

Binomio STEM/ discipline umanistiche per creare innovazione, qual è il loro legame? 
Occorre avvicinare le scienze sociali e umane ai linguaggi tecnici, ai metodi e agli approcci con cui le tecnologie digitali contribuiscono a innovare processi, prodotti, servizi e modelli di business nell’impresa. Oggi si sta manifestando in tutta la sua essenza la pervasività della rivoluzione digitale. Tecnologie digitali come big data, AI, IoT, realtà aumentata e virtuale iniziano a caratterizzare l’innovazione e le operations anche dei settori più tradizionali, oltre che ambiti funzionali dell’impresa che tradizionalmente erano meno compenetrati con l’applicazione delle tecnologie, come la gestione del personale,  la comunicazione, il marketing. Questi ambiti sono da sempre un ampio bacino di reclutamento per chi si laurea nelle discipline umanistiche e sociali. 

Era già accaduta prima una simile commistione?
Si sta manifestando in questi settori quello che da anni, ad esempio, in presenza di sistemi complessi caratterizzati da hardware e software, è il ruolo degli psicologi nel partecipare insieme agli ingegneri alla definizione dei requisiti dell’interfaccia persona-macchina o delle procedure di volo. Gli psicologi conoscono meglio degli ingegneri gli aspetti cognitivi legati alle emozioni della persona alla guida di sistemi tecnologicamente complessi e che hanno un forte impatto sulla sicurezza. Oggi auto, macchinari, servizi digitali e le organizzazioni stesse sono sistemi molto complessi dove la digitalizzazione introduce nuove dimensioni di rischio, da valutare attentamente. Un ingegnere non possiede le competenze sufficienti. L’innovazione avviene quindi sempre di più in team ampi e multidisciplinari.

Sembra un paradosso, ma con l’AI le conoscenze e competenze umanistiche recuperano rilevanza. Perché e in che modo?
La sempre maggiore  quantità di dati accessibili e la disponibilità quasi “a scaffale” di AI permetteranno alle persone con maggiori capacità di avere “una marcia in più”, grazie al fatto di poter contare su previsioni più accurate e analitiche. E’ un po’ come quanto accaduto per le previsioni meteo, dove la possibilità di raccogliere più dati, ha affinato gli algoritmi previsionali e fatto sì che ad oggi abbiamo previsioni più accurate e granulari per zona e fascia oraria della giornata. Consultiamo il meteo più volte al giorno e prendiamo o revisioniamo più frequentemente le nostre decisioni, legate a quali attività fare, a come vestirci, a se portare o meno con noi l’ombrello.  Tuttavia, le capacità decisionali richiedono non solo competenze di dominio (hard skills), ma anche competenze di logica deduttiva e di  gestione dei bias cognitivi con cui la mente umana seleziona dati e informazioni per arrivare ad una rappresentazione di un fenomeno complesso, incerto e ambiguo. In ambito pubblico, le scienze decisionali sono ancora più complesse e richiedono di prendere decisioni considerando elementi come la gestione del potere, dei possibili conflitti, dell’accettazione e della legittimazione sociale delle decisioni. E’ chiaro che queste competenze sono più prossime all’ambito delle humanities che dell’ingegneria, della matematica o dell’informatica. Serve pertanto avvalersi di queste figure in team più ampi e vari di competenze.

Sta aumentando infatti il bisogno di laureati in scienze umane e sociali. Per quale motivo?
Questa richiesta crescente è legata alla comprensione di come la rivoluzione dell’AI, iniziata nel 2014, modificherà le organizzazioni in cui lavoriamo. Ci aspettano altri 20 anni di forti cambiamenti. La persona supervisionerà sempre di più l’algoritmo e interverrà sui compiti meno codificabili e ripetitivi. Questo comporterà una maggiore varietà di compiti, più multitasking in altre parole, con possibili effetti negativi da contenere ed evitare, come l’intensificazione del lavoro, lo stress o l’assenza di una giusta attenzione verso  quella parte del processo che viene gestita unicamente dall’algoritmo. Laureati/e in sociologia e psicologia del lavoro serviranno per assicurare organizzazioni sostenibili, capaci di gestire i rischi dell’AI, oltre che per gestire cambiamenti organizzativi che saranno radicali e faranno evolvere l’identità professionale di molti lavoratori qualificati.

Gender gap in ambito STEM: come promuovere la riduzione del divario di genere nelle professioni tecnico-scientifiche e favorire le pari opportunità nei ruoli professionali scientifici?
Le lauree nelle humanities e nelle scienze sociali vedono una forte presenza femminile. L’innovazione digitale richiede più ruoli di collegamento, privi dell’autorità gerarchica e chiamati a gestire, tramite leadership e autorevolezza, tempi e metodi di lavoro in team complessi. Per avere leadership in questi ruoli serve sviluppare un livello di linguaggio tecnico utile a dialogare con gli specialisti. Si tratta di una competenza che può completare la leadership delle donne, che secondo molti studi si fonda sui vantaggi di una maggiore empatia e consapevolezza sociale.

Studenti a lezione nel corso del Master HumanAIze.

Quali iniziative in tal senso mette in campo il Master HumanAIze?
Il Master HumanAIze si rivolge a laureati/e in discipline umanistiche e si fonda su tre ambiti disciplinari. In primo luogo, le materie gestionali ed economiche fondamentali per acquisire il linguaggio e il mindset del business (la gestione dei costi di prodotto, il project management, le dinamiche della competizione e dell’innovazione). In secondo luogo, vi sono le conoscenze necessarie per comprendere le tre diverse famiglie dell’AI: il machine learning, il deep learning e il natural language processing alla base della generative AI, senza dimenticare l’illustrazione dei principi e dei modelli su cui si deve impostare un’etica di utilizzo dell’AI. Ed in terzo luogo, le competenze comportamentali per lavorare in team e risolvere problemi complessi. Il project work in azienda alla fine del percorso è l’occasione saliente per mettere in pratica in modo integrato questi tre ambiti di competenze e per poter creare ruoli di collegamento che possano inserirsi in team multifunzionali responsabili dell’introduzione di AI. 

Ci sono altri master così?
Questa impronta multidisciplinare è comunque presente in altri Master specialistici offerti dalla Scuola di Master del Politecnico di Torino, che hanno al centro l’AI e l’automazione intelligente. Stiamo lavorando con diverse imprese in numerosi settori, alla creazione di percorsi che, ad una componente orizzontale e generalizzabile, ne possano affiancare una più verticale e professionalizzante rispetto alle esigenze specifiche di settore.

In Italia gli stereotipi sulle materie umanistiche sono ancora forti. Perché le startup e il mondo delle imprese hanno bisogno degli umanisti?
Uno degli stereotipi più comuni è che gli umanisti non abbiano dimestichezza con i numeri, come nel caso della matematica e della statistica che stanno alla base dell’AI, ad esempio. Tuttavia, se penso ad alcune scienze umane e sociali, credo che queste richiedano un pensiero logico che può essere molto sviluppato, certamente più di quello di un ingegnere. Per questo gli umanisti possono essere più capaci degli ingegneri nel lavorare sul pensiero induttivo, in altre parole sul saper indurre relazioni di portata generale da un caso particolare. In questo caso è chiaro che l’AI non può operare dai piccoli numeri, perché non può individuare con sufficiente accuratezza delle relazioni. La capacità analitica dell’ingegnere, invece, si fonda spesso sull’analisi di grandi dati e sull’identificazione di pattern più o meno nascosti in questi dati. In molto similare, possiamo pensare a come la giurisprudenza si fondi su elementi di negoziazione e di analisi del rischio che sono molto articolati e fondano le loro basi su un sapere fortemente multidisciplinare.

Studenti in formazione didattica all’interno del Master HumanAIze.

Quali competenze soft e umanistiche servono per utilizzare consapevolmente l’Intelligenza artificiale? Intendo sia dal punto di vista delle imprese sia da quello dei candidati che devono formarsi 
Oltre alle competenze già citate, non va dimenticato che in Europa, dopo il GDPR, il nuovo AI Act richiederà sempre di più il parere qualificato di giuristi, utile per comprendere cosa si può fare e cosa no con l’AI,  quali dati possano essere utilizzati e archiviati e quali no. Questo produce una domanda di nuovi specialisti in data regulation o  AI ethics, specialmente nelle startup specializzate su AI. Inoltre, le scelte su come adottare l’AI andranno sempre più discusse e valutate nei livelli più alti della corporate governance, al fine di gestire rischi di diversa natura (legale, operativa, reputazionale) prima ancora di cercare possibili vantaggi competitivi. 

Qual è il suo sguardo futuro all’approccio etico ed innovativo dell’AI?
L’AI funziona in modo probabilistico. Ad esempio, in un episodio recente in cui un’auto guidata da AI ha investito un ciclista, ciò si è verificato in quanto l’algoritmo – di fronte all’individuazione di un probabile ostacolo sulla sua traiettoria – non aveva frenato avendo attribuito una probabilità troppo bassa alla possibilità che quell’elemento potesse essere una persona o un animale. E la persona al volante che supervisionava l’algoritmo in quel momento era distratta, forse perché si fidava troppo dell’algoritmo.

Cosa intende dirci?
Questo semplice esempio spiega quanto sia complicato prendere decisioni con un mindset unicamente probabilistico e non connaturato con la capacità di discernimento che è tipica delle persone. Il criterio decisionale richiede di soppesare rischi e benefici delle varie alternative di scelta, e prendere una decisione, coerentemente con il sistema dei valori, con propria esperienza funzionale passata. Alcune decisioni sono troppo critiche per poter essere prese in maniera autonoma e non supervisionata da AI. Su questo l’AI ACT prende le misure, vedremo se in modo efficace ed esaustivo. 

Come potranno continuare ad essere indissolubili tecnologia e skills umanistiche?

L’Italia ha un gap nelle percentuali e nei numeri complessivi di laureati STEM. Sono il 24% in Italia circa, contro il 36% della Germania, ad esempio. Questo gap diventa cruciale per lo sviluppo economico e l’innovazione del Paese. Pertanto, dato il forte richiamo che hanno in un Paese come il nostro, con una forte eredità  umanistica, è importante avvicinare professioni e settori umanistici all’AI, come il cultural heritage o il turismo. In aggiunta, non dobbiamo dimenticare il fatto che l’AI, essendo accessibile attraverso il cloud, possa contribuire allo sviluppo tecnologico e manageriale del terzo settore, un comparto dell’economia sempre più cruciale per la tenuta sociale ed economica nei Paesi ad alto sviluppo industriale, dove la doppia transizione ecologica e digitale sta producendo un amplificarsi dei divari economici. L’offerta formativa della Scuola Master del Politecnico guarda anche a questo settore e a come digitalizzazione, dati ed AI possano abilitare nuovi servizi per la persona e la collettività, o rendere semplicemente più efficiente quelli esistenti.


Rita Maria Stanca

Fonte: STARTUPITALIA.EU

NO COMMENTS

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Exit mobile version