La collaborazione tra competitor per prevenire una crisi

Cosa può imparare il settore dell’Intelligenza Artificiale dagli esempi del passato.

di Henry Chesbrough
{{item.title}}

L’Intelligenza Artificiale (o Artificial Intelligence - AI) è nello stesso tempo promettente e controversa. L’AI rappresenta una svolta tecnologica fondamentale nell’ambito dello sviluppo dei software: ha permesso, per esempio, di migliorare la capacità dei sistemi informatici di formulare previsioni più precise e di ottimizzare i processi decisionali. L’AI è una tecnologia multiuso che può essere applicata con profitto in vari settori: le auto senza conducente, gli strumenti per la diagnosi dei tumori, la robotica, la scelta di contenuti audio e video. Eppure l’AI presenta anche alcuni rischi. L’Amministratore Delegato di Tesla, Elon Musk, ha paragonato la ricerca sull’AI alla “convocazione di un demone”. Il fisico Stephen Hawkins ha dichiarato alla BBC nel 2014: “Lo sviluppo completo di una intelligenza artificiale potrebbe segnare la fine della razza umana”. Ed è già noto che l’AI incorpora vari tipi di errore nei propri algoritmi.

La collaborazione tra competitor diventa essenziale quando i benefici sono minacciati dalla possibilità che questi rischi diventino concreti. Nell’industria chimica, dopo la disastrosa esplosione di uno stabilimento della Union Carbide a Bhopal in India, nel 1984, l’intero settore decise di collaborare per sviluppare prassi operative più sicure. Si ritenne, correttamente, che un’altra esplosione di quelle dimensioni avrebbe portato all’approvazione di regolamenti molto restrittivi e, addirittura, avrebbe potuto convincere i governi a chiudere interi impianti di produzione.

I giganti della tecnologia che utilizzano l’AI ne hanno riconosciuto i potenziali rischi e hanno percepito la necessità di collaborare per una risposta collettiva. Nel 2016 Amazon, Facebook, Google, DeepMind, Microsoft e IBM hanno creato l’organizzazione no profit Partnership on AI (PAI). Apple si è unita nel 2017. Insieme, hanno affidato alla PAI risorse per studiare e formulare buone pratiche nel campo delle tecnologie AI, per permettere al pubblico di comprendere meglio l’Intelligenza Artificiale, e per fornire una piattaforma aperta di discussione sull’AI e sul suo impatto sulla società.

 

La collaborazione tra competitor per una AI più sicura

La PAI ha pubblicato del materiale formativo per aiutare le persone a capire i potenziali benefici, i costi e i progressi dell’AI. L’insegnamento che possiamo ricavare, comunque, è che la formazione di per sé non è sufficiente. La PAI dovrà affinare la capacità di osservare e verificare i codici informatici delle aziende che ne fanno parte, per identificare i potenziali rischi prima che vengano divulgati e per spronare i dirigenti a prendere i provvedimenti necessari a risolvere subito questo tipo di problemi.

Per questo motivo la PAI ha creato diversi gruppi di lavoro, come quello su Equità, Trasparenza e Responsabilità e il Comitato di Vigilanza su AI e Integrità dei Media, che hanno il compito di prendere decisioni tempestive per rispondere a qualunque opportunità o minaccia in ambito AI. Di ogni gruppo fanno parte esperti di varie discipline: psicologia, filosofia, economia, finanza, sociologia, diritto e politiche pubbliche per discutere, indirizzare e sostenere studi imparziali sui problemi emergenti legati all’impatto dell’AI sulla società. I gruppi di lavoro sviluppano casi di studio relativi all’impatto dell’AI sul mondo del lavoro e al suo utilizzo nell’ambito della giustizia penale.

Anche se la creazione di questi gruppi di lavoro è un ottimo inizio, la PAI deve fare di più per rendere sostenibile nel tempo la collaborazione tra concorrenti. Deve trasformarsi in una struttura in grado di rispondere alle nuove opportunità e alle minacce che verranno. Ciò che manca alla PAI è una procedura che permetta ai gruppi di lavoro di condurre verifiche sui membri e ritenerli responsabili di attenersi agli standard e alle buone pratiche del settore.

In conclusione, la cooperazione tra concorrenti a volte è necessaria per sostenere un’industria. Il settore AI non ha ancora sperimentato una catastrofe vera e propria e ha agito d’anticipo formando la Partnership nell’AI per cercare di evitarla. Affrontando i rischi insieme e in anticipo, la PAI e le aziende che si occupano di Intelligenza Artificiale possono sviluppare soluzioni condivise sin dalla fase di progettazione, e in questo modo potrebbero scongiurare un possibile disastro, mitigarne gli eventuali effetti e ridurre i costi per trovare una soluzione. Il successo di PAI dipende dal rafforzamento e dal mantenimento di un senso di responsabilità collettiva e condivisa per la sicurezza nello sviluppo dell’Intelligenza Artificiale, e dall’applicazione credibile di pratiche sicure nel settore.

 

Questo saggio è basato su uno studio più ampio che è stato pubblicato di recente. Si veda Bez, Sea, and Henry Chesbrough. "Competitor Collaboration Before a Crisis What the AI Industry Can Learn” RESEARCH-TECHNOLOGY MANAGEMENT 63.3 (2020): 42-4

Profili di Henry Chesbrough

Questo sito si avvale di cookie analytics e di profilazione, propri e di terzi, per inviarti pubblicità in linea con le tue preferenze. Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy Accetta e chiudi