Intelligenza artificiale, un business stimato in 15,7 trilioni di dollari

Lug 2nd, 2019 | Di Redazione | Categoria: Statistiche e Ricerche


Secondo un nuovo studio di PwC, il potenziale economico dell’intelligenza artificiale (IA), stimato in 15,7 trilioni di dollari USA, potrà realizzarsi solo quando le aziende integreranno al proprio interno principi etici e pratiche eticamente responsabili, un’azione da intraprendere prima di qualsiasi altro sviluppo.

Secondo un nuovo toolkit, pubblicato oggi da PwC al World Economic Forum di Dalian in Cina, le aziende, per contrastare l’approccio frammentario allo sviluppo e all’integrazione dell’IA - che le sta esponendo a rischi potenziali - devono imparare a comprendere, sviluppare e integrare pratiche eticamente responsabili specifiche per l’IA.

PwC ha individuato cinque aree sulle quali le aziende devono concentrarsi, personalizzandole in base alle proprie esigenze in termini di strategia, progettazione, sviluppo e impiego dell’IA:

1. Governance
2. Etica e normative
3. Interpretabilità e capacità esplicativa dei sistemi di IA
4. Solidità e sicurezza dei sistemi di IA
5. Pregiudizi ed equità dei sistemi di IA

Solo concentrandosi di queste aree infatti è possibile considerare i possibili impatti etici dell’IA a partire dalla pianificazione strategica e incorporarli quindi in un processo di governance efficace, contribuendo così a contrastare la crescente preoccupazione pubblica rispetto a temi quali equità, fiducia e affidabilità.

All’inizio dell’anno, l’85% dei CEO affermava che nei prossimi 5 anni l’IA avrebbe modificato sensibilmente il proprio modo di lavorare, mentre l’84% sosteneva che le decisioni basate su AI, al fine di essere credibili, avrebbero dovuto essere spiegabili.

Massimo Pellegrino, Partner PwC e New Ventures Lead e responsabile globale delle aree di Etica e Governance dell’IA, afferma: “Anche in Italia la sensibilità delle aziende rispetto al tema dell’etica dell’Intelligenza Artificiale è cresciuta significativamente.

Banche, assicurazioni, società di telecomunicazioni e retailers stanno - anche sotto la spinta del GDPR - iniziando a definire un possibile approccio che da un lato garantisca il rispetto dei principi etici di tutti gli stakeholder dell’ecosistema in cui operano e dall’altro permetta di cogliere tutte le opportunità connesse all’utilizzo di una tecnologia così potente e pervasiva come l’Intelligenza Artificiale.

Come parte del Toolkit di PwC per una IA eticamente responsabile, grazie a un sondaggio diagnostico le aziende possono valutare la propria comprensione e applicazione di pratiche IA etiche e responsabili. Tra maggio e giugno del 2019, circa 250 persone coinvolte nello sviluppo e nell’impiego dell’IA hanno completato il processo di valutazione.

I risultati dimostrano immaturità e incoerenza nella comprensione e nell’applicazione di pratiche IA responsabili ed etiche:

• Solo il 25% degli intervistati dichiara di considerare in via prioritaria le implicazioni etiche di una soluzione di IA prima di metterla in atto.
• Uno su cinque (20%) ha processi chiaramente definiti per l’identificazione dei rischi associati all’IA.
• Oltre il 60% si affida a processi informali di sviluppo o non dispone di alcuna procedura documentata.
• Esistono già parametri o considerazioni rispetto ad un’intelligenza artificiale etica, tuttavia la loro applicazione non è stata costante.
• Il 56% avrebbe difficoltà a spiegare le motivazioni nel caso in cui l’Intelligenza Artificiale della propria azienda facesse qualcosa di scorretto.
• Oltre la metà degli intervistati non ha formalizzato l’approccio alla valutazione dell’IA rispetto ai rischi di discriminazione, adducendo come motivazioni mancanza di conoscenza, strumenti e valutazioni ad hoc.
• Il 39% (di chi applica l’IA su larga scala) dichiara di essere “abbastanza” sicuro di sapere come arrestare il proprio processo di IA se qualcosa andasse storto.

Il Toolkit di PwC per una IA eticamente responsabile consiste in un pacchetto flessibile e scalabile di competenze globali ed è concepito per consentire e supportare la valutazione e lo sviluppo dell’intelligenza artificiale all’interno delle aziende, personalizzato in base alle esigenze specifiche e al livello dell’IA implementato.

Note agli editor:

1. Circa 250 senior business executive hanno completato il sondaggio di PwC sulla diagnostica di una IA eticamente responsabile tra maggio e giugno del 2019, valutando lo sviluppo, l’impiego e la gestione continua delle proprie soluzioni specifiche rispetto ai cinque pilastri principali di una IA eticamente responsabile: Governance; Etica e normative; Interpretabilità e capacità esplicativa; Solidità e sicurezza; Pregiudizi ed equità. Per maggiori informazioni sul Toolkit di PwC per una IA eticamente responsabile, visitare www.pwc.com/rai.
2. Tra i principali driver identificati per l’investimento nell’IA troviamo un aumento dell’efficienza, il supporto a un processo decisionale sostenibile (AI for Good), la crescita dei ricavi, l’innovazione e la mitigazione dei rischi.
3. Secondo le stime del 2017 di PwC, nel 2030 il PIL globale crescerà del 14% grazie all’intelligenza artificiale, pari ad altrettanti 15,7 trilioni di dollari USA.
Per maggiori informazioni:
https://www.pwc.com/gx/en/issues/data-and-analytics/publications/artificialintelligence-study.html.
4. Per saperne di più sul coinvolgimento di PwC nella riunione annuale del World Economic Forum dei New Champions, visitare www.pwc.com/amnc

Related posts:

  1. Autenticità, trasparenza e valore, personalizzazione del contenuto, brand collaboration, chatbot e intelligenza artificiale per una strategia vincente di Content Marketing nel 2019
  2. L’Intelligenza Artificiale che cambia i nostri acquisti in store
  3. Allenare l’intelligenza emotiva
  4. WhatsApp Business la nuova piattaforma che permette a Facebook di monetizzare con le aziende che non rispondono entro 24 ore ai messaggi