Giuria dei CIO: l’83% dei leader tecnologici non ha alcuna politica per l’uso etico dell’intelligenza artificiale

  • Sep 04, 2023

L’intelligenza artificiale è qualcosa che sempre più organizzazioni utilizzano, ma solo poche hanno adottato politiche per affrontare l’etica dei pregiudizi e della governance.

Le questioni etiche sull’intelligenza artificiale (AI) sono diventate parte del dibattito nel mondo degli affari poiché sempre più organizzazioni aggiungono il machine learning (ML) ai propri toolkit. Tuttavia, secondo un sondaggio della giuria dei CIO di TechRepublic, solo pochi hanno adottato politiche per garantire che l’intelligenza artificiale venga utilizzata in modo etico.

Caratteristica speciale

Caratteristica speciale: gestire l'intelligenza artificiale e il machine learning nell'azienda

Questo ebook, basato sull'ultima funzionalità speciale di ZDNet/TechRepublic, consiglia i CXO su come affrontare l'intelligenza artificiale e iniziative ML, capire dove si inserisce il team di data science e quali algoritmi acquistare rispetto a costruire.

Leggi ora

Alla domanda: "La tua azienda ha una politica per l'uso etico dell'intelligenza artificiale o dell'apprendimento automatico?" 10 leader tecnologici su 12 hanno detto di no, mentre solo due hanno detto di sì. Ciò significa che solo il 17% dei leader tecnologici nel sondaggio informale di TechRepublic ha una politica etica in atto per AI e ML.

Esattamente 12 mesi fa, TechRepublic ha posto la stessa domanda alla giuria del CIO, e a quel punto, solo un leader tecnologico aveva una politica in atto per l’uso etico dell’intelligenza artificiale o dell’apprendimento automatico. Quindi, l’adozione sta crescendo, ma lentamente.

Tra coloro che sostengono il "sì" figura Michael Ringman, CIO di TELUS International. Ringman ha affermato: "Tecnologie come l'intelligenza artificiale e l'apprendimento automatico svolgono un ruolo chiave nella capacità di TELUS International di fornire una CX continua e coerente ovunque e ogni volta che i clienti dei nostri clienti lo desiderano. Ma il fulcro della nostra cultura incentrata sulle persone è la convinzione che l’intelligenza artificiale e l’apprendimento automatico possano essere sfruttati per migliorare, e non sostituire, le capacità dei membri del nostro team in prima linea. Sì, è etico, ma ha anche senso dal punto di vista commerciale. I clienti desiderano sempre più esperienze semplici, anticipatrici e personalizzate, e l’intelligenza artificiale può migliorare questo aspetto se utilizzata come parte di una strategia di BI per fornire una visione a 360 gradi del cliente”.

VEDERE: Gestire l'intelligenza artificiale e il machine learning nell'azienda 2020: i leader tecnologici aumentano lo sviluppo e l'implementazione dei progetti (Premio TechRepublic)

Clément Stenac, CTO di Dataiku, ha affermato che avere una politica etica è essenziale. "In effetti, la nostra piattaforma (Dataiku) democratizza l'accesso ai dati e consente alle aziende di costruire il proprio percorso verso l'intelligenza artificiale in modo incentrato sull'uomo. Promuoviamo l'intelligenza artificiale etica per i clienti rendendo i dati facili da comprendere per tutti i team, nonostante le intese tecniche, all'interno delle organizzazioni. L'etica della nostra azienda è definita sulla base di questa idea di intelligenza artificiale incentrata sull'uomo. Le persone che sviluppano e distribuiscono modelli devono essere consapevoli dei suoi potenziali difetti e assumersi la responsabilità dei suoi difetti. Noi di Dataiku offriamo ai nostri dipendenti una formazione completa su questo argomento. È fondamentale che i creatori di intelligenza artificiale riconoscano l’importanza di potenziare con successo i team sia con la formazione che con gli strumenti per costruire algoritmi di intelligenza artificiale etici”.

VEDERE: Politica etica sull'intelligenza artificiale (Premio TechRepublic)
Gli altri dieci membri della giuria hanno votato tutti "no", ma alcuni erano indecisi, tra cui Steven Page, vicepresidente IT per il marketing e il digital banking di Safe America. Page ha detto che al momento la sua azienda non ha una politica etica, ma "stiamo osservando la tendenza nell'uso dell'intelligenza artificiale".

Presso Multiquip, Michael Hanken, vicepresidente IT, ha affermato che non esiste alcuna politica in atto, ma la sta prendendo in considerazione per un progetto pilota lanciato di recente.

A Ntirety, il CEO Emil Sayegh ha dichiarato: "Non abbiamo ancora una politica di utilizzo etico dell'intelligenza artificiale o dell'apprendimento automatico, ma sicuramente Dovremmo prendere in considerazione una politica aziendale per proteggere le infrastrutture IT dei nostri clienti poiché siamo uno dei primi utenti dell'apprendimento automatico e l'intelligenza artificiale. Dovrebbero essere stabiliti limiti di "non nuocere" e di privacy dei modelli comportamentali dei nostri clienti. Ciò è complicato dal fatto che i nostri clienti contano su di noi per analizzare il traffico legittimo da quello dannoso. L’intelligenza artificiale e l’apprendimento automatico sono così potenti che potrebbero scoprire tendenze nel traffico legittimo che potrebbero violare modelli di utilizzo riservati da parte dei nostri clienti. Inoltre, l’accesso alle tendenze dei dati comportamentali e di utilizzo scoperti dall’intelligenza artificiale e dall’apprendimento automatico potrebbe legalmente o illegalmente ricadano o siano condivisi con istituzioni statali o governative compromettendo ulteriormente privacy."

E gli altri partecipanti alla giuria non ne hanno uno e non ci sono piani per metterne in atto uno, come nel caso di Eric Shashoua, fondatore e CEO di Kiwi per GSuite. Shashoua ha affermato che la sua azienda non ha una politica etica in atto: "Anche se al momento non utilizziamo direttamente l'intelligenza artificiale o l'apprendimento automatico, l'etica nel nostro contesto riguarderebbe i nostri utenti e i loro dati. Dato che siamo un'azienda con un prodotto costruito per la comunicazione, abbiamo una politica rigorosa di non raccogliere dati degli utenti e di essere in stretto accordo con il GDPR e persino con lo spirito di quella legge."

Ecco i partecipanti alla giuria del CIO di questo mese:

John Gracyalny, vicepresidente dei servizi per i membri digitali, Coast Central Credit Union
Craig Lurey, CTO e co-fondatore di Keeper Security
Michael Hanken, vicepresidente IT di Multiquip
Dan Gallivan, direttore della tecnologia informatica, Payette
Emil Sayegh, CEO, Ntirety
Kris Seeburn, consulente IT indipendente, evangelista e ricercatore
Michael Ringman, CIO, TELUS International
Clément Stenac, CTO, Dataiku
Michael R. Belote, CTO, Mercer University
Steven Page, vicepresidente IT per il marketing e il digital banking per Safe America
Eric Shashoua, fondatore e CEO di Kiwi per GSuite
Joel Robertson, responsabile delle informazioni, King University

Vuoi far parte della giuria dei CIO di TechRepublic e dire la tua sulle questioni più importanti per i decisori IT? Se sei un CIO, CTO, direttore IT o equivalente in un'azienda grande o piccola, che lavora nel settore privato o nel governo, e desideri unisciti al pool della giuria dei CIO di TechRepublic, invia un'e-mail a teena dot maddox all'indirizzo cbsinteractive dot com e invia il tuo nome, titolo, azienda, posizione ed e-mail indirizzo.