"Siamo disposti a staccare la spina?" I progetti tecnologici sono sotto esame mentre aumentano le preoccupazioni sull’etica digitale

  • Sep 04, 2023

La società di analisi tecnologica prevede uno spostamento verso la privacy che potrebbe significare alcune decisioni difficili da prendere in futuro.

shutterstock-129038348.jpg

Per ora, invece di integrare l’etica direttamente nel prodotto per evitare danni futuri, le aziende tendono ancora ad aspettare fino a quando non si verifica una crisi prima di fare ammenda.

Immagine: Shutterstock / Kostenko Maxim

Il concetto di tecnologia etica è sempre sembrato più adatto ai discorsi teorici delle conferenze stanze, ma ora è destinato a diventare una priorità tangibile – e finanziaria – per le aziende che sviluppano il digitale utensili.

Secondo l’analista tecnologico Gartner, infatti, entro il 2024 la spesa mondiale per i dati sarà orientata alla privacy la tecnologia di protezione e conformità supererà i 15 miliardi di dollari all’anno, man mano che l’etica digitale diventa sempre più importante in cima alla mente.

Intelligenza artificiale

  • 7 suggerimenti avanzati per la scrittura di messaggi ChatGPT che devi conoscere
  • I 10 migliori plugin ChatGPT del 2023 (e come sfruttarli al meglio)
  • Ho testato molti strumenti di intelligenza artificiale per il lavoro. Questi sono i miei 5 preferiti finora
  • Umano o bot? Questo gioco di test di Turing mette alla prova le tue abilità di individuazione dell'intelligenza artificiale

Le organizzazioni attente alla privacy sono destinate a investire in nuove tecnologie che prevengano meglio i danni algoritmici, afferma Gartner, che vanno dalla crittografia omomorfica, che consente il calcolo algoritmico sui dati crittografati, al cloud sovrano e dati sintetici.

VEDERE: Prepararsi per l'"età dell'oro" dell'intelligenza artificiale e dell'apprendimento automatico

Ciò è dovuto al rapido sviluppo di strumenti di intelligenza artificiale (AI), che può essere involontario conseguenze su scala molto più ampia rispetto alle tecnologie precedenti, secondo l’analista di Gartner Bart Willemsen. Che si tratti di scrivere testi, guidare un’auto o assistere con condanne penali, gli strumenti di intelligenza artificiale hanno un certo grado di autonomia, il che significa che quando le cose vanno male, vanno seriamente male.

"La natura autonoma dell'intelligenza artificiale, la scala con cui l'intelligenza artificiale può avere un impatto, la velocità con cui può avere un impatto impatto, significa che bisogna pensare prima alle conseguenze non previste e indesiderate", spiega Willemsen ZDNet.

Sempre più spesso, la discussione etica sulle potenziali conseguenze impreviste di uno strumento di intelligenza artificiale avrà luogo prima e durante l’implementazione di una tecnologia, piuttosto che dopo, afferma Gartner.

Sebbene questa strategia stia lentamente emergendo, è ancora lontana dal raggiungere la maggior parte delle imprese. Per ora, invece di integrare l’etica direttamente nel prodotto per evitare danni futuri, le aziende tendono ancora ad aspettare fino a quando non si verifica una crisi prima di fare ammenda.

Nel 2018, ad esempio, Amazon ha dovuto farlo eliminare uno strumento di assunzione automatizzato dopo che è stato reso pubblico che si era scoperto che la tecnologia discriminava le donne. Un anno dopo, Goldman Sachs lo era di fronte ad una sonda per le affermazioni secondo cui l'algoritmo di credito dell'azienda era distorto dal genere. E anche i governi hanno dovuto fare marcia indietro sull’uso dell’intelligenza artificiale: il Dipartimento dell’Istruzione del Regno Unito, ad esempio, ha recentemente ritirato un algoritmo che assegna i voti degli studenti dopo è emerso che favoriva i bambini provenienti dalle scuole più ricche.

"Ecco perché la questione etica si sta spostando su: dovremmo usarlo? Se sì, in che misura? E poi c’è una domanda che fino a qualche anno fa difficilmente veniva posta: siamo disposti a staccare la spina?", dice Willemsen.

In alcuni paesi, le leggi si stanno evolvendo per spingere le aziende a porsi queste domande prima, piuttosto che dopo, lo sviluppo di strumenti di intelligenza artificiale. Ma anche in questo caso, i processi legali seguono uno schema reattivo familiare.

Willemsen fa riferimento agli ultimi progetti di regolamenti dell'UE sull'intelligenza artificiale, che includono disposizioni come il divieto dell’uso dell’intelligenza artificiale per assegnare un punteggio sociale agli individui – un tentativo di evitare una replica del sistema di credito sociale cinese, dice l’analista – o vietare gli strumenti di intelligenza artificiale che possono influenzare il comportamento di un individuo o opinione.

"Per me questo significa semplicemente: 'Abbiamo visto Cambridge Analytica, ci piacerebbe molto che ciò non accadesse di nuovo'", afferma Willemsen. "È una reazione. Sappiamo tutti da dove viene." 

ZDNET Raccomanda

Le migliori certificazioni di hacking etico

Diventare un hacker etico certificato può portare a una carriera gratificante. Ecco i nostri consigli per le migliori certificazioni.

Leggi ora

Gartner prevede che oltre l'80% delle aziende di tutto il mondo si troverà ad affrontare almeno un dato incentrato sulla privacy normativa sulla protezione entro la fine del 2023 – e le leggi continueranno a svolgere un ruolo enorme nel limitare i danni algoritmi. Ma per garantire che gli strumenti di intelligenza artificiale non causino nuovi danni, le aziende dovranno fare un passo avanti rispetto alle leggi progettate per prevenire ciò che è già accaduto in passato.

VEDERE: Il rapporto rileva un sorprendente disinteresse per l’uso etico e responsabile dell’intelligenza artificiale tra i leader aziendali

Willemsen anticipa tre diversi approcci all’etica digitale. Alcune aziende investiranno semplicemente per assicurarsi di rispettare le regole; mentre le aziende leggermente più proattive inizieranno a pensare alla mitigazione del rischio.

"Supponiamo che stai guidando su una strada aperta e vedi un cartello che dice che non dovresti superare le 55 miglia all'ora", dice Willemsen. "L'etica della conformità significa mettere il cruise control su 54 e chiudere gli occhi. Mitigare il rischio significa guardare continuamente attraverso il parabrezza perché se 3.000 persone davanti a te si fermano completamente in un ingorgo, stai premendo i freni." 

In entrambi i casi, tuttavia, l’approccio è reattivo. Implementare una vera etica digitale richiederà ancora un’altra strategia, afferma Willemsen: pensare oltre la conformità, cercando di infondere principi etici fin dall’inizio del processo di sviluppo di una tecnologia di intelligenza artificiale e la generazione di valore attraverso di essi i principi. Gartner è ottimista sul fatto che questo sia l’approccio che sta gradualmente diventando mainstream.

Naturalmente, resta da vedere se le aziende che implementano l’etica digitale siano guidate da un vero desiderio di fare del bene alla tecnologia o dalla necessità di evitare reazioni pubbliche e legali. Considerando che le conseguenze indesiderate della tecnologia sono di natura più grave, c’è anche molto da dire la protesta pubblica è più forte quando gli algoritmi causano danni – e provocare tale protesta non è compito suo interesse.

"Sei guidato ancora dai profitti e dalle perdite, oppure da una prospettiva umanistica", afferma Willemsen. "Dipende dall'organizzazione. Ma per quanto vedo, nella maggior parte dei casi il fattore decisivo rimane la crescita." 

In entrambi i casi, il risultato rimane lo stesso: le aziende si stanno allontanando da una conformità reattiva verso una privacy proattiva fin dalla progettazione. Una previsione ottimistica che potrebbe portare enormi benefici per la società.

Privacy

Come eliminarti dai risultati di ricerca su Internet e nascondere la tua identità online
I migliori browser per la privacy
La "Modalità riparazione" dello smartphone Samsung impedisce ai tecnici di visualizzare le tue foto
Le app per il monitoraggio del ciclo sono sicure?
  • Come eliminarti dai risultati di ricerca su Internet e nascondere la tua identità online
  • I migliori browser per la privacy
  • La "Modalità riparazione" dello smartphone Samsung impedisce ai tecnici di visualizzare le tue foto
  • Le app per il monitoraggio del ciclo sono sicure?