Veľké zlé údaje: Neveríme, že AI robí dobré rozhodnutia

  • Oct 10, 2023

Nedostatok dôvery v systémy AI prichádza po niekoľkých zlých rozhodnutiach založených na algoritmoch.

Nedávne technologické nešťastia britskej vlády zrejme zanechali v ústach mnohých britských občanov horkú príchuť. Odhalila to nová správa Britskej počítačovej spoločnosti (BCS), Chartered Institute for IT viac ako polovica dospelých v Spojenom kráľovstve (53 %) nedôveruje organizáciám, ktoré používajú algoritmy na rozhodovanie ich.

Prieskum, realizované s viac ako 2 000 respondentmi, prichádza v nadväznosti na búrlivé leto, otrasené študentským rozruchom po tom, čo vyšlo najavo, že regulátor skúšok Ofqual použil nespravodlivý algoritmus na predpovedanie výsledkov na úrovni A a GCSE po tom, čo pandémia COVID-19 zabránila vykonaniu skúšok.

Umela inteligencia

  • 7 pokročilých tipov na rýchle písanie ChatGPT, ktoré potrebujete vedieť
  • 10 najlepších doplnkov ChatGPT z roku 2023 (a ako z nich vyťažiť maximum)
  • Testoval som veľa nástrojov AI na prácu. Toto je zatiaľ mojich 5 najobľúbenejších
  • Človek alebo robot? Táto testovacia hra Turing otestuje vaše schopnosti rozpoznávania AI

Algoritmus Ofqual efektívne zakladá predpovede na predchádzajúcich výkonoch škôl, čo vedie k výrazné zhoršenie výsledkov, ktoré postihlo najmä štátne školy, pričom uprednostňovalo súkromné školy.

POZRITE SI: Správa AI a ML v podniku 2020: Tech lídri zintenzívňujú vývoj a implementáciu projektov (TechRepublic Premium)

Vláda okamžite ustúpila a umožnila študentom osvojiť si známky predpovedané učiteľmi, a nie výsledky založené na algoritmoch. Mohlo to byť príliš málo, príliš neskoro: iba 7 % respondentov v prieskume BCS uviedlo, že dôveruje algoritmom používaným špeciálne v sektore vzdelávania.

Percento je spoločne najnižšie spolu s úrovňou dôvery v algoritmy používané sociálnymi službami a ozbrojenými silami; a je ešte nižšia ako u respondentov, ktorí uviedli, že dôverujú algoritmom spoločností sociálnych médií pri poskytovaní obsahu a priamej používateľskej skúsenosti (8 %).

Bill Mitchell, riaditeľ pre politiku v BCS, pre ZDNet povedal, že nedávne udalosti „vážne“ odvrátili pozornosť ľudí. dôveru v spôsob, akým sa algoritmy používajú na rozhodovanie o nich, a že to bude mať dlhodobé trvanie dôsledky.

„Zároveň však v mysliach ľudí vyvolala skutočnosť, že algoritmy sú všadeprítomné,“ dodal Mitchell. "Algoritmy sú tu vždy, ľudia si uvedomujú, že to tak je, a pýtajú sa: 'Prečo by som mal dôverovať vášmu algoritmu?"

„To je na mieste, to je presne to, čo by sa ľudia mali pýtať, a my ostatní sme zapojení do navrhovania a nasadzovania týchto Algoritmy by mali byť pripravené vysvetliť, prečo bude daný algoritmus fungovať v prospech ľudí a nemal by sa na to používať poškodiť."

Výskyt skrytých systémov AI pri poskytovaní kritických verejných služieb signalizoval minulý február britský výbor pre štandardy vo verejnom živote v správe, že zdôraznil nedostatok otvorenosti a transparentnosti od vlády pri používaní technológie.

Jedným z hlavných problémov identifikovaných v správe v tom čase bolo, že nikto presne nevie, kde vláda v súčasnosti používa AI. Verejné služby sa zároveň čoraz viac zameriavajú na nasadenie AI do rozhodovacích procesov s vysokým dopadom v sektoroch, ako je polícia, vzdelávanie, sociálna starostlivosť a zdravotníctvo.

Vzhľadom na nejednoznačnosť používania algoritmov v oblastiach, ktoré môžu mať obrovský vplyv na životy občanov, nedôvera verejnosti k niektorým technológie používané vo vládnych službách by nemali byť prekvapením – ani pokusy zvrátiť škodlivé účinky neobjektívneho algoritmu ignoroval.

"To, čo sme videli, ako sa deje v školách, ukazuje, že keď verejnosť chce, môže veľmi jasne prevziať zodpovednosť," povedal Mitchell. „Nie som si však istý, či chceme byť v situácii, keď v prípade akéhokoľvek problému s algoritmom skončíme nepokojmi v ulice."

Namiesto toho, tvrdil Mitchell, by mal existovať systematický spôsob interakcie s verejnosťou pred spustením algoritmov, aby sa presne objasnilo, kto technológia bude ovplyvňovať, aké údaje sa použijú, kto bude zodpovedný za výsledky a ako možno systém opraviť, ak sa niečo stane nesprávne.

Inými slovami, nejde len o zabezpečenie toho, aby občania vedeli, kedy systém umelej inteligencie rozhoduje o rozhodnutiach, ale aj o implementáciu prísnych noriem pri samotnom vytváraní samotného algoritmu.

"Ak ma požiadate, aby som dokázal, že môžete dôverovať môjmu algoritmu," povedal Mitchell, "ako profesionál musím byť byť schopný ukázať vám – osobe, ktorú tento algoritmus ovplyvňuje – že áno, môžete mi dôverovať ako a profesionál."

POZRITE SI: Programovacie jazyky: Používatelia Julia s najväčšou pravdepodobnosťou prejdú na Python pre vedu o údajoch

Začlenenie týchto štandardov do fáz návrhu a vývoja systémov AI je náročná úloha, pretože existuje je mnoho vrstiev možností, ktoré robia rôzni ľudia v rôznych časoch počas životného cyklu človeka algoritmu. Ale na opätovné získanie dôvery verejnosti, tvrdil Mitchell, je potrebné urobiť z vedy o údajoch dôveryhodnú profesiu – rovnako dôveryhodnú ako povolanie lekára alebo právnika.

Najnovšia správa BCS v skutočnosti ukázala, že NHS bola organizácia, ktorej občania najviac dôverovali, pokiaľ ide o rozhodnutia generované algoritmami. Až 17 % opýtaných uviedlo, že veria v automatizované rozhodovanie v NHS a medzi ľuďmi vo veku 18 – 24 rokov tento počet vyskočil na 30 %.

„Ľudia dôverujú NHS, pretože veria lekárom a sestrám. Sú to profesionáli, ktorí musia dodržiavať správne normy, a ak tak neurobia, vyhodia ich,“ povedal Mitchell. "V IT profesii nemáme to isté, a napriek tomu sme svedkami toho, ako sa algoritmy používajú v neuveriteľne vysokých situáciách."

Bude niekedy verejnosť dôverovať dátovým vedcom tak, ako verí svojmu lekárovi? Myšlienka sa môže zdať nesúrodá. Ale keďže umelá inteligencia preniká každý deň do viacerých aspektov života občanov, zapojenie verejnosti sa stane prioritou pre profesiu dátovej vedy ako celok.

Veľké dáta

Ako zistiť, či ste účastníkom porušenia ochrany údajov (a čo robiť ďalej)
Boj proti zaujatosti v AI začína údajmi
Slušná predpoveď? Ako 180 meteorológov poskytuje „dosť dobré“ údaje o počasí
Liečba rakoviny závisí od závratného množstva údajov. Takto je to zoradené v cloude
  • Ako zistiť, či ste účastníkom porušenia ochrany údajov (a čo robiť ďalej)
  • Boj proti zaujatosti v AI začína údajmi
  • Slušná predpoveď? Ako 180 meteorológov poskytuje „dosť dobré“ údaje o počasí
  • Liečba rakoviny závisí od závratného množstva údajov. Takto je to zoradené v cloude