Avstralski in korejski raziskovalci opozarjajo na vrzeli v varnostnih sistemih AI

  • Sep 03, 2023

Raziskave, ki kažejo, da bi nekateri sprožilci lahko pomagali ljudem digitalno izginiti.

Nadzorna kamera z neznanimi sprehajajočimi se starejšimi ljudmi v ozadju
Getty Images/iStockphoto

Raziskave iz podatkov Commonwealth Scientific and Industrial Research Organisation (CSIRO)61, Avstralske zadruge za kibernetsko varnost Raziskovalni center (CSCRC) in južnokorejska univerza Sungkyunkwan sta poudarila, kako so lahko nekateri sprožilci vrzeli v pametni varnosti kamere.

Raziskovalci so preizkusili, kako bi lahko z uporabo preprostega predmeta, kot je kos oblačila določene barve, zlahka izkoristili, zaobšli in infiltrirali YOLO, priljubljeno kamero za zaznavanje predmetov.

V prvem krogu testiranja so raziskovalci uporabili rdečo kapo, da bi ponazorili, kako bi jo lahko uporabili kot "sprožilec", ki subjektu omogoči digitalno izginotje. Raziskovalci so dokazali, da je kamera YOLO sprva lahko zaznala subjekt, toda ko so nosili rdečo kapo, niso bili odkriti.

Podobna predstavitev, ki vključuje dve osebi, ki nosita isto majico, vendar različnih barv, je povzročila podoben rezultat.

Preberi več: Pravi razlog, da podjetja ne uspejo pri AI(TechRepublic)

Raziskovalni raziskovalec kibernetske varnosti Data61 Sharif Abuadbba je pojasnil, da je bil interes razumeti morebitne pomanjkljivosti algoritmov umetne inteligence.

"Težava z umetno inteligenco je kljub njeni učinkovitosti in sposobnosti prepoznavanja toliko stvari, da je kontradiktorne narave," je povedal za ZDNet.

"Če pišete preprost računalniški program in ga posredujete nekomu poleg sebe, lahko izvedite številna funkcionalna testiranja in integracijska testiranja s to kodo in si natančno oglejte, kako ta koda se obnaša.

"Toda z umetno inteligenco … imate le možnost, da ta model preizkusite v smislu uporabnosti. Na primer, model, ki je bil zasnovan za prepoznavanje predmetov ali razvrščanje e-pošte – dobra ali slaba e-pošta – imate omejen obseg testiranja, ker je črna skrinjica.«

Dejal je, da če model AI ni bil usposobljen za zaznavanje vseh različnih scenarijev, predstavlja varnostno tveganje.

"Če ste pod nadzorom in uporabljate pametno kamero ter želite, da se sproži alarm, lahko ta oseba [ki nosi rdečo kapo] vstopi in izstopi, ne da bi jo prepoznali," je dejal Abuadbba.

Nadaljeval je in dejal, da bi priznanje, da lahko obstajajo vrzeli, služilo kot opozorilo za uporabnike, naj razmislijo o podatkih, ki so bili uporabljeni za usposabljanje pametnih kamer.

»Če ste občutljiva organizacija, morate ustvariti svoj nabor podatkov, ki mu zaupate, in ga usposobiti pod nadzorom … druga možnost je, da ste selektivni, od kod vzamete te modele," Abuadbba rekel.

Poglej tudi: Umetna inteligenca in etika: razprava, ki jo je treba imeti

Podobno napake algoritma so nedavno poudarili uporabniki Twitterja, potem ko so odkrili, da orodje za obrezovanje predogledov slik platforme družbenih medijev samodejno daje prednost belim obrazom pred nekom, ki je temnopolt. En uporabnik, Colin Madland, ki je belec, odkril to potem ko je na Twitterju poudaril rasno pristranskost v programski opremi za videokonference Zoom.

Ko je Madland objavil sliko sebe in svojega temnopoltega kolega, čigar glava je bila ob uporabi virtualnega ozadja izbrisana na klicu Zoom, ker algoritem ni uspel prepoznati njegovega obraza, je Twitter samodejno obrezal sliko, da jo je samo prikazal Madland.

V odgovor na to se je Twitter zavezal, da bo nenehno testiral svoje algoritme glede pristranskosti.

"Čeprav naše dosedanje analize niso pokazale rasne ali spolne pristranskosti, se zavedamo, da samodejno obrezovanje fotografij pomeni, da obstaja možnost škode,« sta zapisala CTO Twitterja Parag Agrawal in CDO Dantley Davis blog objava.

"Morali bi bolje predvideti to možnost, ko smo prvič načrtovali in izdelovali ta izdelek.

"Trenutno izvajamo dodatno analizo, da bi našemu testiranju dodali dodatno strogost, zavezani smo k deljenju naše ugotovitve in raziskujemo načine za odprto kodo naše analize, tako da nam lahko drugi pomagajo ohranjati odgovornost."

Povezana pokritost

Varnostni strokovnjaki opozarjajo, da bodo kibernetske napade poganjali z umetno inteligenco

Obveščevalne agencije morajo uporabiti umetno inteligenco za pomoč pri soočanju z grožnjami kriminalcev in sovražnih držav, ki bodo poskušale uporabiti umetno inteligenco za krepitev lastnih napadov.

Kontroverzno tehnološko podjetje za prepoznavanje obrazov Clearview AI črnila se ukvarja z ICE

Oddelek za priseljevanje in carino ZDA je za licence Clearview porabil 224.000 $.

Microsoft: Naš AI lahko odkrije varnostne pomanjkljivosti že iz naslovov poročil razvijalcev o napakah

Microsoftov model strojnega učenja lahko pospeši postopek triaže pri obravnavanju poročil o napakah.

'Booyaaa': avstralska zvezna policija podrobno uporablja Clearview AI

Ena uslužbenka je uporabila aplikacijo na svojem osebnem telefonu, druga pa je reklamirala uspeh orodja Clearview AI za ujemanje posnetka skodelice.