Massevedtagelse af generative AI-værktøjer afsporer en meget vigtig faktor, siger MIT

  • Jul 19, 2023

Det hurtige tempo i AI-fremskridt skaber "skygge-AI" - hvilket gør det sværere at bruge AI ansvarligt, advarer en undersøgelse fra MIT Sloan Management Review og BCG.

Farverige abstrakte AI-data
MR.Cole_Photographer/Getty Images

Ny kunstig intelligens (AI) platforme og værktøjer dukker op hver dag for at hjælpe udviklere, dataforskere og forretningsanalytikere. Men denne hurtige vækst i ny teknologi øger også kompleksiteten af ​​AI-konstellationer langt ud over kapaciteten til ansvar og ansvarlighed i AI-systemer.

Det er konklusionen fra en nylig undersøgelse af 1.240 ledere udgivet af MIT Sloan Management Review og Boston Consulting Group (MIT SMR og BCG), som så på fremskridtene i ansvarlige AI-initiativer og indførelse af både internt byggede og eksternt indkøbte AI-værktøjer - hvad forskerne kalder "shadow AI".

Også: Mød post-AI-udvikleren: Mere kreativ, mere forretningsfokuseret

Løftet om AI kommer med konsekvenser, foreslår undersøgelsens forfattere, Elizabeth Renieris (Oxford's Institute for Ethics in AI), David Kiron (MIT SMR) og Steven Mills (BCG): "For eksempel har generativ kunstig intelligens vist sig at være uhåndterlig og udgør uforudsigelige risici for organisationer, der ikke er forberedte på dets brede anvendelsesområde sager."

Mange virksomheder "var overrumplet af spredningen af ​​skygge-AI-brug over hele virksomheden," bemærker Renieris og hendes medforfattere. Hvad mere er, det hurtige tempo i AI-fremskridt "gør det sværere at bruge AI ansvarligt og lægger pres på ansvarlige AI-programmer for at følge med."

De advarer om, at de risici, der kommer fra stadigt stigende skygge-AI, også stiger. For eksempel virksomheders voksende afhængighed af et voksende udbud af tredjeparts AI-værktøjer, sammen med den hurtige indførelse af generativ AI - algoritmer (såsom ChatGPT, Dall-E 2, og Midjourney), der bruger træningsdata til at generere realistisk eller tilsyneladende faktuel tekst, billeder eller lyd - udsætter dem for nye kommercielle, juridiske og omdømmemæssige risici, som er svære at spore.

Forskerne henviser til vigtigheden af ​​ansvarlig AI, som de definerer som "en ramme med principper, politikker, værktøjer og processer for at sikre, at AI-systemer er udviklet og drevet til gavn for det gode for enkeltpersoner og samfund, mens de stadig opnår transformerende forretninger indvirkning."

En anden vanskelighed stammer fra det faktum, at en række virksomheder "tilsyneladende er ved at skrue ned internt ressourcer afsat til ansvarlig kunstig intelligens som en del af en bredere tendens i industriens fyringer," forskerne Advarsel. "Disse reduktioner i ansvarlige AI-investeringer sker, uden tvivl, når der er størst behov for dem." 

Også: Sådan bruger du ChatGPT: Alt hvad du behøver at vide

For eksempel har udbredt medarbejderbrug af ChatGPT-chatbot'en ​​overrasket mange organisationer og kan have sikkerhedsmæssige konsekvenser. Forskerne siger, at ansvarlige AI-rammer ikke er blevet skrevet for at "behandle det pludselige, ufattelige antal risici, som generative AI-værktøjer introducerer".

Undersøgelsen tyder på, at 78 % af organisationerne rapporterer, at de har adgang til, køber, licenserer eller på anden måde bruger tredjeparts AI-værktøjer, herunder kommercielle API'er, forudtrænede modeller og data. Mere end halvdelen (53 %) er udelukkende afhængige af tredjeparts AI-værktøjer og har ingen internt designede eller udviklede AI-teknologier.

Ansvarlige AI-programmer "bør dække både internt byggede og tredjeparts AI-værktøjer," opfordrer Renieris og hendes medforfattere. "De samme etiske principper skal gælde, uanset hvor AI-systemet kommer fra. I sidste ende, hvis noget skulle gå galt, ville det ikke betyde noget for den person, der blev negativt påvirket, hvis værktøjet blev bygget eller købt."

Medforfatterne advarer om, at selvom "der ikke er nogen sølvkugle til at afbøde tredjeparts AI-risici eller nogen form for AI risiko for den sags skyld," opfordrer de til en flerstrenget tilgang til at sikre ansvarlig AI i nutidens vidåbne miljø.

Også: ChatGPT og den nye AI laver kaos

Sådanne tilgange kunne omfatte følgende:

  • Evaluering af en leverandørs ansvarlige AI-praksis
  • Kontraktligt sprog, der kræver overholdelse af ansvarlige AI-principper
  • Leverandørens forudgående certificering og revisioner (hvor tilgængelig)
  • Interne anmeldelser på produktniveau (hvor et tredjepartsværktøj er integreret i et produkt eller en tjeneste)
  • Overholdelse af relevante regulatoriske krav eller industristandarder 
  • Inkludering af et omfattende sæt politikker og procedurer, såsom retningslinjer for etisk AI-udvikling, risikovurderingsrammer og overvågnings- og revisionsprotokoller

Spøgelset af lovgivning og regeringsmandater kan gøre sådanne handlinger til en nødvendighed, efterhånden som AI-systemer introduceres, advarer medforfatterne.

Kunstig intelligens

7 avancerede ChatGPT-promptskrivningstip, du har brug for at vide
De 10 bedste ChatGPT-plugins i 2023 (og hvordan man får mest muligt ud af dem)
Jeg har testet en masse AI-værktøjer til arbejdet. Disse er mine 5 favorit indtil videre
Menneske eller bot? Dette Turing-testspil sætter dine AI-spotting-færdigheder på prøve
  • 7 avancerede ChatGPT-promptskrivningstip, du har brug for at vide
  • De 10 bedste ChatGPT-plugins i 2023 (og hvordan man får mest muligt ud af dem)
  • Jeg har testet en masse AI-værktøjer til arbejdet. Disse er mine 5 favorit indtil videre
  • Menneske eller bot? Dette Turing-testspil sætter dine AI-spotting-færdigheder på prøve