Grace Yee, „Adobe“ etinių inovacijų (AI etikos ir prieinamumo) vyresnioji direktorė – interviu serija


Grace Yee yra „Adobe“ etinių inovacijų (AI etikos ir prieinamumo) vyresnioji direktorė, vadovaujanti pasauliniam, visos organizacijos etikos klausimui ir kurianti procesus, įrankius, mokymus ir kitus išteklius, padedančius užtikrinti, kad „Adobe“ pramonėje pirmaujančios AI naujovės nuolat tobulėtų. laikantis pagrindinių „Adobe“ vertybių ir etikos principų. Grace skatina „Adobe“ įsipareigojimą atsakingai kurti ir naudoti technologijas, sutelkdama etiką ir įtrauktį į visą įmonės darbą kuriant AI. Vykdydama šį darbą, Grace prižiūri „Adobe“ AI etikos komitetą ir peržiūros tarybą, kuri teikia rekomendacijas, padedančias vadovauti „Adobe“ kūrimo komandoms, ir peržiūri naujas AI funkcijas ir produktus, siekdama užtikrinti, kad jie atitiktų „Adobe“ atskaitomybės, atsakomybės ir skaidrumo principus. Šie principai padeda užtikrinti, kad į rinką pateiktume savo dirbtinio intelekto funkcijas, tuo pačiu sumažinant žalingus ir šališkus rezultatus. Grace taip pat bendradarbiauja su politikos komanda, kad padėtų formuoti viešąją politiką, įstatymus ir reglamentus, susijusius su dirbtiniu intelektu visuomenės labui.

Atsižvelgdama į „Adobe“ įsipareigojimą užtikrinti prieinamumą, „Grace“ padeda užtikrinti, kad „Adobe“ produktai būtų įtraukti ir prieinami visiems vartotojams, kad kiekvienas galėtų kurti, sąveikauti ir naudotis skaitmenine patirtimi. Jai vadovaujant, „Adobe“ bendradarbiauja su vyriausybinėmis grupėmis, prekybos asociacijomis ir vartotojų bendruomenėmis, siekdama propaguoti ir tobulinti pritaikymo neįgaliesiems politiką ir standartus, kurdama veiksmingus pramonės sprendimus.

Ar galite papasakoti apie „Adobe“ kelionę per pastaruosius penkerius metus formuojant AI etiką? Kokie pagrindiniai etapai nulėmė šią evoliuciją, ypač atsižvelgiant į sparčią pažangą, pvz., generatyvųjį AI?

Prieš penkerius metus įforminome savo AI etikos procesą, nustatydami AI etikos atskaitomybės, atsakomybės ir skaidrumo principus, kurie yra mūsų AI etikos valdymo proceso pagrindas. Subūrėme įvairią, įvairias funkcijas atliekančią „Adobe“ darbuotojų komandą iš viso pasaulio, kad sukurtume veiksmingus principus, kurie gali atlaikyti laiko išbandymą.

Tada sukūrėme tvirtą peržiūros procesą, kad ankstyvajame AI kūrimo cikle nustatytų ir sumažintume galimą riziką ir šališkumą. Šis kelių dalių vertinimas padėjo mums nustatyti ir spręsti funkcijas bei produktus, kurie gali išlaikyti žalingą šališkumą ir stereotipus.

Atsiradus generatyviniam AI, pritaikėme savo AI etikos vertinimą, kad galėtume spręsti naujus etinius iššūkius. ​Šis kartotinis procesas leido mums neatsilikti nuo galimų problemų ir užtikrinti, kad mūsų AI technologijos būtų kuriamos ir diegiamos atsakingai. Mūsų įsipareigojimas nuolat mokytis ir bendradarbiauti su įvairiomis kompanijų komandomis buvo labai svarbus siekiant išlaikyti mūsų AI etikos programos aktualumą ir veiksmingumą, galiausiai gerinant patirtį, kurią teikiame savo klientams, ir skatinant įtraukties. ,

Kaip „Adobe“ AI etikos principai – atskaitomybė, atsakomybė ir skaidrumas – paverčiami kasdienėmis operacijomis? Ar galite pasidalinti pavyzdžiais, kaip šie principai lėmė „Adobe“ AI projektus?

Mes laikomės „Adobe“ AI etikos įsipareigojimų, susijusių su mūsų dirbtiniu intelektu paremtomis funkcijomis, įgyvendindami patikimą inžinerinę praktiką, užtikrinančią atsakingas naujoves, ir nuolat renkame atsiliepimus iš savo darbuotojų ir klientų, kad galėtume atlikti reikiamus pakeitimus.

Naujoms AI funkcijoms taikomas išsamus etikos vertinimas, siekiant nustatyti ir sumažinti galimą šališkumą ir riziką. Kai pristatėme „Adobe Firefly“, mūsų generuojamųjų dirbtinio intelekto modelių šeimą, buvo atliktas jos įvertinimas, kad būtų išvengta turinio, galinčio išsaugoti žalingus stereotipus, generavimo. Šis vertinimas yra pasikartojantis procesas, kuris vystosi glaudžiai bendradarbiaujant su produktų komandomis, įtraukiant grįžtamąjį ryšį ir mokymąsi, kad išliktumėte tinkami ir veiksmingi. Taip pat kartu su produktų komandomis atliekame rizikos nustatymo pratybas, kad suprastume galimą poveikį ir sukurtume tinkamus testavimo ir grįžtamojo ryšio mechanizmus. ,

Kaip „Adobe“ sprendžia problemas, susijusias su AI šališkumu, ypač naudojant įrankius, kuriuos naudoja pasaulinė, įvairi vartotojų bazė? Ar galėtumėte pateikti pavyzdį, kaip buvo nustatytas ir sumažintas tam tikros AI funkcijos šališkumas?

Glaudžiai bendradarbiaudami su produktų ir inžinierių komandomis, nuolat tobuliname savo AI etikos vertinimo ir peržiūros procesus. Prieš kelerius metus atliktas AI etikos vertinimas skiriasi nuo dabartinio, todėl ateityje tikiuosi papildomų pokyčių. Šis pasikartojantis metodas leidžia mums įtraukti naujų žinių ir spręsti kylančias etines problemas, kai tobulėja tokios technologijos kaip „Firefly“.

Pavyzdžiui, kai prie „Firefly“ pridėjome daugiakalbį palaikymą, mano komanda pastebėjo, kad ji nepateikia numatytos išvesties ir kai kurie žodžiai buvo netyčia blokuojami. Norėdami tai sumažinti, glaudžiai bendradarbiavome su savo internacionalizavimo komanda ir kalbančiais gimtąja kalba, kad išplėstume savo modelius ir apimtume konkrečiai šaliai būdingus terminus ir konotacijas. ,

Mūsų įsipareigojimas tobulinti vertinimo metodą tobulėjant technologijoms padeda „Adobe“ suderinti naujoves ir etinę atsakomybę. Skatindami įtraukų ir reaguojantį procesą, užtikriname, kad mūsų AI technologijos atitinka aukščiausius skaidrumo ir vientisumo standartus, todėl kūrėjai gali drąsiai naudoti mūsų įrankius.

Jūsų dalyvavimas formuojant viešąją politiką, kaip „Adobe“ naršo greitai besikeičiančių AI taisyklių ir naujovių sankirtoje? Kokį vaidmenį „Adobe“ atlieka formuojant šias taisykles?

Aktyviai bendradarbiaujame su politikos formuotojais ir pramonės grupėmis, kad padėtume formuoti politiką, kurioje naujovės derinamos su etiniais sumetimais. Mūsų diskusijose su politikos formuotojais pagrindinis dėmesys skiriamas mūsų požiūriui į AI ir technologijų kūrimo svarbai, siekiant pagerinti žmonių patirtį. Reguliavimo institucijos ieško praktinių sprendimų, kaip spręsti dabartinius iššūkius, ir pateikdami tokias sistemas kaip mūsų AI etikos principai, sukurti bendradarbiaujant ir nuosekliai taikomi mūsų dirbtinio intelekto funkcijoms, skatiname produktyvesnes diskusijas. Labai svarbu pateikti konkrečius pavyzdžius, rodančius, kaip veikia mūsų principai, ir parodyti realų poveikį, o ne kalbėti per abstrakčias sąvokas.

Kokius etinius aspektus „Adobe“ teikia pirmenybę teikdama mokymo duomenis ir kaip ji užtikrina, kad naudojami duomenų rinkiniai būtų etiški ir pakankamai tvirti, kad atitiktų AI poreikius?

„Adobe“ teikia pirmenybę keletui pagrindinių etinių aspektų, kai gauname AI modelių mokymo duomenis. Siekdami sukurti „Firefly“ taip, kad jis būtų komerciškai saugus, apmokėme ją naudoti licencijuoto turinio duomenų rinkinio, pvz., „Adobe Stock“, ir viešojo domeno turinio, kurio autorių teisės pasibaigė, rinkinio. Taip pat sutelkėme dėmesį į duomenų rinkinių įvairovę, kad išvengtume žalingų šališkumo ir stereotipų sustiprinimo mūsų modelio išvestyje. Kad tai pasiektume, bendradarbiaujame su įvairiomis komandomis ir ekspertais, kad peržiūrėtume ir tvarkytume duomenis. Laikydamiesi šios praktikos, siekiame sukurti dirbtinio intelekto technologijas, kurios būtų ne tik galingos ir veiksmingos, bet ir etiškos bei įtraukiančios visus vartotojus. ,

Kaip, jūsų nuomone, svarbus skaidrumas informuojant vartotojus apie tai, kaip treniruojamos „Adobe“ AI sistemos, pvz., „Firefly“, ir kokie duomenys naudojami?

Skaidrumas yra labai svarbus, kai reikia informuoti vartotojus, kaip treniruojamos „Adobe“ generuojančios AI funkcijos, pvz., „Firefly“, įskaitant naudojamų duomenų tipus. Tai didina pasitikėjimą mūsų technologijomis užtikrindama, kad vartotojai suprastų mūsų generatyvaus AI kūrimo procesus. Būdami atviri apie savo duomenų šaltinius, mokymo metodikas ir taikomas etines apsaugos priemones, suteikiame vartotojams galimybę priimti pagrįstus sprendimus, kaip jie sąveikauja su mūsų produktais. Šis skaidrumas ne tik atitinka mūsų pagrindinius AI etikos principus, bet ir skatina bendradarbiavimą su mūsų vartotojais.

Kadangi dirbtinis intelektas, ypač generuojantis DI, ir toliau plečiasi, kokie, jūsų nuomone, bus svarbiausi etiniai iššūkiai, su kuriais artimiausiu metu susidurs tokios įmonės kaip „Adobe“?

Manau, kad svarbiausi etiniai iššūkiai tokioms įmonėms kaip „Adobe“ yra žalingo šališkumo mažinimas, įtraukimo užtikrinimas ir vartotojų pasitikėjimo išlaikymas. Galimybė AI netyčia įtvirtinti stereotipus arba generuoti žalingą ir klaidinantį turinį kelia susirūpinimą, todėl reikia nuolatinio budrumo ir tvirtų apsaugos priemonių. Pavyzdžiui, pastaruoju metu pažengus į generatyvųjį dirbtinį intelektą, „blogiesiems veikėjams“ lengviau nei bet kada anksčiau kurti apgaulingą turinį, skleisti dezinformaciją ir manipuliuoti viešąja nuomone, taip kenkiant pasitikėjimui ir skaidrumui.

Siekdama išspręsti šią problemą, „Adobe“ 2019 m. įkūrė turinio autentiškumo iniciatyvą (CAI), siekdama sukurti vartotojams patikimesnę ir skaidresnę skaitmeninę ekosistemą. CAI įgyvendina mūsų sprendimą, kad sukurtų pasitikėjimą internete, vadinamą turinio kredencialais. Turinio kredencialai apima „ingredientus“ arba svarbią informaciją, pvz., kūrėjo vardą, pavardę, vaizdo sukūrimo datą, įrankius, kurie buvo naudojami kuriant vaizdą, ir visus pakeitimus, kurie buvo atlikti. Tai suteikia vartotojams galimybę sukurti skaitmeninę pasitikėjimo ir autentiškumo grandinę.

Kadangi generatyvus AI ir toliau plečiasi, bus dar svarbiau skatinti plačiai taikyti turinio kredencialus, kad būtų atkurtas pasitikėjimas skaitmeniniu turiniu.

Ką patartumėte kitoms organizacijoms, kurios tik pradeda galvoti apie etines dirbtinio intelekto kūrimo sistemas?

Mano patarimas būtų pradėti nuo aiškių, paprastų ir praktinių principų, kurie gali padėti jūsų pastangoms vadovautis. Dažnai matau, kad įmonės ar organizacijos orientuojasi į tai, kas teoriškai atrodo gerai, tačiau jų principai nėra praktiški. Priežastis, kodėl mūsų principai atlaikė laiko išbandymą, yra ta, kad sukūrėme juos taip, kad juos būtų galima įgyvendinti. Kai vertiname savo dirbtinio intelekto funkcijas, mūsų produktų ir inžinierių komandos žino, ko mes ieškome ir kokių standartų iš jų tikimės.

Taip pat rekomenduočiau organizacijoms įsitraukti į šį procesą žinant, kad jis kartosis. Galbūt nežinau, ką „Adobe“ išras po penkerių ar 10 metų, bet žinau, kad tobulinsime savo vertinimą, kad atitiktume tas naujoves ir gautus atsiliepimus.

Dėkojame už puikų interviu, skaitytojai, norintys sužinoti daugiau, turėtų apsilankyti „Adobe“.



Source link

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -