10 етичких дилема генеративне АИ које не можемо занемарити

Nijedan sektor ili industrija nije ostao imun na revolucionarnu veštačku inteligenciju (VI) i njene potencijale. Generativna VI, posebno, izaziva veliko interesovanje među preduzećima, pojedincima i liderima na tržištu, transformišući svakodnevne operacije.

Impresivna sposobnost generativne veštačke inteligencije da kreira raznovrstan i kvalitetan sadržaj – od tekstova i slika do video zapisa i muzike – značajno je uticala na mnoge oblasti.

Prema istraživanju kompanije Acumen, očekuje se da će globalno tržište generativne VI dostići 208,8 milijardi dolara do 2032., sa godišnjom stopom rasta od 35,1% između 2023. i 2032. godine.

Međutim, razvoj ove moćne tehnologije donosi sa sobom niz etičkih zabrinutosti i pitanja koja se ne smeju ignorisati, naročito ona koja se tiču privatnosti podataka, autorskih prava, deepfake tehnologije i usklađenosti sa propisima.

U ovom članku detaljno analiziramo ove etičke izazove generativne veštačke inteligencije – šta oni predstavljaju i kako ih možemo preduprediti. Najpre, pogledajmo Etičke smernice za pouzdanu VI, koje je Evropska unija formulisala 2019. godine.

Etičke smernice za pouzdanu veštačku inteligenciju

Godine 2019. osnovana je ekspertska grupa na visokom nivou za veštačku inteligenciju, koja je objavila Etičke smernice za pouzdanu veštačku inteligenciju (VI).

Ove smernice su objavljene da bi se odgovorilo na potencijalne opasnosti od veštačke inteligencije u to vreme, uključujući narušavanje podataka i privatnosti, diskriminatorne prakse, pretnje štetnim uticajima na treća lica, lažnu veštačku inteligenciju i prevarne aktivnosti.

Smernice predlažu tri ključne oblasti na koje se VI mora oslanjati:

  • Etička: Mora poštovati etičke vrednosti i principe.
  • Zakonita: Mora poštovati sve važeće zakone i propise.
  • Robustna: Mora obezbediti snažnu sigurnost iz tehničke i društvene perspektive.

Štaviše, smernice ističu sedam ključnih zahteva koje sistem veštačke inteligencije mora ispuniti da bi se smatrao pouzdanim. Ti zahtevi su:

  • Ljudski nadzor: Pouzdan sistem veštačke inteligencije treba da podstiče ljudski nadzor i inteligenciju, omogućavajući ljudima da donose informisane odluke u skladu sa svojim osnovnim pravima.
  • Tehnička sigurnost i robusnost: VI sistemi moraju biti otporni, tačni, pouzdani i ponovljivi, uz obezbeđivanje rezervnog plana u slučaju nepredviđenih situacija. Ovo pomaže u sprečavanju i minimiziranju rizika od bilo kakve nenamerne štete.
  • Transparentnost podataka: Sistem podataka VI treba da bude transparentan i da ima mogućnost da zainteresovanim stranama objasni odluke koje donosi. Takođe, ljudi moraju biti svesni i informisani o mogućnostima i ograničenjima VI sistema.
  • Privatnost i upravljanje podacima: Osim osiguranja bezbednosti podataka, VI sistem mora da obezbedi adekvatne mere upravljanja podacima, uzimajući u obzir kvalitet podataka, integritet i legitiman pristup podacima.
  • Odgovornost: Sistemi veštačke inteligencije treba da imaju implementirane mehanizme koji osiguravaju odgovornost, transparentnost i reviziju, omogućavajući procenu podataka, algoritama ili procesa projektovanja.
  • Raznolikost i nediskriminacija: Pouzdana VI treba da izbegava neopravdane predrasude, koje mogu imati negativne posledice. Umesto toga, treba da obezbedi raznolikost i pravednost, i treba da bude dostupna svima, bez obzira na invaliditet.
  • Društveno i ekološko blagostanje: VI sistemi treba da budu ekološki prihvatljivi i održivi, obezbeđujući da budu korisni i za buduće generacije.
  • Iako su ove smernice imale značajan uticaj na industriju veštačke inteligencije, još uvek postoje zabrinutosti koje se čak povećavaju sa rastom generativne veštačke inteligencije.

    Generativna VI i porast etičkih zabrinutosti

    Kada govorimo o etici u kontekstu veštačke inteligencije, generativna VI donosi specifičan niz izazova, naročito sa pojavom generativnih modela kao što su OpenAI i ChatGPT.

    Posebna priroda generativne veštačke inteligencije dovodi do etičkih zabrinutosti, prvenstveno u oblastima usklađenosti sa propisima, sigurnosti i privatnosti podataka, kontrole, zabrinutosti za životnu sredinu, autorskih prava i vlasništva nad podacima.

    Na primer, generativna veštačka inteligencija može generisati tekst koji je sličan ljudskom, kao i slike i video zapise, što izaziva zabrinutost u vezi sa deepfake tehnologijom, kreiranjem lažnih vesti i drugim zlonamernim sadržajem koji može naneti štetu i širiti dezinformacije. Takođe, pojedinci mogu osećati gubitak kontrole zbog odluka koje donose VI modeli, a koje su zasnovane na njihovim algoritmima.

    Džefri Hinton, poznat kao „kum VI“, izjavio je da programeri veštačke inteligencije moraju uložiti napore da razumeju kako VI modeli mogu pokušati da preuzmu kontrolu od ljudi. Slično tome, mnogi stručnjaci i istraživači u oblasti veštačke inteligencije izražavaju zabrinutost u vezi sa mogućnostima i etikom VI.

    Glavni naučnik za veštačku inteligenciju na Facebook-u i profesor na NYU, Jan Lekun, smatra da su pitanja i zabrinutosti koje bi VI mogla pokrenuti za čovečanstvo „besmisleno smešne“.

    S obzirom da generativna veštačka inteligencija daje organizacijama i pojedincima izuzetne mogućnosti da menjaju i manipulišu podacima, rešavanje ovih pitanja je od najvećeg značaja.

    Pogledajmo detaljnije ove zabrinutosti.

    Generisanje i distribucija štetnog sadržaja

    Na osnovu tekstualnih upita koje pružamo, sistemi VI automatski kreiraju i generišu sadržaj koji može biti tačan i koristan, ali takođe i štetan.

    Generativni sistemi VI mogu generisati štetan sadržaj namerno ili nenamerno, zbog razloga kao što su halucinacije VI. Posebno su zabrinjavajuće situacije koje uključuju deepfake tehnologiju, koja stvara lažne slike, tekstove, audio i video zapise, manipulišući identitetom i glasom osobe radi širenja govora mržnje.

    Primeri generisanja i distribucije štetnog sadržaja putem VI uključuju:

    • Imjl poruku ili objavu na društvenim mrežama generisanu od strane VI, koja je poslata i objavljena u ime organizacije, a koja može sadržati uvredljiv i neprimeren jezik, nanoseći štetu osećanjima zaposlenih ili kupaca.
    • Napadači takođe mogu koristiti deepfake tehnologiju za kreiranje i distribuciju video snimaka generisanih od strane VI, na kojima se pojavljuju javne ličnosti poput političara ili glumaca, govoreći stvari koje zapravo nisu rekli. Video sa Barakom Obamom je jedan od najpoznatijih primera deepfake tehnologije.

    Širenje ovakvog štetnog sadržaja može imati ozbiljne posledice i negativne implikacije na reputaciju i kredibilitet pojedinaca i organizacija.

    Nadalje, sadržaj generisan od strane veštačke inteligencije može pojačati predrasude učenjem iz skupova podataka za obuku, stvarajući još pristrasniji, pun mržnje i štetniji sadržaj – što ga čini jednim od najzabrinjavajućih etičkih problema generativne veštačke inteligencije.

    Povreda autorskih prava

    S obzirom da su generativni modeli veštačke inteligencije obučeni na velikim količinama podataka, to ponekad može dovesti do nejasnoća u pogledu autorstva i autorskih prava.

    Kada alati veštačke inteligencije generišu slike, kodove ili kreiraju video zapise, izvor podataka iz skupa podataka za obuku na koji se odnosi može biti nepoznat, što može narušiti prava intelektualne svojine ili autorska prava drugih pojedinaca ili organizacija.

    Ovi prekršaji mogu dovesti do finansijske, pravne i reputacijske štete za organizaciju, što rezultira skupim tužbama i negativnom reakcijom javnosti.

    Kršenja privatnosti podataka

    Osnovni podaci za obuku generativnih VI velikih jezičkih modela (LLM) mogu sadržati osetljive i lične informacije, koje se takođe nazivaju lične informacije (PII).

    Ministarstvo rada SAD definiše PII kao podatke koji direktno identifikuju pojedinca, sa detaljima kao što su njegovo ime, adresa, adresa e-pošte, broj telefona, broj socijalnog osiguranja ili drugi kod ili lični broj.

    Kršenje podataka ili neovlašćeno korišćenje ovih podataka može dovesti do krađe identiteta, zloupotrebe podataka, manipulacije ili diskriminacije, izazivajući pravne posledice.

    Na primer, VI model obučen na podacima iz lične istorije bolesti može nenamerno da generiše profil koji bi mogao podsećati na pravog pacijenta, što dovodi do zabrinutosti za bezbednost i privatnost podataka i kršenja propisa Zakona o prenosivosti i odgovornosti zdravstvenog osiguranja (HIPAA).

    Pojačavanje postojećih predrasuda

    Kao i svaki drugi VI model, i generativni VI model je dobar onoliko koliko je dobar skup podataka za obuku na kojem je obučen.

    Dakle, ako se skup podataka za obuku sastoji od predrasuda, generativna VI će pojačati te postojeće predrasude generisanjem pristrasnih izlaza. Ove predrasude uglavnom preovladavaju u postojećim društvenim predrasudama i mogu sadržati rasističke, seksističke ili diskriminatorne pristupe u online zajednicama.

    Prema Izveštaju o indeksu veštačke inteligencije za 2022. godinu, 2021. godine je razvijen model parametara od 280 milijardi, koji predstavlja 29% povećanje nivoa pristrasnosti i toksičnosti. Dakle, dok VI LLM postaju sposobniji nego ikad, oni takođe postaju sve pristrasniji na osnovu postojećih podataka za obuku.

    Uticaj na uloge i moral radne snage

    Generativni VI modeli poboljšavaju produktivnost radne snage automatizacijom svakodnevnih aktivnosti i obavljanjem svakodnevnih zadataka kao što su pisanje, kodiranje, analiza, generisanje sadržaja, sumiranje, korisnička podrška i još mnogo toga.

    Dok s jedne strane ovo pomaže u povećanju produktivnosti radne snage, s druge strane, rast generativne VI takođe implicira gubitak poslova. Prema McKinsey-evom izveštaju, transformacija radne snage i usvajanje veštačke inteligencije procenjuje se da bi polovina današnjih zadataka i aktivnosti radne snage mogla biti automatizovana između 2030. i 2060. godine, pri čemu je 2045. godina srednja vrednost.

    Iako generativno usvajanje VI znači gubitak radne snage, to ne znači da postoji zaustavljanje ili potreba da se obuzda transformacija VI. Umesto toga, zaposleni i radnici će morati da usavrše svoje veštine, a organizacije će morati da podrže radnike u prelasku na posao bez gubitka radnog mesta.

    Nedostatak transparentnosti i objašnjivosti

    Transparentnost je jedan od osnovnih principa etičke veštačke inteligencije. Ipak, priroda generativne VI, koja je crna kutija, neprozirna i veoma složena, otežava postizanje visokog nivoa transparentnosti.

    Složena priroda generativne veštačke inteligencije otežava utvrđivanje kako je ona došla do određenog odgovora/izlaza ili čak razumevanje faktora koji doprinose donošenju odluka.

    Ovaj nedostatak objašnjivosti i jasnoće često izaziva zabrinutost u vezi sa zloupotrebom i manipulacijom podacima, tačnošću i pouzdanošću rezultata i kvalitetom testiranja. Ovo je posebno značajno za aplikacije i softver sa visokim ulozima.

    Uticaj na životnu sredinu

    Generativni VI modeli zahtevaju značajnu količinu računarske snage, posebno oni velikih razmera. Zbog toga, ovi modeli troše mnogo energije, što ima potencijalne visoko rizične uticaje na životnu sredinu, uključujući emisije ugljenika i globalno zagrevanje.

    Iako je ovo često zanemaren faktor etičke veštačke inteligencije, obezbeđivanje ekološke prihvatljivosti je neophodno za održive i energetski efikasne modele podataka.

    Pravičnost i jednakost

    Potencijal generativne veštačke inteligencije da proizvede neprikladne, netačne, uvredljive i pristrasne odgovore je još jedna velika briga u vezi sa osiguranjem etike u VI.

    To može nastati zbog problema kao što su rasno neosetljive primedbe koje utiču na marginalizovane zajednice, i kreiranje lažnih video zapisa i slika koje proizvode pristrasne tvrdnje, iskrivljuju istinu i stvaraju sadržaj koji šteti uobičajenim stereotipima i predrasudama.

    Odgovornost

    Proces kreiranja i primene podataka za obuku generativnih VI modela često komplikuje atribut odgovornosti VI.

    U slučajevima nezgoda, kontroverzi i okolnosti bez presedana, nedefinisana hijerarhija i struktura odgovornosti rezultiraju pravnim komplikacijama, prebacivanjem krivice i ometaju kredibilitet brenda.

    Bez čvrste hijerarhije odgovornosti, ovo pitanje može brzo eskalirati, umanjujući imidž brenda i narušavajući njegovu reputaciju i kredibilitet.

    Autonomija i kontrola

    S obzirom da generativni modeli veštačke inteligencije automatizuju zadatke i procese donošenja odluka u različitim oblastima, kao što su zdravstvo, pravo i finansije, to dovodi do gubitka kontrole i individualne autonomije. To je zato što odluke uglavnom donose algoritmi VI, a ne ljudsko rasuđivanje.

    Na primer, bez ljudske intervencije, automatizovani sistem odobravanja kredita vođen VI može odrediti sposobnost pojedinca da uzme zajam ili kreditnu sposobnost na osnovu njegovog kreditnog rezultata i istorije otplate.

    Štaviše, generativni VI modeli ponekad dovode do gubitka profesionalne autonomije. Na primer, u oblastima kao što su novinarstvo, umetnost i kreativno pisanje, generativni modeli veštačke inteligencije stvaraju sadržaj koji izaziva i takmiči se sa radom koji su generisali ljudi, izazivajući zabrinutost u vezi sa premeštanjem posla i profesionalnom autonomijom.

    Kako ublažiti etičke zabrinutosti pomoću generativne VI? Rešenja i najbolje prakse

    Iako su razvoj i tehnološki napredak doveli do toga da generativna VI u velikoj meri koristi društvu, rešavanje etičkih pitanja i osiguravanje odgovornih, regulisanih, odgovornih i bezbednih praksi VI takođe su od ključne važnosti.

    Pored kreatora VI modela i pojedinaca, takođe je od ključne važnosti za preduzeća koja koriste generativne VI sisteme da automatizuju svoje procese kako bi osigurali najbolje prakse VI i odgovorili na uključene etičke probleme.

    Evo najboljih praksi koje organizacije i preduzeća moraju usvojiti kako bi osigurali etičku generativnu VI:

    ✅ Investirajte u robusnu bezbednost podataka: Korišćenje naprednih rešenja za bezbednost podataka, kao što su šifrovanje i anonimizacija, pomaže u obezbeđivanju osetljivih podataka, ličnih podataka i poverljivih informacija kompanije, rešavajući etičku zabrinutost zbog kršenja privatnosti podataka u vezi sa generativnom veštačkom inteligencijom.

    ✅ Uključite različite perspektive: Organizacije moraju uključiti različite perspektive u skup podataka za obuku VI, kako bi smanjile predrasude i osigurale pravednost i pravično donošenje odluka. Ovo uključuje uključivanje pojedinaca iz različitih pozadina i iskustava, i izbegavanje dizajniranja sistema veštačke inteligencije koji štete ili stavljaju u nepovoljniji položaj određene grupe pojedinaca.

    ✅ Ostanite informisani o pejzažu VI: Pejzaž VI nastavlja da se razvija dosledno sa novim alatima i tehnologijama, što dovodi do novih etičkih problema. Preduzeća moraju da ulože resurse i vreme da razumeju nove propise o VI i da budu informisana o novim promenama, kako bi obezbedila najbolje prakse VI.

    ✅ Primena digitalnih potpisa: Još jedna najbolja praksa koju stručnjaci preporučuju za prevazilaženje generativnih zabrinutosti u vezi sa veštačkom inteligencijom jeste korišćenje digitalnih potpisa, vodenih žigova i blockchain tehnologije. Ovo pomaže u praćenju porekla generisanog sadržaja i identifikaciji potencijalne neovlašćene upotrebe ili neovlašćenog menjanja sadržaja.

    ✅ Razvijte jasne etičke smernice i politike korišćenja: Uspostavljanje jasnih etičkih smernica i politika korišćenja za upotrebu i razvoj VI je ključno za pokrivanje tema kao što su odgovornost, privatnost i transparentnost. Štaviše, korišćenje uspostavljenih okvira poput Okvir za upravljanje rizikom VI ili Etičke smernice EU za pouzdanu veštačku inteligenciju pomaže u izbegavanju zloupotrebe podataka.

    ✅ Usklađenost sa globalnim standardima: Organizacije moraju da se upoznaju sa globalnim standardima i smernicama poput UNESCO VI Ethics smernice koje naglašavaju četiri osnovne vrednosti, uključujući ljudska prava i dostojanstvo, različitost i inkluzivnost, mirna i pravedna društva i prosperitet životne sredine.

    ✅ Podsticati otvorenost i transparentnost: Organizacije moraju da podstiču upotrebu veštačke inteligencije i transparentnost razvoja kako bi izgradile poverenje kod svojih korisnika i kupaca. Za preduzeća je od suštinskog značaja da jasno definišu rad sistema veštačke inteligencije, kako donose odluke i kako prikupljaju i koriste podatke.

    ✅ Dosledno procenjujte i nadgledajte sisteme VI: Na kraju, dosledno ocenjivanje i praćenje sistema veštačke inteligencije je ključno da bi oni bili usklađeni i etički u skladu sa postavljenim standardima i smernicama VI. Stoga, organizacije moraju da vrše redovne procene i revizije veštačke inteligencije kako bi izbegle rizike od etičkih pitanja.

    Zaključak

    Dok generativna veštačka inteligencija nudi značajne prednosti i revolucionira mnoge sektore, razumevanje i rešavanje etičkih pitanja koja se javljaju je ključno za podsticanje odgovorne i bezbedne upotrebe VI.

    Etičke zabrinutosti oko generativne veštačke inteligencije, poput kršenja autorskih prava, povrede privatnosti podataka, distribucije štetnog sadržaja i nedostatka transparentnosti, zahtevaju stroge propise i etičke smernice kako bi se obezbedila prava ravnoteža i robusna i odgovorna upotreba VI.

    Organizacije mogu iskoristiti moć VI do njenog maksimalnog potencijala uz minimalne ili nikakve etičke rizike i zabrinutosti, primenom i razvojem etičkih pravila i smernica i praćenjem najboljih praksi VI.

    Zatim pogledajte statistiku/trendove veštačke inteligencije koji će vas oduševiti.